GitHub găzduiește peste 50 de milioane de dezvoltatori care lucrează împreună pentru a găzdui și a revizui codul, pentru a gestiona proiecte și pentru a construi software împreună.

GitHub este locul în care lumea construiește software

Milioane de dezvoltatori și companii își construiesc, livrează și își întrețin software-ul pe GitHub - cea mai mare și mai avansată platformă de dezvoltare din lume.

Utilizați Git sau verificați cu SVN folosind URL-ul web.

Lucrați rapid cu CLI-ul nostru oficial. Află mai multe.

Lansarea GitHub Desktop

Dacă nu se întâmplă nimic, descărcați GitHub Desktop și încercați din nou.

Lansarea GitHub Desktop

Dacă nu se întâmplă nimic, descărcați GitHub Desktop și încercați din nou.

Lansarea Xcode

Dacă nu se întâmplă nimic, descărcați Xcode și încercați din nou.

Lansarea Visual Studio

Ultimul commit

Statistici Git

Dosare

Nu s-au putut încărca cele mai recente informații de comitere.

README.md

Versiune dublă intenție entitate Transformator Pytorch

Este implementat modulul bazat pe pirat-fulger

file_path indică setul de date NLU format de reducere care urmează mai jos formatul de date de instruire RASA NLU

Toți parametrii din trainer, inclusiv kwargs, salvați ca model hparams

Utilizatorul poate verifica acești parametri prin jurnalele tensorboardului punctului de control

entitate

Deoarece acest model de depozit este implementat pe baza pirtorch-fulgerului, generează automat fișierul punctului de control (utilizatorul poate seta calea punctului de control în etapa de instruire)

După setarea căii punctului de control, interogați textul către inferențial. Rezultatul conține intenția_rank, utilizatorul poate seta confidențele de intenții de rangul n.

Rezultatul inferenței va fi ca mai jos

Modelul din acest depozit se referea din clasificatorul Rasa DIET.

acest blog explică cum funcționează în cadrul Rasa.

Dar implementare mai simplă și instruire rapidă, deducere, aici există mai multe modificări.

Nu există un strat CRF înaintea stratului TransformerEncoder

În situația reală de antrenament, conducta de antrenament CRF necesită mult timp de antrenament. Dar nu poate fi sigur că modelul CRF învață cu adevărat relația de jeton sau chiar are nevoie (cred că auto-atenția transformatorului face lucruri similare)

Este nevoie de tokenzier de caractere pentru a îmbunătăți analiza limbii coreene.

Diferă de engleză sau de alte limbi. Personajul coreean poate fi alăturat sau împărțit în personaje. Având în vedere această caracteristică, am aplicat tokenizer bazat pe caractere

Nu există pierderi de mască.

Raportând diferența superioară, nu folosește nicio încorporare și tokenizer pre-antrenate. Așadar, mascarea tehnicii este greu de aplicat.