Inteligența artificială
GPT-2, generatorul de text de inteligență artificială este lansat în întregime

As TheNextWeb rapoarte (TNW), OpenAI, organizația non-profit din spatele unui număr de proiecte de inteligență artificială tocmai a publicat modelul final în lansarea planificată în etape pentru GPT-2, un generator de text care a provocat destul de dezbatere de la lansarea anunțată în februarie.
Bazat pe lucrarea de cercetare a OpenAI intitulată Modelele lingvistice sunt cursanți multitask nesupravegheați, "GPT-2 folosește învățarea automată pentru a genera text nou bazat pe o intrare limitată.” Ceea ce înseamnă asta este că un utilizator poate introduce o propoziție sau două despre orice subiect, iar generatorul AI va veni cu un text care are o anumită legătură cu intrarea inițială. În esență, după cum notează TNW, spre deosebire de majoritatea „generatoarelor de text”, nu scoate șiruri pre-scrise. GPT-2 alcătuiește text care nu exista anterior.”
În tweetul său, Scott B. Weingart, director de program al Bibliotecilor Universității Carnegie Mellon, dă un exemplu concret:
Ce este o Panteră decât un tânăr leu?
Un întreg coridor plin în întregime de oameni care țipă.
Cum e asta pentru un final fericit? pic.twitter.com/qvPTrs790N
– Scott B. Weingart (@scott_bot) 20 august 2019
Dacă moartea, într-un ceas obscur și îndepărtat,
Mă lovește încă în timp ce dormeam, dacă încă visez:
Asta e pacea mea cu o eternitate petrecută?
[...]
Dar mă tem că nu va fi pace sau odihnă
Până când stelele îmi vor da toată strălucirea luminii lor
Să-mi văd toate grijile și necazurile într-o clipă.La dracu. pic.twitter.com/QRoi1C3rjj
– Scott B. Weingart (@scott_bot) 20 august 2019
OpenAI a fost inițial îngrijorat de posibilele utilizări rău intenționate ale sistemului lor, așa că a revenit februarie 2019 a decis să lanseze GPT-2 în patru părți peste opt luni. După cum au explicat pe blogul lor, „Din cauza preocupărilor noastre cu privire la aplicațiile rău intenționate ale tehnologiei, nu lansăm modelul instruit. Ca experiment de dezvăluire responsabilă, lansăm în schimb un model mult mai mic pentru ca cercetătorii să experimenteze, precum și o lucrare tehnică.”
După cum sa explicat, modelul complet conține 1.5 miliarde de parametri. „Cu cât este antrenat un model cu mai mulți parametri, cu atât pare a fi mai „inteligent” – la fel ca oamenii, practica face perfect.”
TNW notează că inițial OpenAI a lansat un model cu 124 de milioane de parametri, urmat ulterior de lansări cu 355 și 774 de milioane. Potrivit acestora, după testarea modelelor lansate, „fiecare iterație a arătat o îmbunătățire semnificativă a capacității față de iterațiile anterioare”.
Pentru a preveni utilizarea greșită, OpenAI a lansat modele de detectare GPT-2 care ar trebui să „combate preventiv utilizarea abuzivă”. La propria lor admitere în a blog, aceste modele de detecție necesită încă muncă suplimentară pentru a atinge nivelul de calitate atins până acum în GPT-2 în sine.
Cei interesați pot descărcați modelul GPT-2 aici pe Github, verificați cardul model aiciși citiți postarea de blog a OpenAI aici.