Mākslīgais intelekts
GPT-2, mākslīgā intelekta teksta ģenerators tiek pilnībā izlaists
As TheNextWeb (TNW) ziņojumi, OpenAI, bezpeļņas organizācija, kas ir atbildīga par vairākiem mākslīgā intelekta projektiem, tikko ir publicējusi galīgo modeli plānotajā posmā GPT-2, teksta ģeneratoram, kas ir izraisījis diezgan lielas debates kopš tā paziņotās izlaišanas februārī.
Pamatojoties uz OpenAI pētniecības darbu ar nosaukumu Valodu modeļi ir bez uzraudzības daudzuzdevumu apguvēji"GPT-2 izmanto mašīnmācīšanos, lai ģenerētu jaunu tekstu, pamatojoties uz ierobežotu ievadi. Tas nozīmē, ka lietotājs var ierakstīt vienu vai divus teikumus par jebkuru tēmu, un AI ģenerators nāks klajā ar tekstu, kam ir kāda saistība ar sākotnējo ievadi. Būtībā, kā atzīmē TNW, atšķirībā no vairuma “teksta ģeneratoru” tas neizvada iepriekš ierakstītas virknes. GPT-2 veido tekstu, kas iepriekš nepastāvēja.
Kārnegija Melona universitātes bibliotēku programmas direktors Skots B. Veingarts savā tviterī sniedz konkrētu piemēru:
Kas ir pantera, ja ne jauna lauva?
Vesels koridors bija pilns ar kliedzošiem cilvēkiem.
Kā tas ir par laimīgām beigām? pic.twitter.com/qvPTrs790N
— Skots B. Veingarts (@scott_bot) Augusts 20, 2019
Ja nāve kādā neskaidrā un tālā stundā,
Pārsteidz mani joprojām, kad es gulēju, ja es vēl sapņoju:
Vai tas ir mans miers ar pavadīto mūžību?
[...]
Bet es baidos, ka nebūs miera vai atpūtas
Līdz zvaigznes man piešķirs pilnu savas gaismas mirdzumu
Lai acumirklī redzētu visas manas rūpes un bēdas.Sūdi pic.twitter.com/QRoi1C3rjj
— Skots B. Veingarts (@scott_bot) Augusts 20, 2019
OpenAI sākotnēji bija noraizējies par iespējamu ļaunprātīgu viņu sistēmas izmantošanu, tāpēc atgriezās februāris 2019 tā nolēma atbrīvot GPT-2 četrās daļās astoņu mēnešu laikā. Kā viņi paskaidroja savā emuārā, “Ņemot vērā mūsu bažas par tehnoloģiju ļaunprātīgiem lietojumiem, mēs neizlaižam apmācīto modeli. Kā eksperiments atbildīgā izpaušanā mēs tā vietā izlaižam daudz mazāku modeli, lai pētnieki varētu eksperimentēt, kā arī tehnisko dokumentu.
Kā paskaidrots, pilnais modelis satur 1.5 miljardus parametru. "Jo vairāk parametru modelis tiek apmācīts, jo "gudrāks" tas šķiet — tāpat kā cilvēki, prakse padara perfektu.
TNW to atzīmē sākotnēji OpenAI izlaida modeli ar 124 miljoniem parametru, kam sekoja laidieni ar 355 un 774 miljoniem. Pēc viņu domām, pēc izlaisto modeļu testēšanas "katra iterācija uzrādīja ievērojamu iespēju uzlabojumu salīdzinājumā ar iepriekšējām iterācijām."
Lai novērstu ļaunprātīgu izmantošanu, OpenAI izlaida GPT-2 noteikšanas modeļus, kuriem ir paredzēts “preventīvi apkarot ļaunprātīgu izmantošanu”. Viņu pašu atzīšanai a blog post, šiem noteikšanas modeļiem vēl ir nepieciešams papildu darbs, lai sasniegtu līdz šim sasniegto kvalitātes līmeni pašā GPT-2.
Interesenti var lejupielādēt GPT-2 modeli šeit vietnē Github pārbaudiet modeļa karti šeit, un izlasiet OpenAI emuāra ziņu šeit.