stubs GPT-2, mākslīgā intelekta teksta ģenerators tiek pilnībā izlaists — Unite.AI
Savienoties ar mums

Mākslīgais intelekts

GPT-2, mākslīgā intelekta teksta ģenerators tiek pilnībā izlaists

mm
Atjaunināts on

As TheNextWeb (TNW) ziņojumi, OpenAI, bezpeļņas organizācija, kas ir atbildīga par vairākiem mākslīgā intelekta projektiem, tikko ir publicējusi galīgo modeli plānotajā posmā GPT-2, teksta ģeneratoram, kas ir izraisījis diezgan lielas debates kopš tā paziņotās izlaišanas februārī.

Pamatojoties uz OpenAI pētniecības darbu ar nosaukumu Valodu modeļi ir bez uzraudzības daudzuzdevumu apguvēji"GPT-2 izmanto mašīnmācīšanos, lai ģenerētu jaunu tekstu, pamatojoties uz ierobežotu ievadi. Tas nozīmē, ka lietotājs var ierakstīt vienu vai divus teikumus par jebkuru tēmu, un AI ģenerators nāks klajā ar tekstu, kam ir kāda saistība ar sākotnējo ievadi. Būtībā, kā atzīmē TNW, atšķirībā no vairuma “teksta ģeneratoru” tas neizvada iepriekš ierakstītas virknes. GPT-2 veido tekstu, kas iepriekš nepastāvēja.

Kārnegija Melona universitātes bibliotēku programmas direktors Skots B. Veingarts savā tviterī sniedz konkrētu piemēru:

 

OpenAI sākotnēji bija noraizējies par iespējamu ļaunprātīgu viņu sistēmas izmantošanu, tāpēc atgriezās februāris 2019 tā nolēma atbrīvot GPT-2 četrās daļās astoņu mēnešu laikā. Kā viņi paskaidroja savā emuārā, “Ņemot vērā mūsu bažas par tehnoloģiju ļaunprātīgiem lietojumiem, mēs neizlaižam apmācīto modeli. Kā eksperiments atbildīgā izpaušanā mēs tā vietā izlaižam daudz mazāku modeli, lai pētnieki varētu eksperimentēt, kā arī tehnisko dokumentu.

Kā paskaidrots, pilnais modelis satur 1.5 miljardus parametru. "Jo vairāk parametru modelis tiek apmācīts, jo "gudrāks" tas šķiet — tāpat kā cilvēki, prakse padara perfektu.

TNW to atzīmē sākotnēji OpenAI izlaida modeli ar 124 miljoniem parametru, kam sekoja laidieni ar 355 un 774 miljoniem. Pēc viņu domām, pēc izlaisto modeļu testēšanas "katra iterācija uzrādīja ievērojamu iespēju uzlabojumu salīdzinājumā ar iepriekšējām iterācijām."

Lai novērstu ļaunprātīgu izmantošanu, OpenAI izlaida GPT-2 noteikšanas modeļus, kuriem ir paredzēts “preventīvi apkarot ļaunprātīgu izmantošanu”. Viņu pašu atzīšanai a blog post, šiem noteikšanas modeļiem vēl ir nepieciešams papildu darbs, lai sasniegtu līdz šim sasniegto kvalitātes līmeni pašā GPT-2.

Interesenti var lejupielādēt GPT-2 modeli šeit vietnē Github pārbaudiet modeļa karti šeit, un izlasiet OpenAI emuāra ziņu šeit.

Bijušais diplomāts un tulks ANO, šobrīd ārštata žurnālists/rakstnieks/pētnieks, kura galvenā uzmanība ir pievērsta modernajām tehnoloģijām, mākslīgajam intelektam un mūsdienu kultūrai.