Connect with us

Kunstig intelligens

GPT-2, kunstig intelligens tekstgenerator utgis i sin helhet

mm

Som TheNextWeb (TNW) rapporterer, OpenAI, den non-profit organisasjonen bak en rekke kunstig intelligensprosjekter, har nettopp publisert den endelige modellen i den planlagte trinnvis utgivelsen for GPT-2, en tekstgenerator som har forårsaket mye debatt siden den ble annonsert i februar.

Basert på OpenAIs forskningsrapport med tittelen Language Models are Unsupervised Multitask Learners, ”GPT-2 bruker maskinlæring til å generere ny tekst basert på begrenset innputt.” Det betyr at en bruker kan skrive inn en setning eller to om et hvilket som helst emne og AI-generatoren vil komme opp med en tekst som har noen relasjon til den opprinnelige innputten. I essensen, som TNW påpeker, til forskjell fra de fleste ‘tekstgeneratorer’ utsteder den ikke forhånds skrevne strenger. GPT-2 lager tekst som ikke tidligere eksisterte.”

I en tweet, gir Scott B. Weingart, programdirektør ved Carnegie Mellon University Libraries, et konkrete eksempel:

 

OpenAI var opprinnelig bekymret for mulige skadelige bruk av deres system, så i februar 2019 bestemte de seg for å utgi GPT-2 i fire deler over åtte måneder. Som de forklarte i sin blogg, “På grunn av våre bekymringer om skadelige anvendelser av teknologien, utgir vi ikke den trenede modellen. Som et eksperiment i ansvarlig åpenhet, utgir vi i stedet en mye mindre modell for forskere å eksperimentere med, samt en teknisk rapport.”

Som forklart, inneholder den fullstendige modellen 1,5 milliarder parametre. “Jo flere parametre en modell er trenet med, jo ‘smartere’ ser den ut til å være – akkurat som mennesker, praksis gjør perfekt.”

TNW påpeker at OpenAI opprinnelig utga en modell med 124 millioner parametre, etterfulgt av utgivelser med 355 og 774 millioner. Ifølge dem viste hver iterasjon en betydelig forbedring av evne sammenlignet med tidligere iterasjoner.

For å forhindre misbruk utga OpenAI GPT-2 oppdaggingsmodeller som skal “forhindre misbruk på forhånd.” Ifølge deres eget innrømmelse i en blogginnlegg, trenger disse oppdaggingsmodellene fortsatt mer arbeid for å nå kvalitetsnivået som er oppnådd så langt i GPT-2 selv.

De som er interesserte kan laste ned GPT-2-modellen her på Github, se modellkortet her, og lese OpenAIs blogginnlegg her.

Tidligere diplomat og oversetter for FN, nå frilans journalist/forfatter/forsker, med fokus på moderne teknologi, kunstig intelligens og moderne kultur.