Connect with us

OpenAI:s språkgenerator GPT-3 får mycket uppmärksamhet

Artificiell intelligens

OpenAI:s språkgenerator GPT-3 får mycket uppmärksamhet

mm

Den icke-vinstdrivande artificiella intelligens (AI) forskningsföretaget OpenAI, som stöds av namn som Peter Thiel, Elon Musk, Reid Hoffman, Marc Benioff och Sam Altman, har släppt GPT-3, företagets tredje generationens språkprediktionsmodell. Släppandet av GPT-3 har mötts med extrem hype från några av de tidiga användarna. 

Vad är GPT-3

GPT-3 är den största språkmodellen som någonsin skapats och kan generera text som i många fall är omöjlig att skilja från mänsklig text. OpenAI beskrev språkprediktions-teknologin för första gången i en forskningsrapport i maj. Förra veckan fick några personer tidig tillgång till programvaran genom en privat beta. 

OpenAI förlitar sig på externa utvecklare för att lära sig mer om teknologin och vad den är kapabel till, och företaget har planer på att gå kommersiellt i slutet av detta år. Företag kommer att kunna betala för en prenumeration för att använda AI.

Den mest kraftfulla språkmodellen

GPT-3 har visat sig vara den mest kraftfulla språkmodellen som någonsin skapats. Utvecklad från den tidigare GPT-2-modellen, släpptes GPT-3 förra året. GPT-2 var också extremt imponerande, eftersom den kunde skapa kompetenta textsträngar efter att ha fått en öppningsmening.

GPT-3 har 175 miljarder parametrar, vilket ökade från GPT-2:s 1,5 miljarder, och AI har visat sig kunna skapa noveller, sånger, pressmeddelanden och tekniska manualer. Inte bara kan teknologin skapa berättelser, utan den kan också göra det med ett språk som är relaterbart till specifika författare. Teknologin krävde endast titeln, författarens namn och det första ordet. GPT-3 kan också generera annan text som gitarrtabulatur och datorkod. 

Webbutvecklaren Sharif Shameem kunde använda GPT-3 för att skapa webbsidlayouter, medan den kända kodaren John Carmach, CTO på Oculus VR och en stor influenser inom datagrafik, sa följande om den nya teknologin: “Den nyligen, nästan oavsiktliga, upptäckten att GPT-3 kan skriva kod genererar en liten rysning.”

Bekymmer om partiskhet och intelligens

Det finns fortfarande några bekymmer om GPT-3 och vilken nivå av partiskhet eller sexistisk och rasistisk språk den kan producera. Detta problem behandlades i GPT-2-modellen, så det är inte ett helt nytt problem. 

GPT-3 är inte intelligent och gör många misstag som en människa inte skulle, men konstruktionen är utmärkt. Teknologin är extremt bra på att syntetisera text på internet och plocka upp miljontals textbitar som den kan sätta samman. 

Av denna anledning var personer som Sam Altman, medgrundare av OpenAI med Elon Musk, snabba med att minska den uppmärksamhet som teknologin fick. 

“Hypen kring GPT-3 är alldeles för mycket. Det är imponerande (tack för de fina komplimangerna!) men det har fortfarande allvarliga svagheter och ibland gör det mycket dumma misstag. AI kommer att förändra världen, men GPT-3 är bara en mycket tidig glimt. Vi har fortfarande mycket att lära oss,” twittrade han den 19 juli. 

OpenAI är långt ifrån färdigt, men GPT-3 är ett massivt steg framåt i artificiell intelligens och språkprediktions-teknologi.

Alex McFarland är en AI-journalist och författare som utforskar de senaste utvecklingarna inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.