Connect with us

Kunstig intelligens

GPT-2, kunstig intelligens tekstgenerator frigøres i fuld udstrækning

mm

Som TheNextWeb (TNW) rapporterer, OpenAI, den non-profit organisation bag en række kunstig intelligens-projekter, har lige udgivet den endelige model i den planlagte trinvis udgivelse af GPT-2, en tekstgenerator, der har forårsaket meget debat siden dens annoncerede udgivelse i februar.

Baseret på OpenAI’s forskningspapir med titlen Language Models are Unsupervised Multitask Learners, ”GPT-2 bruger maskinlæring til at generere nyt tekstbaseret på begrænset input.” Det betyder, at en bruger kan taste en sætning eller to om et hvilket som helst emne, og AI-generatoren vil komme med en tekst, der har en vis relation til den oprindelige input. I virkeligheden, som TNW bemærker, til forskel fra de fleste ‘tekstgeneratore’ udskriver den ikke forhåndsdefinerede strenge. GPT-2 finder på tekst, der ikke tidligere har eksisteret.”

I sin tweet giver Scott B. Weingart, programdirektør for Carnegie Mellon University Libraries, et konkrekt eksempel:

 

OpenAI var oprindeligt bekymret over mulige misbrug af deres system, så i februar 2019 besluttede de at udgive GPT-2 i fire dele over otte måneder. Som de forklarede i deres blog, ”På grund af vores bekymringer om misbrug af teknologien, udgiver vi ikke den trænede model. Som et eksperiment i ansvarlig åbenhed udgiver vi i stedet en meget mindre model, som forskere kan eksperimentere med, samt en teknisk rapport.”

Som forklaret, den fulde model indeholder 1,5 milliarder parametre. ”Jo flere parametre en model er trænet med, jo ’klogere’ ser den ud til at være – ligesom mennesker, øvelse gør perfekt.”

TNW bemærker, at OpenAI oprindeligt udgav en model med 124 millioner parametre, efterfulgt af udgivelser med 355 og 774 millioner. Ifølge dem viste hver iteration en betydelig forbedring af kapacitet i forhold til tidligere iterationer.

For at forhindre misbrug udgav OpenAI GPT-2-detektionsmodeller, der skal ”forhindre misbrug i forvejen.” Ifølge deres egen tilståelse i en blogindlæg, har disse detektionsmodeller stadig brug for yderligere arbejde for at nå det kvalitetsniveau, der hidtil er opnået i GPT-2 selv.

De, der er interesseret, kan downloade GPT-2-modellen her på Github, se modelkortet her og læse OpenAI’s blogindlæg her.

Tidligere diplomat og oversætter for FN, nuværende freelance journalist/forfatter/forsker, fokuserer på moderne teknologi, kunstig intelligens og moderne kultur.