Kunstig intelligens
GPT-2, kunstig intelligens tekstgenerator frigøres i fuld udstrækning

Som TheNextWeb (TNW) rapporterer, OpenAI, den non-profit organisation bag en række kunstig intelligens-projekter, har lige udgivet den endelige model i den planlagte trinvis udgivelse af GPT-2, en tekstgenerator, der har forårsaket meget debat siden dens annoncerede udgivelse i februar.
Baseret på OpenAI’s forskningspapir med titlen Language Models are Unsupervised Multitask Learners, ”GPT-2 bruger maskinlæring til at generere nyt tekstbaseret på begrænset input.” Det betyder, at en bruger kan taste en sætning eller to om et hvilket som helst emne, og AI-generatoren vil komme med en tekst, der har en vis relation til den oprindelige input. I virkeligheden, som TNW bemærker, til forskel fra de fleste ‘tekstgeneratore’ udskriver den ikke forhåndsdefinerede strenge. GPT-2 finder på tekst, der ikke tidligere har eksisteret.”
I sin tweet giver Scott B. Weingart, programdirektør for Carnegie Mellon University Libraries, et konkrekt eksempel:
What is a Panther but a young lion?
An entire corridor filled entirely with people screaming.
How’s this for a happy ending? pic.twitter.com/qvPTrs790N
— Scott B. Weingart (@scott_bot) August 20, 2019
If death, in some obscure and distant hour,
Strikes me still as I slept, if I yet dream:
Is that my peace with an eternity spent?
[…]
But I fear it will be no peace or rest
Until the stars give me the full glow of their light
To see all my cares and woes in an instant.Shit. pic.twitter.com/QRoi1C3rjj
— Scott B. Weingart (@scott_bot) August 20, 2019
OpenAI var oprindeligt bekymret over mulige misbrug af deres system, så i februar 2019 besluttede de at udgive GPT-2 i fire dele over otte måneder. Som de forklarede i deres blog, ”På grund af vores bekymringer om misbrug af teknologien, udgiver vi ikke den trænede model. Som et eksperiment i ansvarlig åbenhed udgiver vi i stedet en meget mindre model, som forskere kan eksperimentere med, samt en teknisk rapport.”
Som forklaret, den fulde model indeholder 1,5 milliarder parametre. ”Jo flere parametre en model er trænet med, jo ’klogere’ ser den ud til at være – ligesom mennesker, øvelse gør perfekt.”
TNW bemærker, at OpenAI oprindeligt udgav en model med 124 millioner parametre, efterfulgt af udgivelser med 355 og 774 millioner. Ifølge dem viste hver iteration en betydelig forbedring af kapacitet i forhold til tidligere iterationer.
For at forhindre misbrug udgav OpenAI GPT-2-detektionsmodeller, der skal ”forhindre misbrug i forvejen.” Ifølge deres egen tilståelse i en blogindlæg, har disse detektionsmodeller stadig brug for yderligere arbejde for at nå det kvalitetsniveau, der hidtil er opnået i GPT-2 selv.
De, der er interesseret, kan downloade GPT-2-modellen her på Github, se modelkortet her og læse OpenAI’s blogindlæg her.
