Künstliche Intelligenz
GPT-2, künstliche Intelligenz Text-Generator wird in vollem Umfang veröffentlicht

Wie TheNextWeb (TNW) berichtet, hat OpenAI, die Non-Profit-Organisation hinter einer Reihe von künstlichen Intelligenzprojekten, soeben das finale Modell in der geplanten schrittweisen Veröffentlichung für GPT-2 veröffentlicht, einen Textgenerator, der seit seiner angekündigten Veröffentlichung im Februar eine breite Debatte ausgelöst hat.
Basierend auf dem Forschungspapier von OpenAI mit dem Titel Language Models are Unsupervised Multitask Learners, “verwendet GPT-2 maschinelles Lernen, um auf der Grundlage begrenzter Eingaben neue Texte zu generieren.” Was das bedeutet, ist, dass ein Benutzer einen Satz oder zwei über jedes Thema eingeben kann und der KI-Generator einen Text erstellt, der in irgendeiner Weise mit der ursprünglichen Eingabe zusammenhängt. In der Tat, wie TNW bemerkt, gibt es im Gegensatz zu den meisten “Textgeneratoren” keine vorgefertigten Zeichenfolgen aus. GPT-2 erfindet Texte, die zuvor nicht existierten.
In seinem Tweet gibt Scott B. Weingart, Programmleiter der Carnegie Mellon University Libraries, ein konkretes Beispiel:
What is a Panther but a young lion?
An entire corridor filled entirely with people screaming.
How’s this for a happy ending? pic.twitter.com/qvPTrs790N
— Scott B. Weingart (@scott_bot) August 20, 2019
If death, in some obscure and distant hour,
Strikes me still as I slept, if I yet dream:
Is that my peace with an eternity spent?
[…]
But I fear it will be no peace or rest
Until the stars give me the full glow of their light
To see all my cares and woes in an instant.Shit. pic.twitter.com/QRoi1C3rjj
— Scott B. Weingart (@scott_bot) August 20, 2019
OpenAI war ursprünglich besorgt über mögliche missbräuchliche Verwendungen ihres Systems, so dass es im Februar 2019 entschied, GPT-2 in vier Teilen über acht Monate zu veröffentlichen. Wie sie in ihrem Blog erklärten, “Aufgrund unserer Bedenken hinsichtlich schädlicher Anwendungen der Technologie veröffentlichen wir das trainierte Modell nicht. Als Experiment in verantwortungsvoller Offenlegung veröffentlichen wir stattdessen ein viel kleineres Modell, mit dem Forscher experimentieren können, sowie ein technisches Papier.”
Wie erklärt, enthält das vollständige Modell 1,5 Milliarden Parameter. “Je mehr Parameter ein Modell trainiert, desto ‘intelligenter’ erscheint es – genau wie bei Menschen, Übung macht den Meister.”
TNW bemerkt, dass OpenAI ursprünglich ein Modell mit 124 Millionen Parametern veröffentlichte, gefolgt von Veröffentlichungen mit 355 und 774 Millionen. Laut ihnen zeigte jedes Update eine signifikante Verbesserung der Fähigkeiten im Vergleich zu den vorherigen Iterationen.
Um Missbrauch zu verhindern, veröffentlichte OpenAI GPT-2-Erkennungsmodelle, die “missbräuchliche Verwendungen im Voraus bekämpfen” sollen. Wie sie in einem Blog-Beitrag zugaben, benötigen diese Erkennungsmodelle noch zusätzliche Arbeit, um das Qualitätsniveau zu erreichen, das bisher in GPT-2 selbst erreicht wurde.
Interessierte können das GPT-2-Modell hier auf Github herunterladen, die Modellkarte hier überprüfen und den Blog-Beitrag von OpenAI hier lesen.
