Artificial Intelligence
GPT-2, der Textgenerator für künstliche Intelligenz, wird vollständig veröffentlicht
As TheNextWeb (TNW) berichtet, OpenAI, die gemeinnützige Organisation hinter einer Reihe von Projekten zur künstlichen Intelligenz, hat gerade das endgültige Modell in der geplanten gestaffelten Veröffentlichung für GPT-2 veröffentlicht, einen Textgenerator, der verursacht hat eine ziemliche Debatte seit seiner angekündigten Veröffentlichung im Februar.
Basierend auf dem Forschungspapier von OpenAI mit dem Titel Sprachmodelle sind unbeaufsichtigte Multitasking-Lernende"GPT-2 nutzt maschinelles Lernen, um auf der Grundlage begrenzter Eingaben neuartige Texte zu generieren.“ Das bedeutet, dass ein Benutzer ein oder zwei Sätze zu einem beliebigen Thema eingeben kann und der KI-Generator einen Text erstellt, der einen Bezug zur ursprünglichen Eingabe hat. Im Wesentlichen gibt es, wie TNW anmerkt, im Gegensatz zu den meisten „Textgeneratoren“ keine vorgefertigten Zeichenfolgen aus. GPT-2 erstellt Text, der zuvor nicht existierte.“
Scott B. Weingart, Programmdirektor der Carnegie Mellon University Libraries, nennt in seinem Tweet ein konkretes Beispiel:
Was ist ein Panther anderes als ein junger Löwe?
Ein ganzer Korridor voller schreiender Menschen.
Wie wäre das mit einem Happy End? pic.twitter.com/qvPTrs790N
— Scott B. Weingart (@scott_bot) 20. August 2019
Wenn der Tod in einer dunklen und fernen Stunde
Es fällt mir immer noch ein, während ich schlief, wenn ich noch träume:
Ist das mein Frieden mit einer Ewigkeit?
[...]
Aber ich fürchte, es wird weder Frieden noch Ruhe geben
Bis die Sterne mir den vollen Glanz ihres Lichts schenken
Alle meine Sorgen und Nöte in einem Augenblick zu sehen.Scheisse. pic.twitter.com/QRoi1C3rjj
— Scott B. Weingart (@scott_bot) 20. August 2019
OpenAI war zunächst besorgt über eine mögliche böswillige Nutzung seines Systems und kehrte daher zurück Februar 2019 Es wurde beschlossen, GPT-2 zu veröffentlichen in vier Teilen über acht Monate. Wie sie in ihrem Blog erklärten, „Aufgrund unserer Bedenken hinsichtlich böswilliger Anwendungen der Technologie veröffentlichen wir das trainierte Modell nicht. Als Experiment zur verantwortungsvollen Offenlegung veröffentlichen wir stattdessen ein viel kleineres Modell, mit dem Forscher experimentieren können, sowie ein technisches Papier.“
Wie erklärt, Das vollständige Modell enthält 1.5 Milliarden Parameter. „Je mehr Parameter ein Modell trainiert, desto ‚intelligenter‘ erscheint es – genau wie beim Menschen macht Übung den Meister.“
TNW stellt dies zunächst fest OpenAI veröffentlichte ein Modell mit 124 Millionen Parametern, gefolgt von Veröffentlichungen mit 355 und 774 Millionen. Nach dem Test der veröffentlichten Modelle zeigte sich ihnen zufolge „jede Iteration eine deutliche Verbesserung der Leistungsfähigkeit gegenüber früheren Iterationen.“
Um Missbrauch vorzubeugen, veröffentlichte OpenAI GPT-2-Erkennungsmodelle, die „Missbrauch präventiv bekämpfen“ sollen. Nach eigener Aussage in a Blog-PostAllerdings benötigen diese Erkennungsmodelle noch zusätzliche Arbeit, um das bisher in GPT-2 selbst erreichte Qualitätsniveau zu erreichen.
Interessierte können Laden Sie das GPT-2-Modell herunter hier Schauen Sie sich auf Github die Modellkarte an hier, und lesen Sie den Blogbeitrag von OpenAI hier.