Stummel GPT-2, Textgenerator für künstliche Intelligenz, wird vollständig veröffentlicht – Unite.AI
Vernetzen Sie sich mit uns

Artificial Intelligence

GPT-2, der Textgenerator für künstliche Intelligenz, wird vollständig veröffentlicht

mm
Aktualisiert on

As TheNextWeb (TNW) berichtet, OpenAI, die gemeinnützige Organisation hinter einer Reihe von Projekten zur künstlichen Intelligenz, hat gerade das endgültige Modell in der geplanten gestaffelten Veröffentlichung für GPT-2 veröffentlicht, einen Textgenerator, der verursacht hat eine ziemliche Debatte seit seiner angekündigten Veröffentlichung im Februar.

Basierend auf dem Forschungspapier von OpenAI mit dem Titel Sprachmodelle sind unbeaufsichtigte Multitasking-Lernende"GPT-2 nutzt maschinelles Lernen, um auf der Grundlage begrenzter Eingaben neuartige Texte zu generieren.“ Das bedeutet, dass ein Benutzer ein oder zwei Sätze zu einem beliebigen Thema eingeben kann und der KI-Generator einen Text erstellt, der einen Bezug zur ursprünglichen Eingabe hat. Im Wesentlichen gibt es, wie TNW anmerkt, im Gegensatz zu den meisten „Textgeneratoren“ keine vorgefertigten Zeichenfolgen aus. GPT-2 erstellt Text, der zuvor nicht existierte.“

Scott B. Weingart, Programmdirektor der Carnegie Mellon University Libraries, nennt in seinem Tweet ein konkretes Beispiel:

 

OpenAI war zunächst besorgt über eine mögliche böswillige Nutzung seines Systems und kehrte daher zurück Februar 2019 Es wurde beschlossen, GPT-2 zu veröffentlichen in vier Teilen über acht Monate. Wie sie in ihrem Blog erklärten, „Aufgrund unserer Bedenken hinsichtlich böswilliger Anwendungen der Technologie veröffentlichen wir das trainierte Modell nicht. Als Experiment zur verantwortungsvollen Offenlegung veröffentlichen wir stattdessen ein viel kleineres Modell, mit dem Forscher experimentieren können, sowie ein technisches Papier.“

Wie erklärt, Das vollständige Modell enthält 1.5 Milliarden Parameter. „Je mehr Parameter ein Modell trainiert, desto ‚intelligenter‘ erscheint es – genau wie beim Menschen macht Übung den Meister.“

TNW stellt dies zunächst fest OpenAI veröffentlichte ein Modell mit 124 Millionen Parametern, gefolgt von Veröffentlichungen mit 355 und 774 Millionen. Nach dem Test der veröffentlichten Modelle zeigte sich ihnen zufolge „jede Iteration eine deutliche Verbesserung der Leistungsfähigkeit gegenüber früheren Iterationen.“

Um Missbrauch vorzubeugen, veröffentlichte OpenAI GPT-2-Erkennungsmodelle, die „Missbrauch präventiv bekämpfen“ sollen. Nach eigener Aussage in a Blog-PostAllerdings benötigen diese Erkennungsmodelle noch zusätzliche Arbeit, um das bisher in GPT-2 selbst erreichte Qualitätsniveau zu erreichen.

Interessierte können Laden Sie das GPT-2-Modell herunter hier Schauen Sie sich auf Github die Modellkarte an hier, und lesen Sie den Blogbeitrag von OpenAI hier.

Ehemaliger Diplomat und Übersetzer für die UN, derzeit freiberuflicher Journalist/Autor/Forscher mit den Schwerpunkten moderne Technologie, künstliche Intelligenz und moderne Kultur.