Connect with us

Künstliche Intelligenz

GPT-2, künstliche Intelligenz Text-Generator wird in vollem Umfang veröffentlicht

mm

Wie TheNextWeb (TNW) berichtet, hat OpenAI, die Non-Profit-Organisation hinter einer Reihe von künstlichen Intelligenzprojekten, soeben das finale Modell in der geplanten schrittweisen Veröffentlichung für GPT-2 veröffentlicht, einen Textgenerator, der seit seiner angekündigten Veröffentlichung im Februar eine breite Debatte ausgelöst hat.

Basierend auf dem Forschungspapier von OpenAI mit dem Titel Language Models are Unsupervised Multitask Learners, “verwendet GPT-2 maschinelles Lernen, um auf der Grundlage begrenzter Eingaben neue Texte zu generieren.” Was das bedeutet, ist, dass ein Benutzer einen Satz oder zwei über jedes Thema eingeben kann und der KI-Generator einen Text erstellt, der in irgendeiner Weise mit der ursprünglichen Eingabe zusammenhängt. In der Tat, wie TNW bemerkt, gibt es im Gegensatz zu den meisten “Textgeneratoren” keine vorgefertigten Zeichenfolgen aus. GPT-2 erfindet Texte, die zuvor nicht existierten.

In seinem Tweet gibt Scott B. Weingart, Programmleiter der Carnegie Mellon University Libraries, ein konkretes Beispiel:

 

OpenAI war ursprünglich besorgt über mögliche missbräuchliche Verwendungen ihres Systems, so dass es im Februar 2019 entschied, GPT-2 in vier Teilen über acht Monate zu veröffentlichen. Wie sie in ihrem Blog erklärten, “Aufgrund unserer Bedenken hinsichtlich schädlicher Anwendungen der Technologie veröffentlichen wir das trainierte Modell nicht. Als Experiment in verantwortungsvoller Offenlegung veröffentlichen wir stattdessen ein viel kleineres Modell, mit dem Forscher experimentieren können, sowie ein technisches Papier.”

Wie erklärt, enthält das vollständige Modell 1,5 Milliarden Parameter. “Je mehr Parameter ein Modell trainiert, desto ‘intelligenter’ erscheint es – genau wie bei Menschen, Übung macht den Meister.”

TNW bemerkt, dass OpenAI ursprünglich ein Modell mit 124 Millionen Parametern veröffentlichte, gefolgt von Veröffentlichungen mit 355 und 774 Millionen. Laut ihnen zeigte jedes Update eine signifikante Verbesserung der Fähigkeiten im Vergleich zu den vorherigen Iterationen.

Um Missbrauch zu verhindern, veröffentlichte OpenAI GPT-2-Erkennungsmodelle, die “missbräuchliche Verwendungen im Voraus bekämpfen” sollen. Wie sie in einem Blog-Beitrag zugaben, benötigen diese Erkennungsmodelle noch zusätzliche Arbeit, um das Qualitätsniveau zu erreichen, das bisher in GPT-2 selbst erreicht wurde.

Interessierte können das GPT-2-Modell hier auf Github herunterladen, die Modellkarte hier überprüfen und den Blog-Beitrag von OpenAI hier lesen.

Ehemaliger Diplomat und Übersetzer für die UN, derzeit freiberuflicher Journalist/Schriftsteller/Forscher, der sich auf moderne Technologie, künstliche Intelligenz und moderne Kultur konzentriert.