Künstliche Intelligenz
Was sind LLM-Halluzinationen? Ursachen, ethische Bedenken und Prävention

Große Sprachmodelle (LLMs) sind künstliche Intelligenzsysteme, die in der Lage sind, menschliche Texte zu analysieren und zu generieren. Aber sie haben ein Problem – LLMs halluzinieren, d.h. sie erfinden Dinge. LLM-Halluzinationen haben Forscher besorgt gemacht, da sie den Fortschritt in diesem Bereich behindern, wenn Forscher das Ergebnis der Modelle nicht kontrollieren können, dann können sie keine kritischen Systeme zur Verfügung stellen, um der Menschheit zu dienen. Mehr darüber später.
Im Allgemeinen verwenden LLMs große Mengen an Trainingsdaten und komplexe Lernalgorithmen, um realistische Ausgaben zu generieren. In einigen Fällen wird kontextuelles Lernen verwendet, um diese Modelle mit nur wenigen Beispielen zu trainieren. LLMs werden in verschiedenen Anwendungsbereichen immer beliebter, von der Maschinensprachübersetzung, Sentiment-Analyse, virtueller KI-Assistenz, Bildannotierung, natürlicher Sprachverarbeitung usw.
Trotz der Spitzenleistung von LLMs sind sie immer noch anfällig für Vorurteile, Fehler und Halluzinationen. Yann LeCun, der derzeitige Chief AI Scientist bei Meta, hat kürzlich den zentralen Fehler in LLMs erwähnt, der Halluzinationen verursacht: “Große Sprachmodelle haben keine Vorstellung von der zugrunde liegenden Realität, die die Sprache beschreibt. Diese Systeme generieren Text, der grammatisch und semantisch in Ordnung ist, aber sie haben keine Art von Objektivität, außer dass sie einfach statistische Konsistenz mit dem Prompt erfüllen”.
Halluzinationen in LLMs

Bild von Gerd Altmann von Pixabay
Halluzinationen beziehen sich auf die Generierung von Ausgaben, die syntaktisch und semantisch korrekt sind, aber von der Realität abgekoppelt sind und auf falschen Annahmen basieren. Halluzination ist eines der größten ethischen Bedenken von LLMs, und es kann schädliche Folgen haben, wenn Benutzer ohne ausreichende Domänenkenntnisse auf diese zunehmend überzeugenden Sprachmodelle angewiesen sind.
Ein bestimmtes Maß an Halluzination ist in allen autoregressiven LLMs unvermeidlich. Zum Beispiel kann ein Modell einem Celebrity ein gefälschtes Zitat zuweisen, das nie gesagt wurde. Sie können etwas über ein bestimmtes Thema behaupten, das faktisch falsch ist oder nicht existierende Quellen in Forschungsarbeiten zitieren, wodurch Fehlinformationen verbreitet werden.
Jedoch hat das Halluzinieren von KI-Modellen nicht immer negative Auswirkungen. Zum Beispiel legt eine neue Studie nahe, dass Wissenschaftler durch halluzinierende LLMs ‘neue Proteine mit einer unendlichen Anzahl von Eigenschaften’ entdecken.
Was verursacht LLM-Halluzinationen?
LLMs können aufgrund verschiedener Faktoren halluzinieren, von Überanpassungsfehlern bei der Kodierung und Dekodierung bis hin zu Trainingsbias.
Überanpassung

Bild von janjf93 von Pixabay
Überanpassung ist ein Problem, bei dem ein KI-Modell die Trainingsdaten zu gut anpasst, aber nicht in der Lage ist, den gesamten Bereich von Eingaben, die es möglicherweise begegnen könnte, vollständig darzustellen, d.h. es schafft es nicht, seine Vorhersagekraft zu verallgemeinern, auf neue, unbekannte Daten. Überanpassung kann dazu führen, dass das Modell halluzinierte Inhalte produziert.
Fehler bei der Kodierung und Dekodierung

Bild von geralt von Pixabay
Wenn es Fehler bei der Kodierung und Dekodierung von Text und seinen nachfolgenden Darstellungen gibt, kann dies auch dazu führen, dass das Modell unsinnige und fehlerhafte Ausgaben generiert.
Trainingsbias

Bild von Quince Creative von Pixabay
Ein weiterer Faktor ist das Vorhandensein bestimmter Vorurteile in den Trainingsdaten, die dazu führen können, dass das Modell Ergebnisse liefert, die diese Vorurteile repräsentieren, anstatt die tatsächliche Natur der Daten. Dies ist ähnlich wie der Mangel an Vielfalt in den Trainingsdaten, der die Fähigkeit des Modells einschränkt, sich auf neue Daten zu verallgemeinern.
Die komplexe Struktur von LLMs macht es für KI-Forscher und -Praktiker sehr schwierig, die zugrunde liegenden Ursachen von Halluzinationen zu identifizieren, zu interpretieren und zu korrigieren.
Ethische Bedenken von LLM-Halluzinationen
LLMs können schädliche Vorurteile durch Halluzinationen verbreiten und können sich negativ auf die Benutzer auswirken und schädliche soziale Folgen haben. Einige der wichtigsten ethischen Bedenken sind unten aufgeführt:
Diskriminierender und giftiger Inhalt

Bild von ar130405 von Pixabay
Da die LLM-Trainingsdaten oft voller soziokultureller Stereotypen aufgrund der inhärenten Vorurteile und des Mangels an Vielfalt sind, können LLMs diese schädlichen Ideen gegen benachteiligte Gruppen in der Gesellschaft produzieren und verstärken.
Sie können diskriminierenden und hassenden Inhalt aufgrund von Rasse, Geschlecht, Religion, Ethnie usw. generieren.
Datenschutzprobleme

Bild von JanBaby von Pixabay
LLMs werden auf einem großen Trainingskorpus trainiert, das oft persönliche Informationen von Personen enthält. Es gab Fälle, in denen solche Modelle die Privatsphäre von Personen verletzt haben. Sie können spezifische Informationen wie Sozialversicherungsnummern, Wohnanschriften, Handynummern und medizinische Details weitergeben.
Fehlinformationen und Desinformation

Bild von geralt von Pixabay
Sprachmodelle können menschliche Inhalte produzieren, die korrekt erscheinen, aber tatsächlich falsch sind und nicht durch empirische Beweise gestützt werden. Dies kann unbeabsichtigt sein, was zu Fehlinformationen führt, oder es kann eine böswillige Absicht haben, um absichtlich Desinformation zu verbreiten. Wenn dies nicht kontrolliert wird, kann es negative soziale, kulturelle, wirtschaftliche und politische Trends erzeugen.
Prävention von LLM-Halluzinationen

Bild von athree23 von Pixabay
Forscher und Praktiker verwenden verschiedene Ansätze, um das Problem der Halluzinationen in LLMs anzugehen. Dazu gehören die Verbesserung der Vielfalt der Trainingsdaten, die Beseitigung inhärenter Vorurteile, die Verwendung besserer Regularisierungstechniken und die Anwendung von adversarialen Trainings- und Verstärkungslernalgorithmen:
- Die Entwicklung besserer Regularisierungstechniken ist von zentraler Bedeutung, um Halluzinationen zu bekämpfen. Sie helfen, Überanpassung und andere Probleme zu vermeiden, die Halluzinationen verursachen.
- Datenaugmentation kann die Häufigkeit von Halluzinationen verringern, wie eine Studie zeigt. Datenaugmentation beinhaltet die Ergänzung des Trainingssets durch Hinzufügen eines zufälligen Tokens an beliebiger Stelle im Satz. Sie verdoppelt die Größe des Trainingssets und führt zu einer Verringerung der Häufigkeit von Halluzinationen.
- OpenAI und Google’s DeepMind entwickelten eine Technik namens Reinforcement Learning mit menschlichem Feedback (RLHF), um das Halluzinationsproblem von ChatGPT zu lösen. Es beinhaltet einen menschlichen Evaluator, der die Antworten des Modells häufig überprüft und die am besten geeigneten für die Benutzereingaben auswählt. Dieses Feedback wird dann verwendet, um das Verhalten des Modells anzupassen. Ilya Sutskever, OpenAIs Chief Scientist, erwähnte kürzlich, dass dieser Ansatz potenziell Halluzinationen in ChatGPT lösen kann: “Ich bin sehr zuversichtlich, dass wir durch die Verbesserung dieses nachfolgenden Reinforcement Learning mit menschlichem Feedback Halluzinationen in ChatGPT vermeiden können”.
- Die Identifizierung halluzinierter Inhalte, um sie als Beispiel für zukünftige Trainings zu verwenden, ist auch eine Methode, um Halluzinationen zu bekämpfen. Eine neue Technik in diesem Zusammenhang erkennt Halluzinationen auf Token-Ebene und prognostiziert, ob jedes Token in der Ausgabe halluziniert ist. Sie beinhaltet auch eine Methode für das unsupervisierte Lernen von Halluzinationsdetektoren.
Kurz gesagt, sind LLM-Halluzinationen ein wachsendes Problem. Und trotz der Bemühungen muss noch viel Arbeit geleistet werden, um das Problem anzugehen. Die Komplexität dieser Modelle macht es allgemein schwierig, die zugrunde liegenden Ursachen von Halluzinationen richtig zu identifizieren und zu korrigieren.
Jedoch ist es mit fortlaufender Forschung und Entwicklung möglich, Halluzinationen in LLMs zu mindern und ihre ethischen Konsequenzen zu reduzieren.
Wenn Sie mehr über LLMs und die präventiven Techniken erfahren möchten, die entwickelt werden, um LLM-Halluzinationen zu korrigieren, besuchen Sie unite.ai, um Ihr Wissen zu erweitern.













