Künstliche Intelligenz
Überwindung von LLM-Halluzinationen mithilfe von Retrieval Augmented Generation (RAG)
Large Language Models (LLMs) revolutionieren die Art und Weise, wie wir Sprache verarbeiten und erzeugen, sind aber unvollkommen. So wie Menschen Formen in Wolken oder Gesichter auf dem Mond sehen, können LLMs auch „halluzinieren“ und ungenaue Informationen erzeugen. Dieses Phänomen, bekannt als LLM-Halluzinationenstellt ein wachsendes Problem dar, da die Nutzung von LLMs zunimmt.
Fehler können Benutzer verwirren und in manchen Fällen sogar zu rechtlichen Problemen für Unternehmen führen. Zum Beispiel im Jahr 2023 ein Air-Force-Veteran Jeffery Battle (bekannt als The Aerospace Professor) reichte eine Klage gegen Microsoft ein als er feststellte, dass die ChatGPT-gestützte Bing-Suche von Microsoft manchmal sachlich ungenaue und schädliche Informationen zu seiner Namenssuche lieferte. Die Suchmaschine verwechselt ihn mit dem verurteilten Schwerverbrecher Jeffery Leon Battle.
Um Halluzinationen zu bekämpfen, Retrieval-Augmented Generation (RAG) hat sich als vielversprechende Lösung erwiesen. Es integriert Wissen aus externen Datenbanken, um die Ergebnisgenauigkeit und Glaubwürdigkeit der LLMs zu verbessern. Sehen wir uns genauer an, wie RAG LLMs genauer und zuverlässiger macht. Wir diskutieren auch, ob RAG dem Problem der LLM-Halluzinationen wirksam entgegenwirken kann.
LLM-Halluzinationen verstehen: Ursachen und Beispiele
LLMs, darunter renommierte Modelle wie ChatGPT, ChatGLMund Claude, werden anhand umfangreicher Textdatensätze trainiert, sind jedoch nicht davor gefeit, sachlich falsche Ergebnisse zu produzieren, ein Phänomen, das als „Halluzinationen“ bezeichnet wird. Halluzinationen treten auf, weil LLMs darauf trainiert werden, auf der Grundlage zugrunde liegender Sprachregeln sinnvolle Antworten zu erstellen, unabhängig von ihrer sachlichen Richtigkeit.
A Tidio-Studie fanden heraus, dass 72 % der Benutzer LLMs für zuverlässig halten, 75 % jedoch mindestens einmal falsche Informationen von der KI erhalten haben. Selbst die vielversprechendsten LLM-Modelle wie GPT-3.5 und GPT-4 können manchmal ungenaue oder unsinnige Inhalte produzieren.
Hier ist ein kurzer Überblick über häufige Arten von LLM-Halluzinationen:
Häufige Arten von KI-Halluzinationen:
- Quellenverschmelzung: Dies geschieht, wenn ein Modell Details aus verschiedenen Quellen zusammenführt, was zu Widersprüchen oder sogar erfundenen Quellen führt.
- Sachliche Fehler: LLMs können Inhalte mit ungenauen Fakten generieren, insbesondere angesichts der inhärenten Ungenauigkeiten des Internets
- Unsinnige Informationen: LLMs sagen das nächste Wort auf der Grundlage von Wahrscheinlichkeiten voraus. Dies kann zu grammatikalisch korrektem, aber bedeutungslosem Text führen und Benutzer hinsichtlich der Autorität des Inhalts in die Irre führen.
Letztes Jahr reistenGegen zwei Anwälte drohten mögliche Sanktionen, weil sie in ihren Rechtsdokumenten auf sechs nicht existierende Fälle Bezug nahmen und durch von ChatGPT generierte Informationen in die Irre geführt wurden. Dieses Beispiel verdeutlicht, wie wichtig es ist, mit LLM-generierten Inhalten kritisch umzugehen, und unterstreicht die Notwendigkeit einer Überprüfung, um die Zuverlässigkeit sicherzustellen. Während seine kreative Kapazität Anwendungen wie dem Geschichtenerzählen zugute kommt, stellt es Herausforderungen bei Aufgaben dar, die eine strikte Einhaltung von Fakten erfordern, wie z. B. die Durchführung akademischer Forschung, das Verfassen medizinischer und finanzieller Analyseberichte und die Bereitstellung von Rechtsberatung.
Erforschung der Lösung für LLM-Halluzinationen: Wie Retrieval Augmented Generation (RAG) funktioniert
In 2020, LLM-Forscher führte eine Technik namens ein Augmented Generation abrufen (RAG) zur Linderung von LLM-Halluzinationen durch Integration einer externen Datenquelle. Im Gegensatz zu herkömmlichen LLMs, die sich ausschließlich auf ihr vorab trainiertes Wissen verlassen, generieren RAG-basierte LLM-Modelle sachlich genaue Antworten, indem sie relevante Informationen dynamisch aus einer externen Datenbank abrufen, bevor sie Fragen beantworten oder Text generieren.
Aufschlüsselung des RAG-Prozesses:

Schritte des RAG-Prozesses: Quelle
Schritt 1: Abrufen
Das System durchsucht eine spezifische Wissensdatenbank nach Informationen, die mit der Anfrage des Benutzers in Zusammenhang stehen. Fragt jemand beispielsweise nach dem letzten Fußballweltmeister, sucht das System nach den relevantesten Fußballinformationen.
Schritt 2: Erweiterung
Anschließend wird die ursprüngliche Abfrage um die gefundenen Informationen erweitert. Am Beispiel Fußball wird die Abfrage „Wer hat die Fußball-Weltmeisterschaft gewonnen?“ beantwortet. wird mit spezifischen Details wie „Argentinien hat die Fußball-Weltmeisterschaft gewonnen“ aktualisiert.
Schritt 3: Generierung
Mit der angereicherten Abfrage generiert das LLM eine detaillierte und genaue Antwort. In unserem Fall würde es eine Antwort basierend auf den erweiterten Informationen über den Gewinn der Weltmeisterschaft durch Argentinien erstellen.
Diese Methode trägt dazu bei, Ungenauigkeiten zu reduzieren und stellt sicher, dass die Antworten des LLM zuverlässiger sind und auf genauen Daten basieren.
Vor- und Nachteile von RAG bei der Reduzierung von Halluzinationen
RAG hat sich als vielversprechend bei der Reduzierung von Halluzinationen erwiesen, indem es den Entstehungsprozess korrigierte. Dieser Mechanismus ermöglicht es RAG-Modellen, genauere, aktuellere und kontextrelevantere Informationen bereitzustellen.
Sicherlich ermöglicht die Diskussion von Retrieval Augmented Generation (RAG) in einem allgemeineren Sinne ein umfassenderes Verständnis der Vorteile und Einschränkungen verschiedener Implementierungen.
Vorteile von RAG:
- Bessere Informationssuche: RAG findet schnell genaue Informationen aus großen Datenquellen.
- Verbesserter Inhalt: Es erstellt klare, gut abgestimmte Inhalte für die Bedürfnisse der Benutzer.
- Flexibler Einsatz: Benutzer können RAG an ihre spezifischen Anforderungen anpassen, indem sie beispielsweise ihre proprietären Datenquellen nutzen und so die Effektivität steigern.
Herausforderungen von RAG:
- Benötigt spezifische Daten: Es kann schwierig sein, den Abfragekontext genau zu verstehen, um relevante und präzise Informationen bereitzustellen.
- Skalierbarkeit: Es ist schwierig, das Modell zu erweitern, um große Datenmengen und Abfragen zu verarbeiten und gleichzeitig die Leistung aufrechtzuerhalten.
- Kontinuierliche Aktualisierung: Das automatische Aktualisieren des Wissensdatensatzes mit den neuesten Informationen ist ressourcenintensiv.
Erkundung von Alternativen zu RAG
Neben RAG gibt es noch einige weitere vielversprechende Methoden, mit denen LLM-Forscher Halluzinationen reduzieren können:
- G-Bewertung: Überprüft die Genauigkeit des generierten Inhalts anhand eines vertrauenswürdigen Datensatzes und erhöht so die Zuverlässigkeit.
- SelfCheckGPT: Überprüft und behebt automatisch seine eigenen Fehler, um die Ausgaben korrekt und konsistent zu halten.
- Schnelles Engineering: Hilft Benutzern, präzise Eingabeaufforderungen zu entwerfen, um Modelle zu genauen, relevanten Antworten zu führen.
- Feinabstimmung: Passt das Modell an aufgabenspezifische Datensätze an, um die domänenspezifische Leistung zu verbessern.
- LoRA (Low-Rank-Anpassung): Diese Methode modifiziert einen kleinen Teil der Modellparameter zur aufgabenspezifischen Anpassung und steigert so die Effizienz.
Die Untersuchung von RAG und seinen Alternativen unterstreicht den dynamischen und vielschichtigen Ansatz zur Verbesserung der LLM-Genauigkeit und -Zuverlässigkeit. Während wir vorankommen, sind kontinuierliche Innovationen bei Technologien wie RAG von entscheidender Bedeutung, um die inhärenten Herausforderungen von LLM-Halluzinationen zu bewältigen.
Um über die neuesten Entwicklungen in den Bereichen KI und maschinelles Lernen, einschließlich ausführlicher Analysen und Neuigkeiten, auf dem Laufenden zu bleiben, besuchen Sie unite.ai.












