Vernetzen Sie sich mit uns

Vordenker

Wenn Ihre KI halluziniert, geben Sie nicht der KI die Schuld

mm

KI-„Halluzinationen“ – diese überzeugend klingenden, aber falschen Antworten – erregen große Aufmerksamkeit in den Medien, wie der jüngste Artikel der New York Times zeigt: KI wird leistungsfähiger, aber ihre Halluzinationen werden schlimmerHalluzinationen sind eine echte Gefahr, wenn man mit einem Consumer-Chatbot arbeitet. Im Kontext von KI-Geschäftsanwendungen ist dies ein noch ernsteres Problem. Glücklicherweise habe ich als Leiter für Business-Technologie auch mehr Kontrolle darüber. Ich kann sicherstellen, dass der Agent über die richtigen Daten verfügt, um eine aussagekräftige Antwort zu geben.

Denn das ist das eigentliche Problem. Im Geschäftsleben gibt es keine Entschuldigung für KI-Halluzinationen. Hören Sie auf, der KI die Schuld zu geben. Geben Sie sich selbst die Schuld, weil Sie die KI nicht richtig einsetzen.

Wann generative KI Werkzeuge halluzinieren, sie tun das, wofür sie entwickelt wurden – sie liefern die bestmögliche Antwort auf der Grundlage der ihnen zur Verfügung stehenden Daten. Wenn sie Dinge erfinden und eine Antwort produzieren, die nicht auf der Realität basiert, Es liegt daran, dass ihnen die relevanten Daten fehlen, sie nicht finden können oder die Frage nicht verstehenJa, neue Modelle wie OpenAIs o3 und o4-mini halluzinieren stärker und agieren noch „kreativer“, wenn sie keine passende Antwort auf die gestellte Frage haben. Ja, leistungsfähigere Werkzeuge können mehr halluzinieren – aber sie können auch leistungsfähigere und wertvollere Ergebnisse liefern, wenn wir sie auf Erfolg ausrichten.

Wenn Sie nicht möchten, dass Ihre KI halluziniert, sollten Sie ihr nicht zu viele Daten liefern. Geben Sie ihr die besten und relevantesten Daten für das Problem, das sie lösen soll, und sie wird nicht in die Irre geführt.

Selbst dann empfehle ich Ihnen, bei der Arbeit mit KI-Tools Ihre kritischen Denkfähigkeiten zu bewahren. Die Ergebnisse von KI-Agenten können produktiv und erfreulich sein, aber es geht nicht darum, Ihr Gehirn abzuschalten und die Software das Denken für Sie übernehmen zu lassen. Stellen Sie weiterhin Fragen. Wenn ein KI-Agent Ihnen eine Antwort gibt, hinterfragen Sie diese, um sicherzustellen, dass sie sinnvoll ist und durch Daten gestützt wird. Wenn ja, sollte das ein ermutigendes Zeichen dafür sein, dass es sich lohnt, weitere Fragen zu stellen.

Je mehr Fragen Sie stellen, desto bessere Erkenntnisse erhalten Sie.

Warum Halluzinationen auftreten

Es ist kein Mysterium. Die KI versucht nicht, Sie anzulügen. Jede KI mit großem Sprachmodell (LLM) sagt im Wesentlichen das nächste Wort oder die nächste Zahl auf der Grundlage von Wahrscheinlichkeiten voraus.

Im Wesentlichen reihen LLMs Sätze und Absätze Wort für Wort aneinander und sagen das nächste Wort im Satz anhand von Milliarden anderer Beispiele in ihren Trainingsdaten voraus. Die Vorgänger von LLMs (abgesehen von Clippy) waren Autovervollständigungsprogramme für Textnachrichten und Computercode, automatisierte Übersetzungstools und andere probabilistische Sprachsysteme. Mit zunehmender Rechenleistung und dem Training mit internetweiten Datenmengen wurden diese Systeme so intelligent, dass sie eine vollständige Konversation im Chat führen konnten, wie die Welt mit der Einführung von ChatGPT erfuhr.

KI-Kritiker weisen gerne darauf hin, dass es sich dabei nicht um echte „Intelligenz“ handele, sondern lediglich um Software, die die ihr zugeführte menschliche Intelligenz destillieren und wiedergeben könne. Fordert man sie auf, Daten in einem schriftlichen Bericht zusammenzufassen, ahmt sie die Art und Weise nach, wie andere Autoren ähnliche Daten zusammengefasst haben.

Das erscheint mir als ein akademisches Argument, solange die Daten korrekt und die Analyse nĂĽtzlich ist.

Was passiert, wenn die KI die Daten nicht hat? Sie fĂĽllt die LĂĽcken. Manchmal ist es lustig. Manchmal ist es ein totales Chaos.

Beim Bauen AI-AgentenDas Risiko ist zehnmal höher. Agenten sollen zwar umsetzbare Erkenntnisse liefern, treffen aber im Laufe der Arbeit weitere Entscheidungen. Sie führen mehrstufige Aufgaben aus, bei denen das Ergebnis von Schritt 10 die Schritte 1, 2, 3, 4, … 5 … 10 beeinflusst. Sind die Ergebnisse von Schritt 20 falsch, verstärkt sich der Fehler, was das Ergebnis von Schritt 1 noch weiter verschlechtert. Dies gilt insbesondere, da Agenten Entscheidungen treffen und Schritte überspringen können.

Richtig eingesetzte Agenten leisten mehr für das Unternehmen, das sie einsetzt. Als KI-Produktmanager müssen wir uns jedoch des höheren Risikos bewusst sein, das mit dem höheren Nutzen einhergeht.

Und genau das hat unser Team getan. Wir haben das Risiko erkannt und es angegangen. Wir haben nicht einfach nur einen schicken Roboter gebaut, sondern sichergestellt, dass er mit den richtigen Daten läuft. Folgendes haben wir meiner Meinung nach richtig gemacht:

  • Erstellen Sie den Agenten so, dass er die richtigen Fragen stellt und die richtigen Daten ĂĽberprĂĽft. Achten Sie darauf, dass der anfängliche Dateneingabeprozess des Agenten deterministischer und weniger kreativ ist. Der Agent sollte melden, wenn er nicht ĂĽber die richtigen Daten verfĂĽgt, und nicht mit dem nächsten Schritt fortfahren, anstatt die Daten zu erfinden.
  • Strukturieren Sie ein Strategiebuch fĂĽr Ihren Agenten – stellen Sie sicher, dass er nicht jedes Mal einen neuen Plan erfindet, sondern einen halbstrukturierten Ansatz verfolgt. Struktur und Kontext sind in der Phase der Datenerfassung und -analyse äuĂźerst wichtig. Sie können dem Agenten mehr Freiraum geben und ihn kreativer agieren lassen, sobald er die Fakten hat und bereit ist, die Zusammenfassung zu schreiben. Aber zuerst mĂĽssen die Fakten stimmen.
  • Erstellen Sie ein hochwertiges Tool zur Datenextraktion. Dies sollte mehr als nur ein API-Aufruf sein. Nehmen Sie sich die Zeit, den Code zu schreiben (das machen viele immer noch), der die richtige Menge und Vielfalt der zu erfassenden Daten liefert, und integrieren Sie Qualitätskontrollen in den Prozess.
  • Lassen Sie den Agenten seine Arbeit zeigen. Der Agent sollte seine Quellen angeben und einen Link zu einer Stelle bereitstellen, an der der Benutzer die Daten anhand der Originalquelle ĂĽberprĂĽfen und weiter untersuchen kann. Keine Tricksereien erlaubt!
  • Leitplanken: Ăśberlegen Sie, was schiefgehen könnte, und bauen Sie SchutzmaĂźnahmen gegen die Fehler ein, die Sie sich auf keinen Fall erlauben dĂĽrfen. In unserem Fall bedeutet das: Wenn der mit der Marktanalyse beauftragte Agent nicht ĂĽber die Daten verfĂĽgt – damit meine ich unsere Similarweb-Daten, nicht irgendeine beliebige Datenquelle aus dem Internet –, ist es unerlässlich, sicherzustellen, dass er nichts erfindet. Es ist besser, wenn der Agent nicht antworten kann, als eine falsche oder irrefĂĽhrende Antwort zu liefern.

Wir haben diese Prinzipien in die jĂĽngste Version unserer drei neuen Agenten integriert, und weitere werden folgen. Unser AI Meeting Prep Agent fĂĽr Vertriebsmitarbeiter fragt beispielsweise nicht nur nach dem Namen des Zielunternehmens, sondern auch nach Details zum Ziel des Meetings und den teilnehmenden Personen. So kann er eine bessere Antwort liefern. Er muss nicht raten, da er fĂĽr seine Empfehlungen eine FĂĽlle von Unternehmensdaten, digitalen Daten und FĂĽhrungsprofilen nutzt.

Sind unsere Agenten perfekt? Nein. Niemand entwickelt bisher perfekte KI, nicht einmal die größten Unternehmen der Welt. Aber sich dem Problem zu stellen ist viel besser, als es zu ignorieren.

Willst du weniger Halluzinationen? Gib deiner KI ein schönes Stück qualitativ hochwertige Daten.

Wenn es halluziniert, liegt es vielleicht nicht an der KI, die repariert werden muss. Vielleicht liegt es an Ihrem Ansatz, diese leistungsstarken neuen Funktionen zu nutzen, ohne Zeit und MĂĽhe zu investieren, um sie richtig einzusetzen.

Omri Shtayer ist Vizepräsident für Datenprodukte und DaaS bei ÄhnlichewebDort leitet er unternehmensweit Innovationen und treibt das Wachstum des Datengeschäfts voran. Zuletzt leitete er die Einführung von AI Agents – skalierbaren, intelligenten Tools, die Unternehmen dabei helfen, Daten in praxisnahe Ergebnisse umzusetzen. Mit seiner Erfolgsbilanz bei der Entwicklung wirkungsvoller Datenlösungen ist Omri führend bei der Transformation der digitalen Intelligenz in Unternehmen.