Connect with us

Wenn Ihre KI halluziniert, geben Sie der KI keine Schuld

Vordenker

Wenn Ihre KI halluziniert, geben Sie der KI keine Schuld

mm

KI-“Halluzinationen” – diese überzeugend klingenden, aber falschen Antworten – erregen viel Medienaufmerksamkeit, wie im jüngsten New York Times-Artikel AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse. Halluzinationen sind ein echtes Risiko, wenn man mit einem Consumer-Chatbot zu tun hat. Im Kontext von Geschäftsanwendungen von KI ist es ein noch ernsteres Anliegen. Glücklicherweise habe ich als Geschäftstechnologieführer mehr Kontrolle darüber. Ich kann sicherstellen, dass der Agent die richtigen Daten hat, um eine sinnvolle Antwort zu liefern.

Weil das das eigentliche Problem ist. In der Geschäftswelt gibt es keine Entschuldigung für KI-Halluzinationen. Hören Sie auf, der KI die Schuld zu geben. Geben Sie sich selbst die Schuld, weil Sie die KI nicht richtig verwenden.

Wenn generative KI-Tools halluzinieren, tun sie das, wofür sie designed sind – sie liefern die beste Antwort, die sie können, basierend auf den verfügbaren Daten. Wenn sie etwas erfinden, eine Antwort produzieren, die nicht auf der Realität basiert, ist es, weil sie die relevanten Daten vermissen, sie nicht finden können oder die Frage nicht verstehen. Ja, neue Modelle wie OpenAI’s o3 und o4-mini halluzinieren mehr, sind sogar noch “kreativer”, wenn sie keine gute Antwort auf die gestellte Frage haben. Ja, leistungsfähigere Tools können mehr halluzinieren – aber sie können auch leistungsfähigere und wertvollere Ergebnisse produzieren, wenn wir sie zum Erfolg einrichten.

Wenn Sie nicht wollen, dass Ihre KI halluziniert, entziehen Sie ihr nicht die Daten. Füttern Sie die KI mit den besten, relevantesten Daten für das Problem, das Sie lösen wollen, und sie wird nicht in Versuchung geraten, vom Weg abzukommen.

Sogar dann, wenn Sie mit jedem KI-Tool arbeiten, empfehle ich, Ihre kritischen Denkfähigkeiten zu erhalten. Die Ergebnisse, die KI-Agents liefern, können produktiv und erfreulich sein, aber der Punkt ist nicht, Ihren Verstand auszuschalten und das Software allein denken zu lassen. Stellen Sie Fragen. Wenn ein KI-Agent Ihnen eine Antwort gibt, hinterfragen Sie diese Antwort, um sicherzustellen, dass sie Sinn ergibt und durch Daten gestützt wird. Wenn ja, sollte das ein ermutigendes Zeichen sein, dass es sich lohnt, weitere Fragen zu stellen.

Je mehr Sie fragen, desto bessere Einblicke erhalten Sie.

Warum Halluzinationen auftreten

Es ist kein Mysterium. Die KI versucht nicht, Ihnen zu lügen. Jedes große Sprachmodell (LLM) KI ist im Wesentlichen eine Vorhersage des nächsten Wortes oder der nächsten Zahl basierend auf Wahrscheinlichkeit.

Auf hohem Niveau geschieht hier, dass LLMs Sätze und Absätze Wort für Wort zusammenfügen, das nächste Wort vorhersagen, das in dem Satz auftreten sollte, basierend auf Milliarden anderer Beispiele in ihren Trainingsdaten. Die Vorfahren von LLMs (abgesehen von Clippy) waren Autocomplete-Prompts für Textnachrichten und Computercode, automatisierte menschliche Sprachübersetzungstools und andere probabilistische linguistische Systeme. Mit erhöhter Rechenleistung und Training auf Internet-umfassenden Datenmengen wurden diese Systeme “intelligent” genug, um ein vollständiges Gespräch über Chat zu führen, wie die Welt mit der Einführung von ChatGPT erfahren hat.

KI-Kritiker weisen gerne darauf hin, dass dies nicht dasselbe ist wie echte “Intelligenz”, sondern nur Software, die die in sie eingegebene menschliche Intelligenz destillieren und wiedergeben kann. Fragen Sie sie, Daten in einem geschriebenen Bericht zusammenzufassen, und sie imitieren die Art und Weise, wie andere Schriftsteller ähnliche Daten zusammengefasst haben.

Das erscheint mir als akademische Argumentation, solange die Daten korrekt sind und die Analyse nützlich ist.

Was passiert, wenn die KI keine Daten hat? Sie füllt die Lücken. Manchmal ist es lustig. Manchmal ist es ein totaler Unsinn.

Wenn man KI-Agents aufbaut, ist dies ein 10-mal höheres Risiko. Agents sollen handhabbare Einblicke liefern, aber sie treffen mehr Entscheidungen auf dem Weg. Sie führen mehrschrittige Aufgaben aus, bei denen das Ergebnis von Schritt 1 die Schritte 2, 3, 4, 5, … 10 … 20 beeinflusst. Wenn die Ergebnisse von Schritt 1 falsch sind, wird der Fehler verstärkt, was das Ausgabeergebnis bei Schritt 20 umso schlimmer macht. Insbesondere können Agents Entscheidungen treffen und Schritte überspringen.

Wenn man es richtig macht, erreichen Agents mehr für das Unternehmen, das sie einsetzt. Doch als KI-Produktmanager müssen wir das größere Risiko erkennen, das mit der größeren Belohnung einhergeht.

Was unser Team getan hat. Wir haben das Risiko erkannt und angepackt. Wir haben nicht nur einen eleganten Roboter gebaut; wir haben sichergestellt, dass er auf den richtigen Daten läuft. Hier ist, was ich denke, wir richtig gemacht haben:

  • Den Agent so aufbauen, dass er die richtigen Fragen stellt und überprüft, ob er die richtigen Daten hat. Stellen Sie sicher, dass der anfängliche Daten-Eingabeprozess des Agents tatsächlich deterministischer, weniger “kreativ” ist. Sie wollen, dass der Agent sagt, wenn er keine richtigen Daten hat und nicht zum nächsten Schritt übergeht, anstatt Daten zu erfinden.
  • Ein Spielbuch für Ihren Agenten strukturieren – stellen Sie sicher, dass er nicht jedes Mal einen neuen Plan erfindet, sondern einen halbstrukturierten Ansatz hat. Struktur und Kontext sind extrem wichtig bei der Datenerfassung und -analyse. Sie können den Agenten loslassen und “kreativer” handeln lassen, wenn er die Fakten hat und bereit ist, die Zusammenfassung zu schreiben, aber erst einmal die Fakten richtigstellen.
  • Ein hochwertiges Tool zum Extrahieren der Daten aufbauen. Dies sollte mehr als nur ein API-Aufruf sein. Nehmen Sie sich die Zeit, den Code (den Menschen immer noch schreiben) zu schreiben, der die richtige Menge und Vielfalt der Daten sammelt, die gesammelt werden sollen, und Qualitätssicherungen in den Prozess integriert.
  • Den Agenten zeigen, wie er arbeitet. Der Agent sollte seine Quellen zitieren und auf die Stelle verweisen, an der der Benutzer die Daten überprüfen und weiter erforschen kann, aus der ursprünglichen Quelle. Keine Taschenspielertricks erlaubt!
  • Schutzvorkehrungen: Denken Sie darüber nach, was schiefgehen könnte, und bauen Sie Schutzvorkehrungen gegen die Fehler, die Sie absolut nicht dulden können. In unserem Fall bedeutet das, dass der Agent, der mit der Analyse eines Marktes beauftragt ist, nicht etwas erfinden sollte, wenn er keine Daten hat – meine ich unsere Similarweb-Daten, nicht irgendeine zufällige Datenquelle, die aus dem Web gezogen wurde -, ein wesentlicher Schutz ist. Es ist besser, wenn der Agent nicht in der Lage ist, eine Antwort zu geben, als eine falsche oder irreführende Antwort zu liefern.

Wir haben diese Grundsätze in unsere jüngste Veröffentlichung unserer drei neuen Agents integriert, mit mehr zu folgen. Zum Beispiel fragt unser AI-Meeting-Prep-Agent für Verkäufer nicht nur nach dem Namen des Zielunternehmens, sondern auch nach Details zum Ziel der Besprechung und mit wem es ist, um eine bessere Antwort zu liefern. Er muss nicht raten, weil er eine Fülle von Unternehmensdaten, digitalen Daten und Executive-Profilen nutzt, um seine Empfehlungen zu informieren.

Sind unsere Agents perfekt? Nein. Niemand erstellt noch perfekte KI, nicht einmal die größten Unternehmen der Welt. Aber das Problem anzugehen, ist viel besser, als es zu ignorieren.

Wollen Sie weniger Halluzinationen? Geben Sie Ihrer KI einen schönen Brocken hochwertiger Daten.

Wenn sie halluziniert, vielleicht muss die KI nicht repariert werden. Vielleicht ist es Ihr Ansatz, der verbessert werden muss, um diese leistungsstarken neuen Fähigkeiten zu nutzen, ohne die Zeit und den Aufwand zu investieren, um sie richtig zu machen.

Omri Shtayer ist der Vizepräsident von Data-Produkten und DaaS bei Similarweb, wo er die Innovation im gesamten Unternehmen leitet und das Wachstum seines Daten-Geschäfts vorantreibt. Er hat kürzlich den Start von AI-Agents angeführt - skalierbare, intelligente Tools, die dazu dienen, Unternehmen dabei zu helfen, Daten in realweltliche Ergebnisse umzusetzen. Mit einer Erfolgsbilanz beim Aufbau von datengetriebenen Lösungen ist Omri an der Spitze der Transformation, wie Unternehmen digitale Intelligenz nutzen.