Connect with us

Wenn “Chatbot” ein schmutziges Wort ist: 3 Missverständnisse, die Geschäftsführer über Conversational AI haben

Vordenker

Wenn “Chatbot” ein schmutziges Wort ist: 3 Missverständnisse, die Geschäftsführer über Conversational AI haben

mm

Die Verbreitung von LLMs wie OpenAI’s ChatGPT, Meta’s Llama und Anthropic’s Claude hat zu einem Chatbot für jeden Anlass geführt. Es gibt Chatbots für Karriereberatung, Chatbots, die es ermöglichen, mit Ihrem zukünftigen Ich zu sprechen, und sogar einen Hühnchen-Chatbot, der Kochtipps gibt. 

Aber diese sind nicht die Chatbots von vor zehn Jahren – damals waren sie auf eng vorgegebene, starre “Gespräche” beschränkt, oft basierend auf einer großen Flussdiagramm mit Multiple-Choice- oder äquivalenten Antworten. Im Wesentlichen waren sie nur slightly mehr fortschrittlich als pre-Internet-IVR-Telefonmenüs.

Heutige “Chatbots” hingegen beziehen sich häufiger auf Conversational AI, ein Tool mit viel breiteren Fähigkeiten und Anwendungsfällen. Und weil wir uns jetzt in der Mitte des generativen AI-Hype-Zyklus befinden, werden alle drei Begriffe synonym verwendet. Leider gibt es als Folge viele Missverständnisse über die Risiken, Anwendungsfälle und ROI von Investitionen in Conversational AI unter Geschäftsführern, insbesondere in hoch regulierten Branchen wie Finanzen. 

Ich möchte also einige gängige Missverständnisse über “Chatbots” richtigstellen, wenn wir tatsächlich über Conversational AI sprechen. 

Mythos 1: Kunden hassen Chatbots

Verbraucher wurden in den letzten zehn Jahren gefragt, ob sie lieber menschliche Agenten oder Chatbots bevorzugen – was wie eine Frage ist, ob man lieber eine professionelle Massage oder einen Massagestuhl in einem Einkaufszentrum haben möchte. 

Aber die Einführung von ChatGPT im Jahr 2022 (und all den Tools, die daraus entstanden) hat unsere Wahrnehmung von den Fähigkeiten eines Chatbots vollständig auf den Kopf gestellt. Wie bereits erwähnt, operierten ältere Chatbots auf Skripten, so dass jede Abweichung von ihren vorgegebenen Pfaden oft zu Verwirrung und ineffektiven Antworten führte. Unfähig, Kontext und Benutzerabsicht zu verstehen, waren die gegebenen Antworten oft generisch und unhelpful, und sie hatten eine begrenzte Fähigkeit, Informationen zu sammeln, zu speichern und zu liefern.

Im Gegensatz dazu bindet Conversational AI Menschen in natürliche Gespräche ein, die menschliche Sprache spiegeln, und ermöglicht so einen flüssigeren, intuitiveren Austausch. Es zeigt eine bemerkenswerte Flexibilität und Anpassungsfähigkeit an unerwartete Ergebnisse. Es kann den Kontext um die Benutzerabsicht herum verstehen, Emotionen erkennen und empathisch reagieren.

Dieses tiefergehende Verständnis ermöglicht es heutigen KI-Systemen, Benutzer effektiv auf logische Pfade in Richtung ihrer Ziele zu führen. Dazu gehört auch, Kunden schnell an menschliche Assistenten zu übergeben, wenn notwendig. Darüber hinaus verwendet Conversational AI erweiterte Informationsfilter, Abrufmechanismen und die Fähigkeit, relevante Daten zu speichern, was ihre Problemlösungsfähigkeiten erheblich verbessert und so zu einer besseren Benutzererfahrung führt.

Es ist also nicht so, dass Kunden blindlings Chatbots hassen, was sie hassen, ist schlechter Service, den frühere Versionen von Chatbots definitiv lieferten. Heutige Conversational-Agents sind so viel fortschrittlicher, dass über ein Viertel der Verbraucher nicht sicher sind, ob sie zwischen menschlichen und KI-gestützten Kundenberatern unterscheiden können, und einige wahrnehmen KI-Chatbots als besser bei bestimmten Aufgaben als ihre menschlichen Pendants. 

In Testpiloten hat mein Unternehmen gesehen, wie KI-Agents die Lead-Konversionsraten verdreifachen, was ein ziemlich starker Hinweis darauf ist, dass es nicht darum geht, ob es ein Bot ist oder nicht – es geht um die Qualität der Arbeit.

Mythos 2: Chatbots sind zu riskant

In Diskussionen mit Geschäftsführern über KI entstehen oft Bedenken hinsichtlich Halluzinationen, Datenschutz und Bias, die möglicherweise zu regulatorischen Verstößen führen könnten. Obwohl diese Risiken legitim sind, können sie durch verschiedene Ansätze gemindert werden: Feinabstimmung, Retrieval-Augmented-Generation (RAG) und Prompt-Engineering. 

Obwohl Fine-Tuning nicht auf allen LLMs verfügbar ist, kann es ein vorgebildetes Modell für eine bestimmte Aufgabe oder ein bestimmtes Gebiet spezialisieren, was zu einer KI führt, die besser auf bestimmte Bedürfnisse abgestimmt ist. Zum Beispiel könnte ein Gesundheitsunternehmen ein Modell feinabstimmen, um besser auf medizinische Anfragen zu reagieren. 

RAG verbessert die Genauigkeit von Chatbots, indem es dynamisch externe Kenntnisse integriert. Dies ermöglicht es dem Chatbot, aktuelle Informationen aus externen Datenbanken abzurufen. Zum Beispiel könnte ein Finanzdienstleistungs-Chatbot RAG verwenden, um Echtzeit-Antworten zu Aktienkursen zu liefern. 

Schließlich optimiert Prompt-Engineering LLMs, indem es Prompts erstellt, die den Chatbot anleiten, genauere oder kontextbewusste Antworten zu liefern. Zum Beispiel könnte eine E-Commerce-Plattform Prompt-Engineering verwenden, um dem Chatbot zu helfen, personalisierte Produktvorschläge basierend auf Kundenpräferenzen und Suchverlauf zu liefern.

Darüber hinaus kann die Kreativität von Conversational AI durch die Einstellung der “Temperatur” im API-Aufruf kontrolliert werden, um Halluzinationen zu verhindern. Die Einstellung einer niedrigeren Temperatur innerhalb der API-Aufrufe beschränkt die KI auf deterministischere und konsistentere Antworten, insbesondere wenn sie mit einer Wissensbasis kombiniert wird, die sicherstellt, dass die KI aus spezifischen, zuverlässigen Datensätzen zieht. Um Risiken weiter zu minimieren, sollten KI-Systeme nicht in Entscheidungsrollen eingesetzt werden, in denen Bias oder Fehlinformationen zu rechtlichen Problemen führen könnten. 

Was den Datenschutz betrifft, sollten externe KI-Anbieter sicherstellen, dass sie regulatorischen Anforderungen entsprechen, oder Open-Source-Modelle auf eigener Infrastruktur bereitstellen, um die volle Kontrolle über die Daten zu behalten, was für die Einhaltung der DSGVO unerlässlich ist. 

Schließlich ist es immer ratsam, in eine Berufshaftpflichtversicherung zu investieren, die weitere Schutz bietet und Unternehmen in unwahrscheinlichen Szenarien wie versuchter Rechtsverfolgung schützt. Durch diese Maßnahmen können Unternehmen KI mit Zuversicht einsetzen und gleichzeitig Marken- und Kundensicherheit gewährleisten.

Mythos 3: Chatbots sind nicht bereit für komplexe Aufgaben 

Nachdem man die Probleme gesehen hat, die große Technologieunternehmen bei der Bereitstellung von KI-Tools haben, mag es naiv erscheinen, anzunehmen, dass ein KMU es leichter haben würde. Aber KI befindet sich derzeit in einer Phase, in der der Ausdruck “Jack-of-all-trades und Meister von keinem” nicht allzu ungenau ist. Dies liegt hauptsächlich daran, dass diese Tools aufgefordert werden, zu viele verschiedene Aufgaben in Umgebungen auszuführen, die noch nicht für eine effektive KI-Bereitstellung konzipiert sind. Mit anderen Worten, es ist nicht so, dass sie nicht in der Lage sind, es ist so, dass sie auf einem Teich aus dünnem, gebrochenem Eis Schlittschuh laufen sollen. 

Zum Beispiel werden Organisationen, die von siloartigen und/oder unorganisierten Daten geprägt sind, eher dazu neigen, dass KI veraltete, ungenaue oder widersprüchliche Informationen aufdeckt. Ironischerweise ist dies eine Folge ihrer Komplexität! Während ältere Chatbots einfach grundlegende Informationen in linearer Form wiederholten, kann Conversational AI robuste Datensätze analysieren und mehrere Einflussfaktoren gleichzeitig berücksichtigen, um den angemessensten Weg voranzukommen. 

Daher hängt der Erfolg mit Conversational AI von strengen Parametern und extrem klaren Grenzen in Bezug auf Datenquellen und Aufgaben ab. Mit den richtigen Trainingsdaten und expertenmäßig gestalteten Prompts kann die Funktionalität von Conversational AI weit über den Umfang eines einfachen Chatbots hinausgehen. Zum Beispiel kann es Daten aus Kundenkonversationen sammeln und filtern und diese verwenden, um automatisch ein CRM zu aktualisieren. Dies strafft nicht nur administrative Aufgaben, sondern stellt auch sicher, dass Kundeninformationen konsistent genau und aktuell sind. Durch die Automatisierung solcher Aufgaben können Unternehmen sich mehr auf strategische Aktivitäten konzentrieren, anstatt administrative Belastungen zu tragen.

Wenn wir weiterhin den Begriff “Chatbot” verwenden, ist es wichtig, dass wir zwischen Plattformen unterscheiden, die Cutting-Edge-Conversational-AI einsetzen, und denen, die noch die begrenzten Tools von gestern anbieten. Ebenso wie heute das Wort “Telefon” häufiger das Bild eines Touchscreen-Smartphones als eines spiralgekoppelten Festnetztelefons hervorruft, glaube ich, dass wir nicht weit davon entfernt sind, dass “Chatbot” durch das Konzept von fortschrittlichen KI-Agentsen ersetzt wird, anstatt durch die veralteten, mehrstufigen Avatare.

Sam Oliver ist ein Tech-Unternehmer, Immobilieninvestor und Autor. Sein letztes Projekt, OpenFi, ist ein konversationales KI-System für Lead-Generierung und Kundenpflege.