Vernetzen Sie sich mit uns

Interviews

Alex Levin, Mitgründer und CEO von Regal – Interviewreihe

mm

Veröffentlicht

 on

Alex Levin ist Mitgründer und CEO von Regal, einer Sprach-KI-Plattform, die Unternehmen hilft, ihren Umsatz durch konforme, KI-gestützte Kundengespräche zu steigern. Vor der Gründung von Regal im Jahr 2020 leitete er Wachstums- und Produktteams bei Handy, Thomson Reuters und anderen Startups. Als Harvard-Absolvent und Mitglied des Forbes Technology Council konzentriert sich Alex auf den Aufbau skalierbarer, sprachorientierter Infrastrukturen, die Innovation mit unternehmenstauglichen Sicherheitsvorkehrungen verbinden.

Regal bietet KI-Sprachagenten für Vertrieb, Support, Terminplanung und Inkasso – mit natürlichem Klang, Integration in CRM-Systeme und der Möglichkeit, Millionen von Konversationen in großem Umfang abzuwickeln. Die Plattform bietet einen No-Code-Builder, Echtzeitanalysen, A/B-Tests und integrierte Compliance für regulierte Branchen wie das Gesundheitswesen, Versicherungen und Finanzdienstleistungen.

Was hat Sie dazu inspiriert, von Führungspositionen bei Angi und Handy zur Gründung von Regal zu wechseln, und gab es einen bestimmten Moment, in dem Ihnen und Ihrem Mitgründer klar wurde, dass das Contact-Center-Erlebnis völlig neu gestaltet werden musste?

Bei Angi/Handy erkannten wir, wie wichtig die Stimme für den Aufbau von Kundenvertrauen ist. Kunden berichteten uns, dass sie bei wichtigen Anliegen einen höheren Kundenwert hatten, wenn sie uns telefonisch kontaktierten. Und wenn wir Kunden anriefen, antworteten sie deutlich häufiger als über jeden anderen Kanal. Anbieter von Contact-Center-Software konzentrierten sich jedoch mehr auf „Ablenkung“ und „Automatisierung“ als auf das, was für die Kunden richtig war. Das Ergebnis war ein endloses Spiel mit dem Verbergen der Telefonnummer, das die Kunden unnötig bestrafte.

Mein Mitgründer und ich verließen das Unternehmen, weil wir fest davon überzeugt waren, dass wir Sprache zum effektivsten Kanal machen könnten, indem wir die Kosten senken und die Bedienung vereinfachen. Ich wünschte, ich hätte Regal gehabt, als ich ein großes Contact Center leitete.

Sie haben Regal 2020, kurz vor dem Boom der generativen KI, auf den Markt gebracht. Wie haben Sie die technische Realisierbarkeit von Sprach-KI bewertet – und was hat Sie dazu bewogen, frühzeitig zu handeln?

Wir waren schon lange vor 2020 davon überzeugt, dass Sprache der wichtigste Kanal ist. Und 2020 wussten wir, dass wir Orchestrierungs-, A/B-Test- und Personalisierungstools entwickeln konnten, die die Kosten senken und die Verwaltung von Sprache als Kanal vereinfachen würden – egal, ob es sich um einen Menschen, einen altmodischen Voice-Bot oder etwas Besseres handelte. Also verkauften wir anfangs Tools für Contact Center, um die Verwaltung menschlicher Agenten zu verbessern. Dieses Produkt wuchs sehr schnell.

Aber wie Sie sagen: Ein Unternehmen zu gründen ist ein Vertrauensvorschuss, und es dauerte eine Weile, bis wir wirklich erkannten, wie wir die Grenzen menschlicher Agenten überwinden konnten. Erst mit der Einführung von ChatGPT Ende 2022 sahen wir eine KI, die gut genug war, um ein Gespräch zu führen. Und erst Ende 2023 konnten wir eine Demo für einen Sprachagenten erstellen, mit dem ein Kunde unserer Meinung nach gerne sprechen würde.

Was waren einige der schwierigsten technischen Herausforderungen bei der Schulung von Sprachagenten, die die menschliche Leistung in natürlichen Gesprächen erreichen oder übertreffen konnten?

Es gibt so viele wunderbare technische Herausforderungen, an denen wir arbeiten können. Von der Sicherstellung einer Latenz von etwa 500 ms über die Frage, wie sichergestellt werden kann, dass KI-Agenten in Echtzeit auf den gesamten Kontext der Unternehmenswissensdatenbanken und Kundendaten zugreifen können, bis hin zu KI-Agenten, die während und nach Anrufen Maßnahmen ergreifen, Wächter- oder Sicherheitsfunktionen und wie die Interaktion mit Agenten durch Abwechseln und die richtigen verbalen Hinweise menschlich wirkt.

Eines meiner Lieblingsprojekte, an dem unser Team derzeit arbeitet, ist die Verbesserung automatisierter Auswertungen, damit ein KI-Agent vor der Inbetriebnahme einfacher getestet werden kann. Dies würde Hunderte von Stunden manueller Qualitätssicherung einsparen, die heute ständig für jede Änderung an jedem KI-Agenten anfällt.

Wir müssen zunächst Hunderte verschiedener simulierter Kundengespräche (mithilfe von KI) erstellen, diese vom KI-Agenten durchgehen lassen und anschließend vom KI-Supervisor einer Qualitätsprüfung unterziehen. Anschließend werden Verbesserungsvorschläge an den KI-Agenten oder die Richtlinien und die Wissensdatenbank des Unternehmens weitergeleitet. Wir verfügen nun über ein funktionierendes Evaluierungsprodukt, das Kundenfeedback ist hervorragend, und es verbessert sich rasant.

Dies ist entscheidend für die neue Messgröße der Anzahl der Manager pro KI-Agent. Bald werden nur noch sehr wenige Manager in der Lage sein, Hunderte verschiedener KI-Agenten zu verwalten.

Wie nutzt Regal maschinelles Lernen, um Gespräche in Echtzeit zu personalisieren? Basiert es auf Kundenhistorie, Tonfall, Absichtserkennung – oder einer Kombination aus beidem?

Wir haben im Vergleich zum Rest des Marktes stark in die Personalisierung investiert, weil wir daran glauben, dass wir Marken dabei helfen können, Millionen von Kunden wie einen von einer Million zu testen. Wir wollen nicht nur die generische Handhabung durch menschliche Agenten nachbilden, die heute oft verwendet wird.

Wir begannen mit der Erstellung eines einheitlichen Kundenprofils, das sämtliche CRM-Daten, Ereignisdaten und Gesprächsverläufe verknüpft. Durch die Erstellung eines Agenten können Unternehmen dem KI-Agenten dann Zugriff auf alle Informationen zu einem Kunden oder nur auf die für ein bestimmtes Gespräch erforderlichen Datenpunkte gewähren. Der LLM liefert anhand der vorhandenen Daten eine menschenähnliche, dialogorientierte Antwort.

LLMs sind in ihren Fähigkeiten noch eingeschränkt, daher benötigten wir die Möglichkeit, andere Tools wie Datendienste von Drittanbietern, benutzerdefinierte Anwendungen und ML zu nutzen. Daher haben wir „Custom Actions“ entwickelt, die in einer KI-Agent-Eingabeaufforderung verwendet werden können, um andere Dienste zu nutzen. Beispielsweise verfügen viele Marken über Neigungsmodelle, die angeben, welches Produkt dem Kunden als Nächstes vorgeschlagen werden soll, und wir können diese passend zur Konversation nutzen.

Wie nutzt Ihr System die Retrieval-Augmented Generation (RAG), ohne die Reaktionsfähigkeit oder natürliche Kadenz zu beeinträchtigen, die Kunden von einem Live-Anruf erwarten?

RAG ist für uns ein Differenzierungsbereich, da es für Sprach-KI-Agenten schneller sein musste als für KI-Agenten im Chat oder anderen digitalen Kanälen. Ein paar Sekunden Funkstille würden den Anruf komplett ruinieren.

Wir haben sowohl die Latenz beim Abrufen verringert als auch sichergestellt, dass der KI-Agent bei längeren Abrufzeiten weiterhin mit dem Kunden kommunizieren kann, um ihn darüber zu informieren, dass es länger dauern wird.

Die Agenten von Regal sind echten menschlichen Stimmen nachempfunden, darunter auch denen von echten Investoren. Welche technischen und ethischen Voraussetzungen sind nötig, um solche hochpräzisen Replikate zu erstellen?

Es ist technisch überraschend einfach, eine Stimme zu „klonen“, sodass ein KI-Agent wie ein professioneller Synchronsprecher oder ein Freund klingt. 5–10 Minuten Audio in hoher Qualität genügen.

Ich wurde zum Beispiel kürzlich gefragt, wie man das für ein sterbendes Familienmitglied machen kann, damit die jüngere Generation es noch erleben kann, wenn es älter ist. Mit ein wenig Anleitung werden sie jetzt also den sterbenden Großelternteil aufnehmen.

Zu Ihrem zweiten Punkt: Die Großeltern geben ihre Zustimmung dazu, und professionelle Synchronsprecher oder unsere Investoren geben ihre Zustimmung dazu. Böse Akteure, die Stimmenklonen ohne Zustimmung zulassen (wie es bei der letzten Präsidentschaftswahl geschah), sollten ausgeschaltet werden.

Ein Ratschlag: Wenn Sie einen Stimmklon zulassen (oder eine Person des öffentlichen Lebens sind, die von böswilligen Akteuren geklont werden könnte), denken Sie sich unbedingt ein Codewort aus, das nur Ihre Familie kennt, damit diese Ihr wahres Ich bei einem Anruf identifizieren kann.

Sie betonen, wie wichtig die Integration von Regal in CRMs, Zahlungssysteme und interne APIs ist. Welche Integrationsprobleme mussten Sie am meisten bewältigen?

Die Integration mit gängigen Produkten – von CRMs wie Salesforce bis hin zu Contact-Center-Software wie NICE – ist unkompliziert. Die größte Herausforderung besteht darin, sicherzustellen, dass die Marke uns APIs für alle Aktionen zur Verfügung stellt, die der KI-Agent ausführen muss. Ein menschlicher Agent klickt vielleicht auf eine Schaltfläche, um ein Hotelzimmer zu buchen. Der KI-Agent benötigt jedoch unbedingt eine Buchungs-API.

Wie gehen Sie vor, um die Modellleistung im Laufe der Zeit zu messen und zu verbessern? Welche Rolle spielen überwachtes Feintuning oder bestärkendes Lernen in diesem Prozess?

Wir haben von Anfang an eine A/B-Testsuite entwickelt, sodass es für Kunden ein Kinderspiel ist, KI-Agenten im Vergleich zu menschlichen Agenten oder den Agenten mit LLM Version 1 im Vergleich zu Version 2 zu testen. So können wir die Ergebnisabweichungen verschiedener Modelle deutlich erkennen.

Wir setzen derzeit jedoch kein Reinforcement Learning ein, da es Rechtsteams unangenehm ist (sie möchten keine Situation, in der sich der Geruch nicht beabsichtigt ändert). Ich denke, es dauert 13 Monate, bis Rechtsteams Reinforcement Learning in unserem Anwendungsfall zulassen. Stattdessen konzentrieren wir uns heute darauf, Änderungen vorzuschlagen, die ein menschlicher Manager akzeptieren kann. Dies können beispielsweise Eingabeaufforderungen, eine Wissensdatenbank, die Feinabstimmung eines LLM usw. sein.

Mit einem VC – oder einem Voice-Clone davon – zu sprechen, ist ein mutiges Konzept. Was war Ihre Absicht, Gründern diese KI-Berater zur Verfügung zu stellen, und wie werden sie heute eingesetzt?

Wir hatten das Glück, Zugang zu großartigen Investoren zu haben, und wir wollten mit diesem Projekt etwas zurückgeben. Ich spreche immer gerne mit Satya AI und habe großartiges Feedback von Führungskräften erhalten, die die AI-VCs für alles Mögliche genutzt haben, von der Beratung zur Erstellung einer Produkt-Roadmap bis hin zum passenden Preismodell.

Wir zeigen lieber, als zu erzählen, und dieses Projekt unterstreicht die Leistungsfähigkeit unserer RAG- und Wissensdatenbank. Sogar die Eltern zweier unserer Investoren haben uns positiv bewertet!

Aber ein guter Rat: Sie können die Entscheidungsfindung nicht an Berater delegieren und einer der schwierigeren Aspekte der Führungsrolle besteht darin, sich zwischen zwei schlechten oder sogar scheinbar allzu guten Optionen zu entscheiden.

Verlassen sich diese Investorenagenten auf allgemeines Startup-Wissen oder sind sie auf unternehmensspezifische Ratschläge und Philosophien geschult, die an den einzelnen VC gebunden sind?

Alle KI-Agenten verfügen über allgemeine Kenntnisse aus der LLM-Schulung. Um die gewünschten Ergebnisse zu erzielen, haben wir die umfangreichen Beiträge der Investoren in die jeweiligen KI-Agenten-Wissensdatenbanken hochgeladen.

Darüber hinaus und durch das Klonen der Stimmen glaube ich auch, dass es uns gelungen ist, die einzigartige Persönlichkeit oder das Wesen der Investoren einzufangen, wie etwa die positive Einstellung von Jake Saper oder die Überschwänglichkeit von Alexa Von Tobel.

Wie sehen Sie die zukünftige Entwicklung der KI von Regal – werden wir mehr autonome Entscheidungsfindung, mehr emotionale Intelligenz oder sogar multimodale Unterstützung erleben?

Das Spannendste im letzten Jahr war, dass unsere KI-Agenten bessere Leistungen als menschliche Agenten erbringen. Ich denke, dass Verbesserungen der zugrunde liegenden KI-Modelle und Fortschritte in Regals Anwendung im nächsten Jahr zu KI-Agenten führen werden, die von Menschen nicht zu unterscheiden sind und, was noch wichtiger ist, die Fähigkeiten menschlicher Agenten weit übertreffen. Unternehmen, die auf KI-Agenten setzen, werden ihre Kosten senken und das Kundenerlebnis schneller verbessern als erwartet.

Vielen Dank für das tolle Interview, Leser, die mehr erfahren möchten, sollten vorbeischauen Regal

Antoine ist ein visionärer Leiter und Gründungspartner von Unite.AI, angetrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Als Serienunternehmer glaubt er, dass KI für die Gesellschaft ebenso umwälzend sein wird wie Elektrizität, und schwärmt oft vom Potenzial disruptiver Technologien und AGI.

Als Futuristwidmet er sich der Erforschung, wie diese Innovationen unsere Welt prägen werden. Darüber hinaus ist er der Gründer von Wertpapiere.io, eine Plattform, deren Schwerpunkt auf Investitionen in Spitzentechnologien liegt, die die Zukunft neu definieren und ganze Branchen umgestalten.