Interviews
Alex Levin, Co-Founder og CEO af Regal – Interview Serie

Alex Levin er Co-Founder og CEO af Regal, en voice AI-platform, der hjælper virksomheder med at drive omsætning gennem compliant, AI-drevne kundesamtaler. Før han co-foundede Regal i 2020, ledede han vækst- og produktteams hos Handy, Thomson Reuters og andre startups. Som Harvard-uddannet og medlem af Forbes Technology Council fokuserer Alex på at bygge skalerbare, voice-first-infrastruktur, der kombinerer innovation med enterprise-grade guardrails.
Regal leverer AI-voice-agenter til salg, support, planlægning og indsamling – designed til at lyde naturligt, integrere med CRM-systemer og håndtere millioner af samtaler i skala. Platformen har en no-code-bygger, real-time-analytik, A/B-test og indbygget compliance til regulerede brancher som sundhedsvesen, forsikring og finansielle services.
Hvad inspirerede dig til at skifte fra ledelsesroller hos Angi og Handy til at co-founde Regal, og var der et bestemt øjeblik, hvor du og din co-founder indså, at kontaktcenter-oplevelsen skulle genopbygges helt?
Mens vi var hos Angi/Handy, så vi kraften af voice til at bygge tillid hos kunder. Kunder fortalte os, at når de havde et vigtigt problem, de ville ringe, og kunder, som vi betjente over telefonen, havde en højere livstidsværdi, og når vi ringede til kunder, svarede de i en langt højere grad end på nogen anden kanal. Alligevel var kontaktcenter-software-udbydere fokuseret på “afledning” og “automatisering” over, hvad der var bedst for kunderne. Resultatet var et evigt spil af “gem telefonnumret”, der unødigt straffede kunder.
Min co-founder og jeg forlod, fordi vi stærkt troede på, at vi kunne gøre voice til den mest effektive kanal ved at bringe omkostningerne ned og gøre det lettere at operere. Jeg ønsker, jeg havde haft Regal, mens jeg løb en stor kontaktcenter.
I 2020 lancerede du Regal lige før den generative AI-boom. Hvordan vurderede du, om voice AI var teknisk viable – og hvad gav dig overbevisningen om at handle tidligt?
Vi var overbevist lang tid før 2020 om, at voice var den vigtigste kanal. Og i 2020 vidste vi, at vi kunne bygge orkestrering, A/B-test og personaliseringstools, der ville reducere omkostningerne og gøre det lettere at håndtere voice som en kanal – uanset om det var et menneske, en gammeldags voice-bot eller noget bedre. Så vi solgte værktøjer til kontaktcenter for at bedre håndtere menneskelige agenter fra starten. Denne produkt voksede meget hurtigt.
Men som du nævnte, at starte et firma er et spring ud i det ukendte, og det tog tid at se, hvordan vi kunne gå ud over begrænsningerne af menneskelige agenter. Det var ikke før lanceringen af ChatGPT i slutningen af 2022, at vi virkelig så “AI”, der var god nok til at holde en samtale. Og det var ikke før slutningen af 2023, at vi kunne lave en demo for en voice-agent, som vi troede en kunde ville ønske at tale med.
Hvad var nogle af de mest vanskelige tekniske udfordringer i at træne voice-agenter, der kunne matche eller overgå menneskelig præstation i naturlige samtaler?
Der er så mange dejlige tekniske udfordringer at arbejde med. Fra at sikre, at latencyen er omkring 500 ms, til at finde ud af, hvordan man kan sikre, at AI-agenter kan have alle konteksten af virksomhedens videnbasers og kundedata i realtid, til at få AI-agenter til at tage handlinger i opkald og efter, til vagter eller sikkerhedsfunktioner, og hvordan man kan gøre agent-interaktionen føle sig menneskelig med vendinger og de rigtige verbale signaler.
En af mine yndlingsprojekter, som vores team arbejder på i dag, er, hvordan man kan forbedre automatiserede evalueringer, så en AI-agent kan testes mere let, før den sættes i produktion. Dette ville udelukke hundredvis af timer med manuel QA, der sker konstant i dag for hver ændring af hver AI-agent.
Vi må først oprette hundredvis af varierede simulerede kundesamtaler (ved hjælp af AI), de har AI-agenten gå igennem dem, derefter har AI-overvågeren QA dem og returnere foreslåede forbedringer til AI-agenten eller virksomhedens politikker og videnbase. Vi har et fungerende evalueringprodukt nu, kundefeedbacken har været god, og det bliver bedre med en fantastisk hast.
Dette er kritisk for den nye måling af antal ledere per AI-agent. Snart vil meget få ledere kunne håndtere hundredvis af forskellige AI-agenter.
Hvordan udnytter Regal maskinlæring til at personliggøre samtaler i realtid? Er det baseret på kundehistorik, tone, hensigtsrekognition – eller en kombination?
Vi har investeret dybt i personliggørelse i forhold til resten af markedet, fordi vi tror på at hjælpe brands med at teste millioner af kunder som en i millionen. Ikke bare genskabe den generiske menneskelige agent, der håndterer, der ofte bruges i dag.
Vi startede med at bygge en samlet kundeprofil, der linker hver enkelt piece of CRM-data, begivenhedsdata og samtalehistorik. Ved at bygge en agent kan virksomheder så give AI-agenten adgang til alle oplysninger om en kunde eller kun de specifikke datapunkter, der er nødvendige for en bestemt samtale. LLM’en giver en menneske-lignende, konversationel respons ved hjælp af data på hånden.
LLM’er er stadig begrænsede i, hvad de gør godt, så vi havde brug for muligheden for at udnytte andre værktøjer som tredjepartsdatatjenester, brugerdefinerede applikationer og ML. Så vi byggede “Brugerdefinerede handlinger”, der kan bruges i en AI-agent-prompt til at udnytte andre tjenester. For eksempel har mange brands propensity-modeller til at indikere, hvilket produkt at foreslå kunden næste, og vi kan hook into dem i samtalen.
Hvordan bruger dit system retrieval-augmented generation (RAG) uden at ofre responsiviteten eller den naturlige kadence, som kunder forventer fra et live-opkald?
RAG er et område, hvor vi adskiller os, fordi det behøvede at være hurtigere for voice AI-agenter end for AI-agenter i chat eller andre digitale kanaler. Et par sekunders dødt luft ville helt ødelægge opkaldet.
Vi reducerede både latencyen af retrieval og sikrede, at hvis retrieval tog længere tid, kunne AI-agenten fortsætte med at tale med kunden for at lade dem vide, det ville tage længere.
Regals agenter er modelleret efter rigtige menneskestemmer, herunder også investorer. Hvad kræver det – teknisk og etisk – at bygge sådanne høj-fidelitets-replikaer?
Det er overraskende let teknisk at “klone” en stemme, så en AI-agent kan lyde som en professionel stemmeaktør eller en ven. 5-10 minutter af højkvalitetsaudio er alt, der er nødvendigt.
For eksempel blev jeg nylig spurgt, hvordan man gør dette for en døende familiemedlem, så den yngre generation kan opleve dem, når de er ældre. Så med lidt vejledning vil de optage den døende bedsteforælder nu.
Til dit andet punkt, bedsteforælderen giver samtykke til dette, og professionelle stemmeaktører eller vores investorer giver samtykke til dette. Dårlige aktører, der tillader stemme-kloning uden samtykke (som skete under den sidste præsidentvalgkamp), skal lukkes ned.
Et råd – hvis du tillader en stemme-kloning (eller du er en offentlig person, der kan blive klonet af dårlige aktører), skal du sørge for at komme op med et sikkerhedsord, som kun din familie kender, så de kan identificere den rigtige dig i et opkald.
Du fremhæver vigtigheden af at integrere Regal i CRM-systemer, betalingssystemer og interne API’er. Hvad var nogle af de største integrationsudfordringer, du havde at løse?
At integrere med store produkter fra CRM’er som Salesforce til kontaktcenter-software som NICE er straight forward. Den hårdeste opgave er at sikre, at mærket gør API’er tilgængelige for os til enhver handling, som AI-agenten måske har brug for. En menneskelig agent måske klikke på en knap for at booke et hotelværelse, men AI-agenten har virkelig brug for en booking-API.
Hvordan tilgår du måling og forbedring af modelpræstation over tid? Hvilken rol spiller supervised finjustering eller forstærkninglæring i denne proces?
Vi byggede en A/B-test-suit fra starten, så det er trivialt for kunder at teste AI-agenter vs menneskelige agenter eller agenten med LLM-version 1 vs version 2. Det giver os en klar måde at se variationer i resultat for forskellige modeller.
Men vi bruger ikke forstærkninglæring i dag, da det gør juridiske hold ubekvemme (de ønsker ikke en situation, hvor der er en ændring i duften, der er uønsket). Jeg tror, vi er 13 måneder fra, at juridiske hold tillader forstærkninglæring i vores brugstilfælde. I stedet fokuserer vi i dag på at foreslå ændringer, som en menneskelig leder kan acceptere. Disse kunne være til en prompt, en videnbase, finjustering af en LLM, osv.
At tale med en VC – eller en stemme-kloning af en – er et dristigt koncept. Hvad var din intention med at gøre disse AI-rådgivere tilgængelige for grundere, og hvordan bliver de brugt i dag?
Vi har været heldige at have adgang til fantastiske investorer, og vi ønskede at give noget tilbage med dette projekt. Jeg har det sjovt at tale med Satya AI når som helst, og jeg har hørt godt feedback fra direktører, der har brugt AI-VC’er til alt fra råd om, hvordan man laver en produktvej til, hvad prismodel man skal bruge.
Vi elsker at vise i stedet for at fortælle, og dette projekt fremhæver virkelig kraften af vores RAG/videnbase-kapaciteter. Vi havde endda to af vores investorer, der gav os tommelfingerne op!
Men et ord til den vise – du kan ikke dele beslutningstagning til rådgivere, og en af de sværeste dele af at være en direktør er at vælge mellem to dårlige muligheder eller endda to tilsyneladende gode muligheder.
Er disse investor-agenter afhængige af generel startup-viden, eller er de trænet på firma-specifik råd og filosofier forbundet med den enkelte VC?
Alle AI-agenter har nogen generisk viden fra LLM-træningen. Men for at få de resultater, vi havde brug for, uploadede vi investorerne prolifik skrifter til de respektive AI-Agent-Knowledge-Baser.
Ud over det og stemme-kloning, tror jeg, vi var i stand til at fange nogle af investorerne unikke personligheder eller essens, som Jake Saper’s positivitet eller Alexa Von Tobel’s ebullience.
Set fremad, hvordan ser du Regals AI udvikle sig – vil vi se mere autonom beslutningstagning, mere emotionel intelligens eller endda multimodal support?
Det mest spændende ved det sidste år har været at se vores AI-agenter præstere bedre end menneskelige agenter. Jeg tror, at i det næste år vil forbedringer i de underliggende AI-modeller og fremskridt i Regals anvendelse resultere i AI-agenter, der er umulige at skelne fra mennesker, og vigtigst, der langt overgår menneskelige agenters evner. Virksomheder, der læner sig ind i AI-agenter, vil reducere deres omkostninger og forbedre kundeoplevelsen hurtigere, end nogen havde forventet.
Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge Regal.












