Intervjuer
Ashish Nagar, VD och grundare av Level AI – Intervjuserie

Ashish Nagar är VD och grundare av Level AI, och han använder sin erfarenhet från Amazon och Alexa-teamet för att använda artificiell intelligens för att transformera kontaktcenteroperationer. Med en stark bakgrund inom teknik och entreprenörskap har Ashish varit instrumental i att driva företagets mission att förbättra effektiviteten och effektiviteten i kundservicen genom avancerade AI-lösningar. Under hans ledning har Level AI blivit en nyckelspelare inom AI-drivna kontaktcenter, känd för sina banbrytande produkter och överlägsna implementering av artificiell intelligens.
Vad inspirerade dig att lämna Amazon och starta Level AI? Kan du dela de specifika smärtorna i kundservicen som du syftade till att åtgärda med din teknik?
Min bakgrund är att bygga produkter på gränsen mellan teknik och affärer. Även om jag har en kandidatexamen i tillämpad fysik, har mitt arbete konsekvent fokuserat på produktroller och etablering, lansering och byggnad av nya företag. Min passion för teknik och affärer ledde mig till AI.
Jag började arbeta med AI 2014, när vi byggde ett nästa generationsmobil sökföretag som hette Rel C, som var liknande det som Perplexity AI är idag. Den erfarenheten utlöste min resa inom AI-programvara, och till slut förvärvades det företaget av Amazon. På Amazon var jag en produktledare på Alexa-teamet, och jag sökte kontinuerligt efter möjligheter att tackla mer komplexa AI-problem.
Under mitt sista år på Amazon, 2018, arbetade jag med ett projekt som vi kallade “Star Trek-datorn”, inspirerad av den berömda sci-fi-franchisen. Målet var att utveckla en dator som kunde förstå och svara på alla frågor du ställde till den. Detta projekt blev känt som Alexa Prize, med målet att möjliggöra för vem som helst att ha en 20-minuters konversation med Alexa om alla sociala ämnen. Jag ledde ett team på cirka 10 forskare, och vi lanserade detta som en global AI-utmaning. Jag arbetade nära ledande experter från institutioner som MIT, CMU, Stanford och Oxford. En sak blev tydlig: vid den tiden kunde ingen fullständigt lösa problemet.
Även då kunde jag känna en våg av innovation som var på väg att göra detta möjligt. Framåt till 2024, och tekniker som ChatGPT gör nu mycket av vad vi föreställde oss. Det fanns snabba framsteg inom naturlig språkbehandling med företag som Amazon, Google, OpenAI och Microsoft som byggde stora modeller och den underliggande infrastrukturen. Men de tacklade inte nödvändigtvis slut-till-slut-flöden. Vi erkände denna lucka och ville åtgärda den.
Vår första produkt var inte en kundservicelösning; det var en röstassistent för frontlinjearbetare, såsom tekniker och detaljhandelsanställda. Vi höjde 2 miljoner dollar i startfinansiering och visade produkten för potentiella kunder. De bad oss överväldigande att anpassa tekniken för kontaktcenter, där de redan hade röst- och dataströmmar men saknade den moderna generativa AI-arkitekturen. Detta ledde oss att inse att befintliga företag inom detta område var fast i det förflutna, kämpande med den klassiska innovatörsdilemmat om huruvida man skulle förnya sina äldre system eller bygga något nytt. Vi började från en blank slate och byggde den första infödda stora språkmodellen (LLM) kundupplevelse intelligens och serviceautomatiseringsplattformen.
Mitt djupa intresse för komplexiteten i mänskligt språk och hur utmanande det är att lösa dessa problem från ett datortekniskt perspektiv, spelade en betydande roll i vår strategi. AI:s förmåga att förstå mänskligt tal är avgörande, särskilt för kontaktcenterbranschen. Till exempel visar användning av Siri ofta hur svårt det är för AI att förstå avsikt och kontext i mänskligt språk. Även enkla frågor kan störa AI, som kämpar för att tolka vad du frågar.
AI kämpar med att förstå avsikt, upprätthålla kontext under långa samtal och besitta relevant kunskap om världen. Även ChatGPT har begränsningar inom dessa områden. Till exempel kanske den inte känner till den senaste nyheten eller förstår skiftande ämnen inom en konversation. Dessa utmaningar är direkt relevanta för kundservice, där samtal ofta involverar flera ämnen och kräver att AI förstår specifik, domänrelaterad kunskap. Vi åtgärdar dessa utmaningar i vår plattform, som är utformad för att hantera komplexiteten i mänskligt språk i en kundservicemiljö.
Level AI:s NLU-teknik går utöver grundläggande nyckelordsmatchning. Kan du förklara hur er AI förstår djupare kundavsikt och de fördelar det bringar till kundservice? Hur säkerställer Level AI noggrannheten och tillförlitligheten hos sina AI-system, särskilt när det gäller att förstå nyanserade kundinteraktioner?
Vi har sex eller sju olika AI-pipelines anpassade till specifika uppgifter, beroende på jobbet. Till exempel kan en arbetsflöde innefatta att identifiera anledningar till samtal och förstå problem som kunder har med en produkt eller tjänst, som vi kallar “kundens röst”. En annan kunde vara automatiserad poängsättning av kvalitetspoängkort för att utvärdera agentprestation. Varje arbetsflöde eller tjänst har sin egen AI-pipeline, men den underliggande tekniken förblir densamma.
För att dra en analogi är tekniken vi använder baserad på LLM liknande tekniken bakom ChatGPT och andra generativa AI-verktyg. Men vi använder kundservicsspecifika LLM som vi har utvecklat internt för dessa specialiserade arbetsflöden. Detta gör att vi kan uppnå över 85% noggrannhet inom bara några dagar efter att ha påbörjat nya kunder, vilket resulterar i snabbare tid till värde, minimala professionella tjänster och obesegrade noggrannhet, säkerhet och tillit.
Våra modeller har djup, specifik expertis inom kundservice. Den gamla paradigmen innefattade att analysera samtal genom att plocka ut nyckelord eller fraser som “avbryt mitt konto” eller “Jag är inte nöjd”. Men vår lösning förlitar sig inte på att fånga alla möjliga variationer av fraser. Istället tillämpar den AI för att förstå avsikten bakom frågan, vilket gör det mycket snabbare och effektivare.
Till exempel, om någon säger “Jag vill avbryta mitt konto”, finns det otaliga sätt de kan uttrycka det, som “Jag är klar med er” eller “Jag flyttar till någon annan”. Vår AI förstår frågans avsikt och binder den tillbaka till kontexten, vilket är varför vår programvara är snabbare och mer exakt.
En hjälpsam analogi är att gammal AI var som en regelbok – du byggde dessa styva regelböcker med if-then-else-uttryck, som var inflexibla och konstant behövde underhåll. Den nya AI, å andra sidan, är som en dynamisk hjärna eller ett lärande system. Med bara några pekare lär den sig dynamiskt kontext och avsikt, och förbättrar sig kontinuerligt på flyget. En regelbok har ett begränsat omfång och går lätt sönder när något inte passar de fördefinierade reglerna, medan ett dynamiskt lärande system fortsätter att expandera, växa och har en mycket bredare inverkan.
Ett bra exempel från en kundsynvinkel är ett stort e-handelsvarumärke. De har tusentals produkter, och det är omöjligt att hålla jämna steg med konstanta uppdateringar. Vår AI kan dock förstå kontexten, som om du pratar om en specifik soffa, utan att behöva konstant uppdatera en poängkort eller rubrik med varje ny produkt.
Vilka är de viktigaste utmaningarna i att integrera Level AI:s teknik med befintliga kundservicessystem, och hur åtgärdar ni dem?
Level AI är en kundupplevelse intelligens och serviceautomatiseringsplattform. Som sådan integrerar vi med de flesta CX-programvaror i branschen, antingen det är ett CRM, CCaaS, enkät- eller verktygsprogram. Detta gör oss till den centrala navet, som samlar in data från alla dessa källor och fungerar som intelligenslagret ovanpå.
Men utmaningen är att vissa av dessa system är baserade på icke-molnbaserad, lokal teknik, eller till och med molnbaserad teknik som saknar API:er eller ren dataintegration. Vi arbetar nära med våra kunder för att åtgärda detta, även om 80% av våra integrationer nu är molnbaserade eller API-nativa, vilket möjliggör snabb integration.
Hur tillhandahåller Level AI realtidsintelligens och agerbara insikter för kundserviceagenter? Kan du dela några exempel på hur detta har förbättrat kundinteraktioner?
Det finns tre typer av realtidsintelligens och agerbara insikter som vi tillhandahåller våra kunder:
- Automatisering av manuella arbetsflöden: Servicerepresentanter har ofta begränsad tid (6 till 9 minuter) och flera manuella uppgifter. Level AI automatiserar tråkiga uppgifter som anteckningar under och efter samtal, och genererar anpassade sammanfattningar för varje kund. Detta har sparat våra kunder 10 till 25% i samtalshanterings tid, vilket leder till mer effektivitet.
- CX-kopilot för servicerepresentanter: Servicerepresentanter står inför hög personalomsättning och utmaningar med ombordstigning. Tänk dig att bli släppt in i ett kontaktcenter utan att veta företagets policys. Level AI fungerar som en expert-AI som sitter bredvid representanten, lyssnar på samtal och erbjuder realtidsvägledning. Detta inkluderar att hantera invändningar, tillhandahålla kunskap och erbjuda smart transkription. Denna funktion har hjälpt våra kunder att ombordstiga och utbilda servicerepresentanter 30 till 50% snabbare.
- Chefskopilot: Denna unika funktion ger chefer realtidsöversikt över hur deras team presterar. Level AI tillhandahåller sekund-för-sekund-insikter i samtal, vilket möjliggör för chefer att ingripa, upptäcka känslor och avsikt, och stödja representanter i realtid. Detta har förbättrat agentproduktiviteten med 10 till 15% och ökat agentnöjdheten, vilket är avgörande för att minska kostnaderna. Till exempel, om en kund börjar svära åt en representant, flaggar systemet det, och chefen kan antingen ta över samtalet eller viska vägledning till representanten. Den här typen av realtidsingripande vore omöjlig utan denna teknik.
Kan du förklara hur Level AI:s känslighetsanalys fungerar och hur den hjälper agenter att svara mer effektivt på kunder?
Vår känslighetsanalys upptäcker sju olika känslor, från extrem frustration till eufori, vilket möjliggör för oss att mäta varierande grader av känslor som bidrar till vår totala känslighetspoäng. Denna analys tar hänsyn till både de talade orden och tonen i samtalet. Men vi har funnit genom våra experiment att de talade orden spelar en mycket större roll än tonen. Du kan säga de elakaste sakerna i en platt ton eller mycket trevliga saker i en konstig ton.
Vi tillhandahåller en känslighetspoäng på en skala från 1 till 10, där 1 indikerar mycket negativ känslighet och 10 indikerar en mycket positiv känslighet. Vi analyserar 100% av våra kunders samtal, och erbjuder en djup insikt i kundinteraktioner.
Kontextuell förståelse är också avgörande. Till exempel, om ett samtal börjar med mycket negativ känslighet men slutar positivt, även om 80% av samtalet var negativt, anses den totala interaktionen vara positiv. Detta beror på att kunden började arg, representanten löste problemet, och kunden lämnade nöjd. Å andra sidan, om samtalet börjar positivt men slutar negativt, är det en annan historia, trots att 80% av samtalet kan ha varit positivt.
Denna analys hjälper både representanten och chefen att identifiera områden för utbildning, fokusera på åtgärder som korrelerar med positiv känslighet, som att hälsa på kunden, erkänna deras problem och visa empati – element som är avgörande för framgångsrika interaktioner.
Hur åtgärdar Level AI dataskydds- och säkerhetsproblem, särskilt med tanke på den känsliga naturen av kundinteraktioner?
Från dag ett har vi prioriterat säkerhet och dataskydd. Vi har byggt vårt system med företagsnivåsäkerhet och dataskydd som kärnprinciper. Vi outsourcar inte någon av våra generativa AI-funktioner till tredjepartsleverantörer. Allt utvecklas internt, vilket möjliggör för oss att utbilda kundspecifika AI-modeller utan att dela data utanför vår miljö. Vi erbjuder också omfattande anpassning, vilket möjliggör för kunder att ha sina egna AI-modeller utan att dela data över olika delar av vår datapipeline.
För att åtgärda en aktuell branschfråga, används vår data inte av externa modeller för utbildning. Vi tillåter inte att våra modeller påverkas av AI-genererad data från andra källor. Detta tillvägagångssätt förhindrar de problem som vissa AI-modeller står inför, där de tränas på AI-genererad data och förlorar därmed noggrannhet. Hos Level AI är allt första parts och vi delar inte eller hämtar data externt.
Med den nyliga 39,4 miljoner dollar i serie C-finansiering, vad är era planer för att expandera Level AI:s plattform och nå nya kundsegment?
Serie C-investeringen kommer att driva vår strategiska tillväxt och innovationsinitiativ i kritiska områden, inklusive att förbättra produktutveckling, förbättra teknik och rigorösa forsknings- och utvecklingsinsatser. Vi syftar till att rekrytera toppklassens talanger på alla nivåer i organisationen, vilket möjliggör för oss att fortsätta att bana väg för branschledande tekniker som överträffar kundförväntningar och möter dynamiska marknadsbehov.
Hur ser du på AI:s roll i att transformera kundservice under de kommande tio åren?
Medan den allmänna fokuseringen ofta är på automatiseringsaspekten – förutsägande en framtid där botar hanterar all kundservice – är vår syn mer nyanserad. Omfattningen av automatisering varierar beroende på vertikal. Till exempel kan automatisering i bank eller finans vara lägre, medan den i andra sektorer kan vara högre. I genomsnitt tror vi att det är utmanande att uppnå mer än 40% automatisering över alla vertikaler. Detta beror på att servicerepresentanter gör mer än att bara svara på frågor – de fungerar som felsökare, försäljningsrådgivare och mer, roller som inte kan replikeras fullständigt av AI.
Det finns också en betydande potential i arbetsflödesautomatisering, som Level AI fokuserar på. Detta inkluderar bakkontorsuppgifter som kvalitetskontroll, biljetttriage och skärmtittning. Här kan automatisering överstiga 80% med hjälp av generativ AI. Intelligens och datainsikter är avgörande. Vi är unika i att använda generativ AI för att få insikter från ostrukturerad data. Detta tillvägagångssätt kan väsentligt förbättra kvaliteten på insikterna, minska behovet av professionella tjänster med 90% och accelerera tiden till värde med 90%.
En annan viktig aspekt är om ansiktet på din organisation ska vara en bot eller en person. Utöver de grundläggande funktioner de utför, är en mänsklig koppling till dina kunder avgörande. Vår strategi är att ta bort de överflödiga uppgifterna från en persons arbetsbörda, vilket möjliggör för dem att fokusera på meningsfulla interaktioner.
Vi tror att människor är bäst lämpade för direkt kommunikation och bör fortsätta att vara i den rollen. Men de är inte idealiska för uppgifter som anteckningar, transkription av interaktioner eller skärminspelning. Genom att hantera dessa uppgifter för dem, frigör vi deras tid att engagera sig med kunder mer effektivt.
Tack för den utmärkta intervjun, läsare som vill lära sig mer bör besöka Level AI.












