Intervjuer
Mike Clifton, Co-CEO i Alorica – Intervju-serie

Mike Clifton er Co-CEO i Alorica, en global leder i digitalt drevne kundeopplevelser (CX). I denne rollen overvåker Mike selskapets strategi for digital transformasjon – inkludert deres prisbelønnede AI-produkter – for å levere optimal CX over kanaler (stemme, chat, nett osv.) og bransjer på vegne av FORTUNE 500-merker. Med sterk ekspertise og erfaring i digital innovasjon, AI og bedriftsteknologi, har Mike en dokumentert rekord for å drive lønnsom vekst ved å integrere skalerbare teknologiløsninger for å møte markedets krav.
Alorica er en global leder i kundeopplevelse og forretningsprosesser, og tilbyr teknologibaserte, menneskesenterte løsninger for bransjer som bank, helse, detaljhandel og telekommunikasjon. Med over 100 000 ansatte i over 17 land, håndterer selskapet milliarder av interaksjoner årlig på over 75 språk, og tilbyr tjenester som kontaktssentere, analyse, AI-løsninger, innholdsmoderering og bakkontor-operasjoner – alt med fokus på å drive målbare resultater for kundene.
Bransjen beveger seg mot augmentering i stedet for automatisering – hvordan reflekterer Aloricas strategi denne hybride modellen?
Aloricas strategi reflekterer den hybride modellen for augmentering i stedet for automatisering, ved å fokusere på å forbedre menneskelige agenters ytelse med AI-verktøy, i stedet for å erstatte dem. Dette sikrer at mennesker forblir i kjernen av kundeinteraksjoner, støttet av avanserte teknologier for å forbedre effisiens og effektivitet.
For eksempel har Alorica lansert flere avanserte løsninger som evoAI, Knowledge IQ, Digital Trust & Safety Model og CX2GO®. Disse verktøyene er designet for å forbedre menneskelige agenters ytelse ved å tilby sanntids-, kontekstbevisste interaksjoner som forbedrer kunnskapsforvaltning og sikrer digital tillit og sikkerhet.
Ved å integrere AI-verktøy som tilbyr emosjonelt intelligente og kontekstbevisste interaksjoner på flere språk med under-sekunds responstid, muliggjør Alorica at agenter kan tilby personlig og effektiv støtte til kunder. Dette sanntidsresponsen oversettes til forbedrede kunderesultater.
I alt understreker Aloricas strategi viktigheten av menneskelige agenter, samtidig som det utnytter AI til å forbedre deres evner, og reflekterer bransjens skifte mot augmentering i stedet for automatisering.
Kan du dele spesifikke eksempler der AI har forbedret menneskelige agenters ytelse i stedet for å erstatte dem?
Det finnes mange eksempler på forbedring som vi har utnyttet i leveransen av våre tjenester. Et eksempel er evnen til at agenter kan interagere med en kunnskapsmotor som lytter til sanntids-tale og oversetter det til en auto-svar-motor som ber om assistanse; dette er et kraftig, forebyggende verktøy som vi har brukt i mange løsninger. Et annet eksempel er bruk av konversasjons-AI-motorer for å forbedre vår evne til å trene agenter på de mest vanskelige kundescenariene. Ved å kjøre AI-drevne simuleringer av sanntidsinteraksjoner, reduserer vi stress, og modellene lærer kontinuerlig – oppdaterer agenter om sentiment og empati ettersom de får mer erfaring.
Hvordan sporer du effekten av disse AI-verktøyene – for eksempel i First Contact Resolution, håndteringstid eller agent-effektivitet?
Sporing av AI-verktøy i augmentert bruk faller rett og slett på målene som er tildelt agenten, som om ingen verktøy eksisterte. Forskjellen ligger i evnen til å ta på seg flere oppkall med høyere tilfredshetsutbytte og tillit til å forutsi bedre arbeidskraft-strategier når du har solide data fra modellene.
Du har lansert flere avanserte løsninger i år – evoAI, Knowledge IQ, Digital Trust & Safety Model og CX2GO®. Hvilken en ser du som har den mest umiddelbare “superkraft”-effekten for agenter, og hvorfor?
Vår interne bruk av evoAI gir agentene mulighet til å utnytte mock-oppkall for å trene med en høyere grad av situasjonsbevissthet, og leverer den største effekten. Dette følges av Knowledge IQ, som forbedrer agentens evne til å finne riktig svar. Disse to har vært spillendringere for våre ansatte, og har fullstendig endret hvordan våre agenter kan håndtere kundenes behov raskt og nøyaktig.
Fra et maskinlæring-perspektiv, hvordan er dine modeller trent for å opprettholde nøyaktighet og tilpasning når kundens behov, språk og markedets forhold utvikler seg?
For å opprettholde nøyaktighet og tilpasning i møte med utvikling av kundens behov, språk og markedets forhold, gjennomgår våre maskinlæringsmodeller kontinuerlig opplæring og finjustering.
Her er noen nøkkelstrategier vi bruker:
- Kontinuerlig læring: Våre modeller er designet for å lære fra nye data kontinuerlig. Dette innebærer å oppdatere treningssammenstillingene med nyeste interaksjoner, tilbakemeldinger og markedstrender. Ved å inkorporere den nyeste informasjonen, kan våre modeller tilpasse seg endringer i kundens preferanser og nye markedstrender.
- Mangfoldige datakilder: Vi bruker en rekke datakilder for å trene våre modeller, inkludert kundeinteraksjoner, sosiale medier, markedsrapporter og mer. Dette mangfoldet sikrer at våre modeller er eksponert for ulike scenarier og lingvistiske nyanser, og forbedrer deres evne til å forstå og svare nøyaktig.
- Tilbakemeldingsløkker: Vi implementerer robuste tilbakemeldingsløkker hvor kundeinteraksjoner og agent-innputt brukes til å finjustere modellene. Denne sanntidstilbakemeldingen hjelper med å identifisere og korrigere uakkurater så modellene forblir relevante og effektive.
- Flerspråklige evner: Våre modeller er trent på flerspråklige sammenstillinger for å håndtere interaksjoner på flere språk. Dette er avgjørende for å levere nøyaktige, lokaliserede og kontekstbevisste svar til en global kundebase.
- Regelmessige auditor og evalueringer: Vi gjennomfører regelmessige auditor og evalueringer av våre modeller for å vurdere deres ytelse. Dette inkluderer testing av modellene mot benchmark-sammenstillinger og sanntids-scenarier for å sikre at de møter nøyaktighets- og tilpasningsstandarder.
- Menneske-i-løkken: Vi opprettholder en menneske-i-løkken-tilnærming hvor menneskelige agenter samarbeider med AI for å håndtere komplekse spørsmål. Denne hybridmodellen sikrer at teknologien lærer fra menneskelig ekspertise og forbedrer sin ytelse over tid.
- Utnytting av mindre språkmodeller: Trening av vertikalt orienterte mindre modeller (via en hybrid eller ensemble-tilnærming) sammen med kommersielt tilgjengelige LLM-er, tillater effektiviteter i beregning, søk og responstid, samt forkorter bias- og rettferdighetstest-sykluser.
Disse strategiene muliggjør at våre maskinlæringsmodeller forblir nøyaktige, tilpassende og i stand til å levere høykvalitets kundeopplevelser i dynamiske miljøer.
evoAI tilbyr emosjonelt intelligente, kontekstbevisste interaksjoner på over 120 språk med under-sekunds responstid. Hvordan oversettes denne sanntidsresponsen til agent-støtte og kunde-resultater?
evoAI gir bedre agent-støtte og forbedrede kunde-resultater på flere måter:
- Ytelse: Kontekstbevisste interaksjoner hjelper med å finne og sortere store mengder informasjon raskt for agent-spørsmål.
- Personliggjøring: Tilbyr flerspråklig tilpasning, og gir friheten til å velge inndata- og utdataspråk i sanntid for enhver prompt. For eksempel, en kunde som ber om en respons på fransk så en eldre forelder som lytter, kan forstå.
- Effektivitet: Reduserer responstid og eliminerer ofte behovet for en menneskelig å svare.
- Emosjonell intelligens: Muliggjør at agenter kan justere alternativer for ringere basert på situasjonsbevissthet (tone, humør og ordvalg), og tillater raskere de-eskalering.
Med agenterende AI som vinner terreng, hvordan håndterer du risikoer som hallucinasjoner, bias eller tap av kontroll, samtidig som du sikrer at agenter forblir beslutningstakerne?
På Alorica tror vi at riktig arkitektur bak teknologien gjør all forskjell. Derfor krever håndtering av risikoer forbundet med agenterende AI en flerlaget styre- og kontrollramme som vi har bygget inn i alle nivåer av våre AI-operasjoner.
Her er hvordan vi håndterer hver kritisk risiko:
- Hallusinasjonsreduksjon: Vi bruker en tre-lags verifiseringssystem for å minimere hallucinasjoner. Først bruker våre modeller en genereringsmetode som baserer seg på verifiserte kunnskapsbaserte kilder og sanntidsdatakilder, og reduserer sannsynligheten for fabrikkert informasjon med 85%. For det andre implementerer vi konfidensscoringer på alle AI-genererte forslag, hvor svar under en 80% konfidensnivå utløser automatisk menneskelig gjennomgang. For det tredje er våre modeller begrenset til å operere innenfor definerte parameterområder som er spesifikke for hver kundes forretningsregler og faktiske domener – AI-en kan ikke generere informasjon om produkter, politikker eller prosedyrer som ikke er eksplisitt dokumentert i treningsdataene.
- Bias-avdekning og -forebygging: Vår bias-håndteringstrategi opererer over hele AI-livssyklusen. Under modell-trening bruker vi motstridende debias-teknikker og rettferdighetssensitive læringsalgoritmer som aktivt motarbeider historiske bias i treningsdata. Vi opprettholder demografisk likhet-mål over beskyttede kategorier og gjennomfører månedlige auditor og vurderinger med hjelp av verktøy som rettferdighetindikatorer og urettferdig påvirkningsvurderinger. Våre modeller gjennomgår testing med syntetisk data designet for å avsløre bias over ulike demografiske grupper, språk og kulturelle sammenhenger. Når bias blir oppdaget, bruker vi målrettet om-trening på balanserte sammenstillinger og justerer modell-vekt for å sikre like resultater. Viktigst, opprettholder vi gjennomsiktighet-rapporter som sporer bias-mål over tid, og lar kundene se nøyaktig hvordan våre modeller oppfører seg over ulike befolkninger.
- Opprettholdelse av menneskelig kontroll: Menneskelige agenter forblir de ultimate beslutningstakerne gjennom vår “AI som rådgiver”-arkitektur. AI-systemet tilbyr anbefalinger med forklaringsfunksjoner – agenter kan se hvorfor AI foreslo en bestemt handling, hva faktorer det vurderte, og hva alternativer finnes. Vi har implementert harde stopp hvor AI ikke kan autonome utføre bestemte handlinger: finansielle transaksjoner, kontraktendringer, juridiske forpliktelser eller helse-relatert råd krever alltid menneskelig autorisasjon. Våre eskalasjonsprotokoller routerer automatisk komplekse eller høyrisiko-scenarier til senioragenter eller ledere når AI detekterer situasjoner utenfor sin kompetansegrenser.
- Kontinuerlig overvåking og “kill switches”: Hver AI-interaksjon logges og overvåkes gjennom vår Model Performance Observatory, som sporer avvik fra forventede atferd i sanntid. Vi opprettholder øyeblikkelig tilbakestillings-evner og “kill switches” på flere nivåer – enkeltmodellkomponenter, hele modeller eller systemomfattende AI-funksjoner kan deaktiveres innen sekunder hvis anomalt atferd detekteres. Våre driftsdeteksjonsalgoritmer sammenligner kontinuerlig modell-utdata med menneskelig ekspert-beslutninger, og flagger avvik for umiddelbar gjennomgang.
- Menneske-i-løkken-validering: Vi har designet tilbakemeldingsløkker hvor agenter vurderer AI-forslag etter hver interaksjon, og skaper en kontinuerlig læringsprosess som tilpasser seg menneskelig ekspertise. Våre beste agenter deltar i ukentlige kalibreringsøkter hvor de gjennomgår rand-scenarier og hjelper med å finjustere AI-avgrensningene. Dette skaper en samarbeidsintelligensmodell hvor menneskelig dømmekraft kontinuerlig former og begrenser AI-atferd.
- Ansvar og auditor-spor: Hver AI-påvirkede beslutning opprettholder en fullstendig auditor-spor som viser AI-anbefalingen, konfidensnivå, datakilder brukt, og den menneskelige agentens endelige beslutning. Dette sikrer ansvar og lar oss kontinuerlig forbedre våre modeller basert på resultater. Regelmessige tredjeparts-auditor validerer våre risikohåndtering-praksiser mot bransjestandarder og regulatoriske krav.
Ved å implementere disse omfattende sikkerhetstiltakene, sikrer vi at våre agenterende AI-systemer forbedrer menneskelige evner samtidig som de opprettholder menneskelig agentur, etiske standarder og operativ kontroll.
Hvordan nærmer du deg modell-omtrening og kontinuerlig læring for å sikre at dine AI-systemer forblir i tråd med både compliance-krav og nyanser i kunde-sentiment?
Aloricas tilnærming til modell-omtrening og kontinuerlig læring på Alorica IQ er bygget på en robust MLOps-ramme som balanserer regulatoriske krav med kundeopplevelse-optimisering.
Vi har implementert en flerlaget om-trening-arkitektur som opererer på ulike kadenser. Våre compliance-kritiske modeller gjennomgår daglige driftsdeteksjoner og ukentlige ytelsesauditor, med automatiske utløsere for umiddelbar om-trening når regulatoriske endringer skjer. For kunde-sentiment-modeller, utnytter vi sanntids-tilbakemeldingsløkker som fanger agent-korrigeringer og kunde-tilfredshetspoeng, og føder disse inn i vår treningspipeline hver 72. time.
Vår egen Compliance Intelligence Layer fungerer som en sikkerhetsbarriere, og validerer automatisk modell-utdata mot regulatoriske rammer spesifikke for hver geografi – fra GDPR i Europa til CCPA i California. Denne laget oppdateres kontinuerlig gjennom vårt samarbeid med juridiske teknologileverandører og regulatoriske datastrømmer, og sikrer at våre AI-systemer forblir i tråd med regulatoriske krav uten manuell inngripen.
For å håndtere nyanser i kunde-sentiment, har vi utviklet hva vi kaller “kulturelle kontekst-embedding” innenfor Alorica IQ. Disse er finjusterte regionale modeller som forstår ikke bare språk, men også kulturelle kommunikasjonsmønster. For eksempel, våre modeller gjenkjenner at direkthet-nivåer varierer betydelig mellom tyske og japanske kundeinteraksjoner, og justerer sine sentiment-scoring-tilnærminger deretter.
Vi opprettholder versjonerte modell-registre med fullstendig tilbakestillings-evne, og lar oss øyeblikkelig gå tilbake til tidligere versjoner hvis ny trening introduserer uventede atferd. Vår A/B-test-ramme kjører kontinuerlig, sammenligner nye modellversjoner mot produksjonsbaseliner over tusenvis av interaksjoner før full deploy.
Viktigst, har vi etablert en Menneskelig Tilbakemeldings-integreringsprotokoll hvor våre beste agenter regelmessig gjennomgår rand-scenarier og tilbyr korrektive tilbakemeldinger, og skaper en dydig læringssyklus hvor menneskelig ekspertise kontinuerlig forbedrer våre AI-evner. Denne tilnærmingen har redusert compliance-brudd med 94% samtidig som den har forbedret sentiment-deteksjonsnøyaktigheten til 92% på alle støttede språk.
Med rask internasjonal utvidelse – spesielt i markeder som India, Egypt og EMEA – hvordan tilpasser du din AI-menneske-tilnærming til diverse språklige og kulturelle behov?
Vi tror at lokaliseringsarbeid ikke bare handler om å snakke språket – det handler om å reflektere kulturen.
Våre AI-plattformer som evoAI og ReVoLT er tilpasset for å fange tone, nuanser og kontekst på hundrevis av språk og dialekter, så interaksjoner føles familiære og autentiske. Men vi stopper ikke ved teknologien. Vi rekrutterer talent fra hver region, trener team om kulturelle forventninger, og tilpasser vår tjenestedesign for å reflektere lokale normer. Denne hybridmodellen sikrer at hver interaksjon føles som den er bygget for det markedet.
I India, hvor vi støtter 75 offisielle språk pluss mange dialekter, har vi deployert vår Lingvistisk Mesh-arkitektur som ikke bare oversetter, men også opprettholder kontekst over kode-ombytnings-scenarier – hvor kunder naturlig blandes Hindi, Engelsk og regionale språk i samme samtale. Våre modeller er trent på faktiske samtale-mønster fra tier-2 og tier-3 byer, og ikke bare metropolitan-områder, og sikrer at vi fanger hele spekteret av kommunikasjonsstiler.
For våre Egypt-operasjoner som betjener det bredere MENA-området, har vi utviklet arabisk-dialekt-spesifikke modeller som skille mellom egyptisk arabisk, Gulf-arabisk og levantinsk arabisk, med spesialisert håndtering for formell (Fusha) versus uformell (Ammiya) register. Våre AI-modeller forstår når en kunde skifter fra formell til uformell arabisk som en emosjonal cue, og utløser rask de-eskalering.
I EMEA-markeder har vi implementert hva vi kaller “Regulatorisk Først AI-Design”. Hver lands deployering inkluderer forhånds-konfigurerte compliance-moduler – fra Tysklands strenge data-lokaliseringskrav til Frankrikes språkbeskyttelseslover som krever fransk-forste grensesnitt. Våre modeller er trent ikke bare på språk, men også på lokal forretnings-etikette; for eksempel, vår tyske deployering understreker presisjon og detaljert dokumentasjon, mens vår italienske modell tillater mer konversasjons-fleksibilitet.
Den tekniske ryggraden er vår Federated Learning-ramme innen Alorica IQ, hvor lokale modeller lærer fra regionale data uten at dataene forlater landet, og sikrer data-suverenitet samtidig som vi nyter godt av globale modell-forbedringer. Vi opprettholder regionale GPU-kluster for å sikre under-100ms latency for sanntids agent-støtte.
Vår Kulturell Intelligens-Team, bestående av lingvistiske eksperter og atferdsforskere fra hver region, kontinuerlig validerer våre AI-utdata. De har hjulpet oss med å identifisere over 3 000 kultur-spesifikke scenarier som krever spesial-håndtering – fra religiøse observanser som påvirker tjenestetilgjengelighet til lokale betalingspreferanser som påvirker samtale-fløt.
Denne tilnærmingen har gitt imponerende resultater: våre India-operasjoner viser 40% høyere CSAT-poeng når vi bruker kultur-tilpassede AI-modeller sammenlignet med generiske modeller, og våre EMEA-deployeringer har oppnådd 98% first-contact resolution-rater for språk-spesifikke spørsmål.
Hvordan bidrar evoAIs evne til å gjenkjenne og tilpasse regionale dialekter og emosjonelle signaler til å drive adopsjon i nye markeder?
Adopsjon akselererer når mennesker føler at teknologien “forstår” dem. evoAI går ut over ord-for-ord-oversettelse ved å forstå slang, aksent og selv emosjonell tone i sanntid.
evoAIs sofistikerte dialekt- og emosjons-gjenkjennings-evner har blitt vår primære konkurransefordel i ny markeds-penetrering, og adresseer direkte tillitsgapet som ofte hemmer AI-adopsjon i nye markeder.
Fra et teknisk perspektiv, bruker evoAI vår egen Akustisk-Lingvistisk Fusjonsmodell, som samtidig prosesserer fonetiske mønster, prosodiske egenskaper og semantisk innhold. Denne tri-modale tilnærmingen lar oss detektere subtile emosjonelle tilstander som uttrykkes forskjelligt over kulturer. For eksempel, i japanske markeder, kan vi detektere “honne” versus “tatemae” (sanntro versus offentlig fasade) gjennom mikro-variabler i tone og talehastighet, mens i Midtøsten-markeder kan vi gjenkjenne ære-skam-dynamikk gjennom bestemte frase-konstruksjoner og betoningsmønster.
Vår dialekt-gjenkjennings-evne går ut over enkel aksent-deteksjon. evoAI opprettholder dynamiske dialekt-kart som forstår socio-økonomiske indikatorer innbygget i tale-mønster. I India, hvor vi støtter 75 offisielle språk pluss mange dialekter, har vi deployert vår Lingvistisk Mesh-arkitektur som ikke bare oversetter, men også opprettholder kontekst over kode-ombytnings-scenarier – hvor kunder naturlig blandes Hindi, Engelsk og regionale språk i samme samtale. Våre modeller er trent på faktiske samtale-mønster fra tier-2 og tier-3 byer, og ikke bare metropolitan-områder, og sikrer at vi fanger hele spekteret av kommunikasjonsstiler.
For våre Egypt-operasjoner som betjener det bredere MENA-området, har vi utviklet arabisk-dialekt-spesifikke modeller som skille mellom egyptisk arabisk, Gulf-arabisk og levantinsk arabisk, med spesialisert håndtering for formell (Fusha) versus uformell (Ammiya) register. Våre AI-modeller forstår når en kunde skifter fra formell til uformell arabisk som en emosjonal cue, og utløser rask de-eskalering.
I EMEA-markeder har vi implementert hva vi kaller “Regulatorisk Først AI-Design”. Hver lands deployering inkluderer forhånds-konfigurerte compliance-moduler – fra Tysklands strenge data-lokaliseringskrav til Frankrikes språkbeskyttelseslover som krever fransk-forste grensesnitt. Våre modeller er trent ikke bare på språk, men også på lokal forretnings-etikette; for eksempel, vår tyske deployering understreker presisjon og detaljert dokumentasjon, mens vår italienske modell tillater mer konversasjons-fleksibilitet.
Den tekniske ryggraden er vår Federated Learning-ramme innen Alorica IQ, hvor lokale modeller lærer fra regionale data uten at dataene forlater landet, og sikrer data-suverenitet samtidig som vi nyter godt av globale modell-forbedringer. Vi opprettholder regionale GPU-kluster for å sikre under-100ms latency for sanntids agent-støtte.
Vår Kulturell Intelligens-Team, bestående av lingvistiske eksperter og atferdsforskere fra hver region, kontinuerlig validerer våre AI-utdata. De har hjulpet oss med å identifisere over 3 000 kultur-spesifikke scenarier som krever spesial-håndtering – fra religiøse observanser som påvirker tjenestetilgjengelighet til lokale betalingspreferanser som påvirker samtale-fløt.
Denne tilnærmingen har gitt imponerende resultater: våre India-operasjoner viser 40% høyere CSAT-poeng når vi bruker kultur-tilpassede AI-modeller sammenlignet med generiske modeller, og våre EMEA-deployeringer har oppnådd 98% first-contact resolution-rater for språk-spesifikke spørsmål.
Ser du forbi 2025, hva ser du som den neste frontieren for menneske-sentrert AI i CX?
Den neste frontieren er konvergeringen av konversasjons-AI, agenterende AI og neurale nettverk for å orkestrere en høyere nivå av resultater som tidligere ikke var tenkt. Dette vil redesigne hvordan vi driver forretning. Orkestreringen er ikke lenger menneske-til-maskin; det er maskin-til-maskin eller maskin-til-tusenvis av maskiner samtidig.
Tenk deg at du planlegger en forretningsreise: besøker en nettside for å velge flyselskap, deretter bestiller et hotell, arrangerer transport, planlegger middag og planlegger returen. Dette er et enkelt eksempel på å prompte en gang og la integrerte boter – drevet av et neuralt nettverk – prosessere alle tilgjengelige alternativer og bygge en multi-valg-respons for deg å velge fra. I denne modellen er orkestreringen neural, den agenterende AI-motoren driver botene, og samtalen er svaret.
Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Alorica.












