Tankeledere
Når ‘Chatbot’ Er Et Skitord: 3 Misforståelser Forretningsledere Har Om Conversasjons-AI
Spredningen av LLMer som OpenAI’s ChatGPT, Meta’s Llama og Anthropic’s Claude har ført til en chatbot for hver anledning. Det finnes chatboter for karriereveiledning, chatboter som lar deg snakke med din fremtidige selv, og sogar en kyllingchatbot som gir matlagningsråd.
Men disse er ikke chatbotene fra for ti år siden – da var de begrenset til smalt forhåndsdefinerte, stive “samlinger”, ofte basert på et stort flytskjema med multiple valg eller ekvivalente svar. I essensen var de bare litt mer avanserte enn pre-internett IVR-telefonmenyer.
I dagens “chatboter” på den andre siden, henviser oftere til conversasjons-AI, et verktøy med mye bredere muligheter og bruksområder. Og fordi vi nå finner oss i midten av den generative AI-hype-syklusen, brukes alle tre av disse uttrykkene om hverandre. Uheldigvis, som en konsekvens, finnes det mange misforståelser rundt risiko, bruksområder og ROI ved å investere i conversasjons-AI blant forretningsledere, spesielt i høyt regulerte industrier som finansiell.
Så jeg ønsker å rette opp noen vanlige misforståelser rundt “chatboter”, når det vi faktisk diskuterer er conversasjons-AI.
Myte 1: Kunder Hater Chatboter
Forbrukerne har blitt spurt i det beste del av det siste tiåret om de foretrekker menneskelige agenter eller chatboter – som å spørre noen om de heller vil ha en profesjonell massasje eller sitte i en handlekjøemassagestol.
Men debuteringen av ChatGPT i 2022 (sammen med alle verktøyene som spunnet fra det) snudde vår oppfatning av en chatbots muligheter helt på hodet. Som nevnt ovenfor, opererte eldre chatboter på skript, slik at noen avvik fra deres forhåndsdefinerte stier ofte ledet til forvirring og ueffektive svar. Ute av stand til å forstå kontekst og brukerens intensjoner, var svarene ofte generiske og ueffektive, og de hadde begrenset evne til å samle, lagre og levere informasjon.
I motsetning til det, engasjerer conversasjons-AI mennesker i naturlige samtaler som speiler menneskelig tale, og lar for en mer flytende, intuitiv utveksling. Det demonstrerer bemerkelsesverdig fleksibilitet og tilpasning til uventede resultater. Det er i stand til å forstå konteksten rundt brukerens intensjoner, detektere følelser og svare medfølende.
Dette dypere nivået av forståelse muliggjør at dagens AI effektivt kan navigere brukerne ned logiske stier mot deres mål. Det inkluderer å håndtere kunder raskt over til menneskelige assistenter når det er nødvendig. I tillegg bruker conversasjons-AI avanserte informasjonsfilter, gjenvinningsmekanismer og evnen til å beholde relevant data, noe som betydelig forbedrer deres problemløsningsevner, og som gir en bedre brukeropplevelse.
Så, det er ikke at kunder blindt hater chatboter, hva de hater er dårlig service, som tidligere versjoner av chatboter definitivt var skyldig i å levere. Dagens conversasjonsagenter er så mye mer avanserte at over en fjerdedel av forbrukerne ikke føler seg trygge i deres evne til å skille mellom menneskelige og AI-agenter, og noen sogar oppfatter AI-chatboter som bedre på utvalgte oppgaver enn deres menneskelige motparter.
I testpiloter har mitt selskap sett AI-agenter tredoble lead-omvandlingsrater, noe som er et ganske kraftig indikasjon på at det ikke handler om hvorvidt det er en bot eller ikke – det handler om kvaliteten på jobben som blir gjort.
Myte 2: Chatboter Er For Risikable
I diskusjoner med forretningsledere om AI, oppstår ofte bekymringer rundt hallucinasjoner, datavern og bias som potensielt kan føre til regulative overtredelser. Selv om legitime risiko, kan de alle bli minimert gjennom noen forskjellige tilnærminger: finjustering, Retrieval-Augmented Generation (RAG) og prompt-engineering.
Selv om det ikke er tilgjengelig på alle LLMer, kan finjustering spesialisere en forhåndsdefinert modell for en bestemt oppgave eller domene, noe som resulterer i AI bedre egnet til bestemte behov. For eksempel kunne et helsevesen finjustere en modell for å bedre forstå og svare på medisinske spørsmål.
RAG forbedrer chatbot-nøyaktigheten ved å dynamisk integrere eksterne kunnskaper. Dette lar chatboten hente oppdatert informasjon fra eksterne databaser. For eksempel kunne en finansiell tjenestechatbot bruke RAG til å gi sanntids-svar om aksjepriser.
Til slutt optimaliserer prompt-engineering LLMer ved å lage promter som guider chatboten til å produsere mer nøyaktige eller kontekst-bevisste svar. For eksempel kunne en e-handelsplattform bruke tilpassede promter til å hjelpe chatboten med å gi personlige produktanbefalinger basert på kundepreferanser og søkehistorikk.
I tillegg til å bruke en eller flere av disse tilnærminger, kan du også kontrollere en conversasjons-AI’s kreativitet “temperatur” for å hjelpe med å forebygge hallucinasjoner. Å sette en lavere temperatur i API-oppkallene begrenser AI til å gi mer deterministiske og konsistente svar, spesielt når det kombineres med en kunnskapsbase som sikrer at AI trekker fra spesifiserte, pålitelige datasett. For å ytterligere minimere risiko, unngå å deployere AI i beslutningstakende roller hvor bias eller feilinformasjon kunne føre til juridiske problemer.
Vedrørende datavern, sikre at eksterne AI-leverandører overholder reguleringer, eller deployere åpne modeller på egen infrastruktur for å beholde full kontroll over dine data, essensielt for GDPR-overholdelse.
Til slutt er det alltid klokt å investere i profesjonell ansvarsforsikring som kan tilby ytterligere beskyttelse, dekkende bedrifter i usannsynlige scenarier som forsøk på rettslige søksmål. Gjennom disse tiltakene kan bedrifter trygt utnytte AI samtidig som de opprettholder merkevare- og kundesikkerhet.
Myte 3: Chatboter Er Ikke Klare For Komplekse Oppgaver
Etter å ha sett problemene store teknologiselskaper har med å deployere AI-verktøy, kan det føles naivt å tro at et SME ville ha det lettere. Men AI er nå på et stadium hvor uttrykket “jack of all trades and master of none” ikke er særlig urimelig. Dette skyldes hovedsakelig at disse verktøyene blir bedt om å utføre for mange forskjellige oppgaver over miljøer som ikke er designet for effektiv AI-deployering. Med andre ord, det er ikke at de ikke er i stand til det, det er at de blir bedt om å figur-skøyte på en dam med tynn, sprukket is.
For eksempel vil organisasjoner med siloede og/eller uorganiserte data være mer utsatt for at AI kommer med foreldede, uriktige eller motstridende informasjon. Ironisk nok er dette en konsekvens av deres kompleksitet! Mens eldre chatboter bare regurgiterte grunnleggende informasjon på en lineær måte, kan conversasjons-AI analysere robuste datasett, vurdere flere påvirkende faktorer på en gang for å kartlegge den mest passende vei fremover.
Derfor er suksess med conversasjons-AI avhengig av strenge parametre og ekstremt klare grenser med hensyn til datasources og oppgaver. Med riktig opplæringsdata og ekspertutformete promter, kan funksjonaliteten til conversasjons-AI utvides langt utenfor omfanget av en enkel chatbot. For eksempel kan det samle og filtrere data fra kundesamtaler og bruke det til å automatisk oppdatere en CRM. Dette strømlinjeformer ikke bare administrative oppgaver, men sikrer også at kundeinformasjonen alltid er nøyaktig og oppdatert. Ved å automatisere slike oppgaver, kan bedrifter fokusere mer på strategiske aktiviteter enn administrative byrder.
Hvis vi skal fortsette å bruke uttrykket “chatbot”, er det avgjørende at vi skiller mellom plattformer som inkorporerer fremtredende conversasjons-AI, og de som fremdeles tilbyr de begrensede verktøyene fra i går. På samme måte som at ordet “telefon” i dag oftere fremkaller bildet av en berøringsskjemskjerm enn en spiral-koblede landlinje, tror jeg vi ikke er langt ifra “chatbot” blir erstattet av ideen om avanserte AI-agenter snarere enn klønete multiple-valg-ikoner.












