Tankeledere
Når ‘Chatbot’ Er Et Beskidt Ord: 3 Misforståelser Forretningsledere Har Om Conversational AI
Udbredelsen af LLM’er som OpenAI’s ChatGPT, Meta’s Llama og Anthropic’s Claude har ført til en chatbot til enhver lejlighed. Der er chatbots til karrierevejledning, chatbots der tillader dig at tale med din fremtidige jeg, og endda en kyllingechatbot der giver madlavningstip.
Men disse er ikke chatbot’erne fra for ti år siden – dengang var de begrænsede til snævert forudindstillede, stive “samtal”, ofte baseret på et stort flow chart med multiple valg eller tilsvarende svar. I virkeligheden var de kun lidt mere avancerede end pre-internet IVR-telefonmenuer.
I dag er “chatbot’erne” oftere henvisning til conversational AI, et værktøj med langt bredere muligheder og anvendelsesområder. Og fordi vi nu befinder os midt i den generative AI-hype-cyklus, bliver alle disse termer brugt om hverandre. Desværre er der som følge heraf mange misforståelser omkring risici, anvendelsesområder og ROI ved at investere i conversational AI blandt forretningsledere, især i højt regulerede brancher som finansielle tjenester.
Så jeg vil gerne rette op på nogle almindelige misforståelser om “chatbot’erne”, når vi i virkeligheden diskuterer conversational AI.
Myte 1: Kunder Hadder Chatbot’erne
Forbrugere er blevet spurgt i det bedste del af det sidste årti, om de foretrer menneskelige agenter eller chatbot’erne – hvilket er som at spørge, om de hellere vil have en professionel massage eller sidde i en indkøbscenters massagestol.
Men debuten af ChatGPT i 2022 (sammen med alle værktøjerne, der udvikledes herefter) vendte vores opfattelse af en chatbots muligheder helt på hovedet. Som nævnt ovenfor, fungerede de ældre chatbot’erne på manuskripter, så enhver afvigelse fra deres fastlagte baner ofte førte til forvirring og ineffektive svar. Ude af stand til at forstå kontekst og brugerens hensigt, var svarene ofte generiske og ikke hjælpsomme, og de havde begrænset evne til at indsamle, gemme og levere information.
I modsætning hertil engagerer conversational AI mennesker i naturlige samtaler, der spejler menneskeligt sprog, og tillader en mere flydende, intuitiv udveksling. Det demonstrerer bemærkelsesværdig fleksibilitet og tilpasningsevne til uventede resultater. Det kan forstå konteksten omkring brugerens hensigt, detektere følelser og reagere medfølende.
Denne dybere niveau af forståelse gør, at i dagens AI kan effektivt guide brugere ned ad logiske baner mod deres mål. Det inkluderer hurtigt at overdrage kunderne til menneskelige assistenter, når det er nødvendigt. Desuden bruger conversational AI avancerede informationsfilter, udvindingsmekanismer og evnen til at fastholde relevant data, hvilket betydeligt forbedrer deres problemløsningsfærdigheder, og det giver en bedre brugeroplevelse.
Så det er ikke, at kunderne hadder chatbot’erne blindt, hvad de hadder, er dårlig service, som de tidligere versioner af chatbot’erne bestemt var skyld i at levere. I dag er conversational agent’erne så meget mere avancerede, at over en fjerdedel af forbrugerne ikke føler sig sikre på deres evne til at skelne mellem menneskelige og AI-agenter, og nogle opfatter AI-chatbot’erne som bedre til udvalgte opgaver end deres menneskelige modparter.
I testpiloter har mit selskab set AI-agenter tredoble leads-konverteringsrater, hvilket er et ret kraftfuldt tegn på, at det ikke handler om, hvorvidt det er en bot eller ej – det handler om kvaliteten af arbejdet.
Myte 2: Chatbot’erne Er For Risikable
I diskussioner med forretningsledere om AI, dukker bekymringer ofte op om hallucinationer, dataværn og bias, der potentielt kan føre til lovbrydelse. Selvom det er legitime risici, kan de alle afhjælpes gennem nogle forskellige tilgange: finjustering, Retrieval-Augmented Generation (RAG) og prompt-teknik.
Selvom det ikke er tilgængeligt på alle LLM’er, kan finjustering specialisere en forudtrænet model til en bestemt opgave eller domæne, hvilket resulterer i en AI, der er bedre egnet til bestemte behov. For eksempel kunne et sundhedsfirma finjustere en model til bedre at forstå og besvare medicinske spørgsmål.
RAG forbedrer chatbot-præcisionen ved dynamisk at integrere ekstern viden. Dette giver chatbot’en mulighed for at hente opdateret information fra eksterne databaser. For eksempel kunne en finansiel services chatbot bruge RAG til at give realtids-svar om aktiekurser.
Til sidst kan prompt-teknik optimere LLM’er ved at udforme prompts, der guider chatbot’en til at producere mere præcise eller kontekst-bevidste svar. For eksempel kunne en e-handelsplatform bruge tilpassede prompts til at hjælpe chatbot’en med at give personlige produktanbefalinger baseret på kundens præferencer og søgehistorik.
Ud over at bruge en eller flere af disse tilgange kan du også kontrollere en conversational AI’s kreativitets “temperatur” for at hjælpe med at forhindre hallucinationer. Ved at indstille en lavere temperatur i API-opkaldene begrænses AI’en til at give mere deterministiske og konsistente svar, især når det kombineres med en videnbas, der sikrer, at AI’en trækker fra specificerede, pålidelige datasæt. For yderligere at mindske risici bør du undgå at udrulle AI i beslutningstagende roller, hvor bias eller misinformations kan føre til juridiske problemer.
Med hensyn til dataværn skal du sikre, at eksterne AI-udbydere overholder reglerne, eller udrulle åbne modeller på din egen infrastruktur for at fastholde fuld kontrol over dine data, hvilket er afgørende for GDPR-overholdelse.
Til sidst er det altid klogt at investere i professionel ansvarsforsikring, der kan tilbyde yderligere beskyttelse og dække virksomheder i usandsynlige scenarier, såsom forsøg på retsforfølgning. Gennem disse foranstaltninger kan virksomhederne med tillid udnytte AI, samtidig med at de fastholder brand- og kundesikkerheden.
Myte 3: Chatbot’erne Er Ikke Klar Til Komplekse Opgaver
Efter at have set de problemer, store teknologivirksomheder har med at udrulle AI-værktøjer, kan det føles naivt at tro, at en SME ville have det lettere. Men AI er nu på et stadie, hvor udtrykket “jack of all trades and master of none” ikke er særlig urimeligt. Dette skyldes primært, at disse værktøjer bedes om at udføre for mange forskellige opgaver på tværs af miljøer, der endnu ikke er designet til effektiv AI-udrulning. Med andre ord, det er ikke, fordi de ikke er i stand til det, men fordi de bedes om at figurkøre på en sø, der er fuld af tynd, sprukket is.
For eksempel vil organisationer med siloede og/eller uorganiserede data være mere tilbøjelige til, at AI fremhæver forældede, uaktuelle eller modstridende informationer. Ironisk nok er dette en konsekvens af deres kompleksitet! Mens de ældre chatbot’erne blot gentog grundlæggende informationer på en lineær måde, kan conversational AI analysere robuste datasæt og overveje flere indflydelsesrige faktorer på én gang for at kortlægge den mest passende vej fremad.
Derfor er succes med conversational AI afhængig af strenge parametre og ekstremt klare grænser med hensyn til datakilder og opgaver. Med den rette træningsdata og ekspertudformede prompts kan conversational AI’s funktionalitet udvides langt ud over omfanget af en simpel chatbot. For eksempel kan det indsamle og filtrere data fra kundesamtaler og bruge det til automatisk at opdatere en CRM. Dette strømliner ikke kun administrative opgaver, men sikrer også, at kundeinformationen er konsekvent nøjagtig og opdateret. Ved at automatisere disse opgaver kan virksomheder fokusere mere på strategiske aktiviteter end på administrative byrder.
Hvis vi skal fortsætte med at bruge udtrykket “chatbot”, er det afgørende, at vi skelner mellem platforme, der integrerer avanceret conversational AI, og dem, der stadig tilbyder de begrænsede værktøjer fra i går. På samme måde som ordet “telefon” i dag oftere fremkalder billedet af en touchscreen-smartphone end en spiral-forbundet fastnettelefon, tror jeg, vi er ikke langt fra, at “chatbot” bliver erstattet af idéen om avancerede AI-agenter snarere end klodsede multiple-valgs-avatarer.












