Tanke ledare
NÀr "Chatbot" Àr ett smutsigt ord: 3 missuppfattningar som företagsledare har om konversations-AI

Spridningen av LLMs som OpenAIs ChatGPT, Metas Llama och Anthropics Claude har lett till en chatbot för varje tillfÀlle. Det finns chatbots för karriÀrrÄdgivning, chatbots som lÄter dig tala till ditt framtida jag, Och Àven en chicken chatbot som ger matlagningsrÄd.
Men det hĂ€r Ă€r inte chatbotarna för tio Ă„r sedan â dĂ„ var de begrĂ€nsade till snĂ€vt förinstĂ€llda, stela "konversationer", ofta baserade pĂ„ ett stort flödesschema med flervalssvar eller motsvarande svar. I huvudsak var de bara nĂ„got mer sofistikerade Ă€n IVR-telefonmenyer före internet.
Dagens "chatbots", Ä andra sidan, hÀnvisar oftare till konversations-AI, ett verktyg med mycket bredare möjligheter och anvÀndningsfall. Och eftersom vi nu befinner oss mitt i den generativa AI-hypecykeln, anvÀnds alla dessa tre termer omvÀxlande. TyvÀrr, som en följd av detta, finns det mÄnga missförstÄnd kring riskerna, anvÀndningsfallen och ROI med att investera i konversations-AI bland företagsledare, sÀrskilt i starkt reglerade branscher som finans.
SÄ jag skulle vilja sÀtta rekordet pÄ nÄgra vanliga missförstÄnd kring "chatbots", nÀr det vi egentligen diskuterar Àr konversations-AI.
Myt 1: Kunder hatar chatbots
Konsumenter har under större delen av det senaste decenniet tillfrĂ„gats om de föredrar mĂ€nskliga agenter eller chatbots â vilket Ă€r som att frĂ„ga nĂ„gon om de hellre vill ha en professionell massage eller sitta i en massagestol i ett köpcentrum.
Men debuten av ChatGPT 2022 (tillsammans med alla verktyg som snurrade frÄn det) vÀnde vÄr uppfattning om en chatbots kapacitet helt pÄ huvudet. Som nÀmnts ovan, arbetade Àldre chatbots pÄ skript, sÄ att varje avvikelse frÄn deras föreskrivna vÀgar ofta ledde till förvirring och ineffektiva svar. De svar som gavs var ofta generiska och ohjÀlpsamma och kunde inte förstÄ sammanhanget och anvÀndarens avsikt, och de hade begrÀnsad kapacitet att samla in, lagra och leverera information.
DÀremot engagerar konversations-AI mÀnniskor i naturliga konversationer som speglar mÀnskligt tal, vilket möjliggör ett mer flytande, intuitivt utbyte. Det visar en anmÀrkningsvÀrd flexibilitet och anpassningsförmÄga till ovÀntade resultat. Den kan förstÄ sammanhanget kring anvÀndarens avsikter, upptÀcka kÀnslor och svara empatiskt.
Denna djupare nivÄ av förstÄelse gör det möjligt för dagens AI att effektivt navigera anvÀndare lÀngs logiska vÀgar mot sina mÄl. Det inkluderar att snabbt lÀmna ut kunder till mÀnskliga assistenter vid behov. Dessutom anvÀnder konversations-AI avancerade informationsfilter, hÀmtningsmekanismer och förmÄgan att behÄlla relevant data, vilket avsevÀrt förbÀttrar deras problemlösningsförmÄga, vilket ger en bÀttre anvÀndarupplevelse.
SÄ det Àr inte sÄ att kunder blint hatar chatbots, vad de hatar Àr dÄlig service, som tidigare versioner av chatbots definitivt var skyldiga till att leverera. Dagens samtalsagenter Àr sÄ mycket mer sofistikerade Àn över en fjÀrdedel av konsumenterna kÀnner sig inte sÀker pÄ sin förmÄga att skilja mellan mÀnskliga och AI-agenter, och vissa till och med uppfatta AI-chatbots att vara bÀttre vid utvalda uppgifter Àn sina mÀnskliga motsvarigheter.
I testpiloter har mitt företag sett AI-agenter tredubbla omvandlingsfrekvensen för leads, vilket Ă€r en ganska kraftfull indikation pĂ„ att det inte handlar om huruvida det Ă€r en bot eller inte â det handlar om kvaliteten pĂ„ det utförda jobbet.
Myt 2: Chatbots Àr för riskabla
I diskussioner med företagsledare om AI uppstĂ„r ofta oro kring hallucinationer, dataskydd och partiskhet som kan leda till regelövertrĂ€delser. Ăven om de Ă€r legitima risker kan de alla minskas genom nĂ„gra olika tillvĂ€gagĂ„ngssĂ€tt: finjustering, Retrieval-Augmented Generation (RAG) och snabb konstruktion.
Ăven om det inte Ă€r tillgĂ€ngligt pĂ„ alla LLM, kan finjustering specialisera en förutbildad modell för en specifik uppgift eller domĂ€n, vilket resulterar i AI bĂ€ttre anpassad för specifika behov. Till exempel kan ett hĂ€lsovĂ„rdsföretag finjustera en modell för att bĂ€ttre förstĂ„ och svara pĂ„ medicinska förfrĂ„gningar.
RAG förbÀttrar chatbot-noggrannheten genom att dynamiskt integrera extern kunskap. Detta gör att chatboten kan hÀmta uppdaterad information frÄn externa databaser. Till exempel kan en chatbot för finansiella tjÀnster anvÀnda RAG för att ge realtidssvar om aktiekurser.
Slutligen optimerar promptteknik LLM:er genom att skapa uppmaningar som vÀgleder chatboten att producera mer exakta eller sammanhangsmedvetna svar. Till exempel kan en e-handelsplattform anvÀnda skrÀddarsydda uppmaningar för att hjÀlpa chatboten att tillhandahÄlla personliga produktrekommendationer baserat pÄ kundernas preferenser och sökhistorik.
Förutom att anvÀnda ett eller flera av dessa tillvÀgagÄngssÀtt kan du ocksÄ kontrollera en konversations-AI:s kreativitets-"temperatur" för att förhindra hallucinationer. Att stÀlla in en lÀgre temperatur inom API-anropen begrÀnsar AI:n till att ge mer deterministiska och konsekventa svar, sÀrskilt i kombination med en kunskapsbas som sÀkerstÀller att AI:n hÀmtar frÄn specificerade, tillförlitliga datamÀngder. För att ytterligare minska riskerna, undvik att anvÀnda AI i beslutsfattande roller dÀr partiskhet eller felaktig information kan leda till juridiska problem.
NÀr det gÀller datasekretess, se till att externa AI-leverantörer följer reglerna, eller distribuera modeller med öppen kÀllkod pÄ din egen infrastruktur för att behÄlla full kontroll över din data, vilket Àr avgörande för efterlevnad av GDPR.
Slutligen Àr det alltid klokt att investera i en yrkesskadeförsÀkring som kan erbjuda ytterligare skydd, som tÀcker företag i osannolika scenarier som försök till rÀttstvister. Genom dessa ÄtgÀrder kan företag med sÀkerhet utnyttja AI samtidigt som varumÀrket och kundernas sÀkerhet bibehÄlls.
Myt 3: Chatbots Àr inte redo för komplexa uppgifter
Efter att ha sett problemen med stora teknikföretag har nÀr man anvÀnder AI-verktyg kan det kÀnnas naivt att tro att ett smÄ och medelstora företag skulle ha det lÀttare. Men AI befinner sig för nÀrvarande i ett skede dÀr frasen "övergripande bra och ingens mÀstare" inte Àr sÀrskilt inexakt. Detta beror till stor del pÄ att dessa verktyg ombeds utföra för mÄnga olika uppgifter i miljöer som Ànnu inte Àr designade för effektiv AI-distribution. Med andra ord, det Àr inte sÄ att de inte Àr kapabla, det Àr att de blir ombedda att Äka konstÄkning pÄ en damm full av tunn, bruten is.
Till exempel kommer organisationer som Àr fulla av silade och/eller oorganiserade data att vara mer benÀgna att AI visar förÄldrad, felaktig eller motstridig information. Ironiskt nog Àr detta en konsekvens av deras komplexitet! Medan Àldre chatbotar helt enkelt Äterupptog grundlÀggande information pÄ ett linjÀrt sÀtt, kan konversations-AI analysera robusta datamÀngder, med hÀnsyn till flera inflytelserika faktorer samtidigt för att kartlÀgga den mest lÀmpliga vÀgen framÄt.
Följaktligen Àr framgÄng med konversations-AI beroende av strikta parametrar och extremt tydliga grÀnser för datakÀllor och uppgifter. Med rÀtt trÀningsdata och expertutformade uppmaningar kan funktionaliteten hos konversations-AI strÀcka sig lÄngt bortom rÀckvidden för en enkel chatbot. Till exempel kan den samla in och filtrera data frÄn kundkonversationer och anvÀnda den för att automatiskt uppdatera ett CRM. Detta effektiviserar inte bara administrativa uppgifter, utan sÀkerstÀller ocksÄ att kundinformationen Àr konsekvent korrekt och uppdaterad. Genom att automatisera sÄdana uppgifter kan företag fokusera mer pÄ strategiska aktiviteter snarare Àn administrativa bördor.
Om vi ââska fortsĂ€tta anvĂ€nda termen "chatbot" Ă€r det absolut nödvĂ€ndigt att vi skiljer mellan plattformar som innehĂ„ller avancerad konversations-AI och de som fortfarande erbjuder gĂ„rdagens begrĂ€nsade verktyg. PĂ„ samma sĂ€tt som idag ordet "telefon" oftare framkallar bilden av en smartphone med pekskĂ€rm Ă€n en fast telefon med spiralkabel, tror jag att vi inte Ă€r lĂ„ngt ifrĂ„n att "chatbot" ersĂ€tts av idĂ©n om avancerade AI-agenter snarare. Ă€n klumpiga flervalsavatarer.