Connect with us

Když je “chatbot” špinavé slovo: 3 mýty, které mají lídři podniků o konverzační AI

Myslitelé

Když je “chatbot” špinavé slovo: 3 mýty, které mají lídři podniků o konverzační AI

mm

Šíření LLM, jako je OpenAI’s ChatGPT, Meta’s Llama a Anthropic’s Claude, vedlo k tomu, že existuje chatbot pro každou příležitost. Existují chatboti pro kariérní rady, chatboti, které umožňují mluvit se svou budoucí verzí, a dokonce i kuřecí chatbot, který poskytuje rady pro vaření.

Ale tyto nejsou chatboty z před deseti lety – tehdy byly omezeny na úzce nastavené, rigidní „konverzace“, často založené na velkém toku s více výběrem nebo ekvivalentními odpověďmi. V podstatě byly pouze slightly více sofistikované než pre-internetové IVR telefonní menu.

Dnešní „chatboti“ na druhé straně se častěji označují jako konverzační AI, nástroj s mnohem širšími možnostmi a použitími. A protože se nyní nacházíme uprostřed generativní AI hype cyklu, všechny tři tyto termíny jsou používány zaměnitelně. Bohužel, jako důsledek toho existuje mnoho nedorozumění kolem rizik, použití a ROI investic do konverzační AI mezi lídry podniků, zejména v vysoce regulovaných odvětvích, jako je finance.

Takže bych chtěl uvést na pravou míru einige společné nedorozumění kolem „chatbotů“, když ve skutečnosti diskutujeme o konverzační AI.

Mýtus 1: Zákazníci nenávidí chatboty

Spotřebitelé byli požádáni po lepší část poslední dekády, zda preferují lidské agenty nebo chatboty – což je jako zeptat se někoho, zda by raději měl profesionální masáž nebo seděl v nákupním centru masážním křesle.

Ale debut ChatGPT v roce 2022 (spolu s všemi nástroji, které z něj vyplynuly) otočil náš pohled na schopnosti chatbotu úplně na hlavu. Jak je zmíněno výše, starší chatboti fungovali na scénářích, tak že jakékoli odchylky od jejich předem stanovených cest často vedly k zmatku a neúčinným odpovědím. Neschopní porozumět kontextu a úmyslu uživatele, byly odpovědi často generické a neužitečné, a měly omezenou kapacitu shromažďovat, ukládat a poskytovat informace.

Naopak konverzační AI zapojuje lidi do přirozených konverzací, které zrcadlí lidskou řeč, umožňující více fluidní a intuitivní výměnu. Projevuje pozoruhodnou flexibilitu a adaptabilitu na neočekávané výsledky. Je schopná porozumět kontextu obklopujícímu úmysl uživatele, detekovat emoce a reagovat empaticky.

Tato hlubší úroveň porozumění umožňuje dnešní AI účinně navigovat uživatele dolů logických cest směrem k jejich cílům. To zahrnuje rychlé předání zákazníků lidským asistentům, když je to nutné. Navíc konverzační AI používá pokročilé informační filtry, mechanismy pro získávání a schopnost uchovávat relevantní data, významně zlepšující jejich schopnosti řešení problémů, což vede k lepšímu uživatelskému zážitku.

Takže to není to, že zákazníci slepě nenávidí chatboty, co nenávidí, je špatná služba, kterou starší verze chatbotů určitě poskytly. Dnešní konverzační agenti jsou tak mnohem sofistikovanější, že více než čtvrtina spotřebitelů se necítí jistě ve své schopnosti rozlišit mezi lidskými a AI agenty, a někteří dokonce považují AI chatboty za lepší při vybraných úkolech než jejich lidské protějšky.

V testovacích pilotních projektech naše společnost viděla AI agenty ztrojnásobit konverzní poměr leadů, což je docela silný indikátor toho, že to není o tom, zda je to bot nebo ne – jde o kvalitu práce.

Mýtus 2: Chatboty jsou příliš riskantní

Ve diskusích s lídry podniků o AI se často objevují obavy kolem halucinací, ochrany dat a bias, které by mohly vést k porušování předpisů. Ačkoli jsou to legitimní rizika, mohou být semua zmírněna pomocí několika různých přístupů: fine-tuning, Retrieval-Augmented Generation (RAG) a prompt engineering.

Ačkoli fine-tuning není k dispozici na všech LLM, může specializovat předem trénovaný model pro konkrétní úkol nebo doménu, což vede k AI, která je lépe přizpůsobena konkrétním potřebám. Například zdravotnická společnost by mohla fine-tuningovat model, aby lépe rozuměl a reagoval na lékařské dotazy.

RAG zvyšuje přesnost chatbotu dynamickým integrováním externích znalostí. To umožňuje chatbotu získat aktuální informace z externích databází. Například finanční služby chatbot by mohl použít RAG, aby poskytl aktuální odpovědi na otázky o akciových cenách.

Nakonec prompt engineering optimalizuje LLM tím, že vytváří prompty, které vedou chatbot k produkci více přesných nebo kontextově-aware odpovědí. Například e-commerce platforma by mohla použít přizpůsobené prompty, aby pomohla chatbotu poskytnout personalizované produktové doporučení založené na zákaznických preferencích a historii vyhledávání.

Kromě použití jednoho nebo více z těchto přístupů můžete také řídit „teplotu“ konverzační AI, abyste pomohli zabránit halucinacím. Nastavení nižší teploty v API voláních omezuje AI na poskytování více deterministických a konzistentních odpovědí, zejména když je kombinováno s znalostní bází, která zajišťuje, že AI čerpá z určených, spolehlivých dat. Abyste dále zmírnili rizika, vyhněte se nasazení AI v rozhodovacích rolích, kde by bias nebo nesprávné informace mohly vést k právním problémům.

Pokud jde o ochranu dat, zajistěte, aby externí AI poskytovatelé dodržovali předpisy, nebo nasadili open-source modely na své vlastní infrastruktuře, aby si uchovali plnou kontrolu nad svými daty, což je nezbytné pro soulad s GDPR.

Nakonec je vždy moudré investovat do profesního pojištění, které může nabídnout další ochranu, pokrývající podniky v nepravděpodobných scénářích, jako je pokus o soudní řízení. Prostřednictvím těchto opatření mohou podniky sebevědomě využívat AI, zatímco zachovávají bezpečnost značky a zákazníků.

Mýtus 3: Chatboty nejsou připraveny na složité úkoly

Po shlédnutí problémů, se kterými se potýkají velké technologické společnosti při nasazování AI nástrojů, může se zdát naivně myslet, že by malé a střední podniky měly snazší čas. Ale AI je nyní v takové fázi, kdy je fráze „jack of all trades and master of none“ není příliš nepřesná. To je částečně proto, že tyto nástroje jsou požádány, aby provedly příliš mnoho různých úkolů napříč prostředími, která nejsou dosud navržena pro efektivní nasazení AI. Jinými slovy, není to, že nejsou schopné, je to, že jsou požádány, aby figurovaly na ledě plném tenkých, rozbitých kusů ledu.

Například organizace s daty v silách a/nebo neuspořádanými jsou více náchylné k tomu, že AI vyhodí zastaralé, nesprávné nebo rozporuplné informace. Ironicky, je to důsledek jejich složitosti! Zatímco starší chatboti prostě regurgitovali základní informace lineárním způsobem, konverzační AI může analyzovat robustní datové sady, zvažovat několik vlivných faktorů najednou, aby nakreslila nejvhodnější cestu vpřed.

V důsledku toho je úspěch s konverzační AI podmíněn přísnými parametry a extrémně jasnými hranicemi ohledně zdrojů dat a úkolů. S pravými trénovacími daty a odborně navržených prompty může funkčnost konverzační AI jít daleko za rámec jednoduchého chatbotu. Například může shromažďovat a filtrovat data zákaznických konverzací a použít je k automatickému aktualizování CRM. To nejenom zjednodušuje administrativní úkoly, ale také zajišťuje, že zákaznické informace jsou vždy přesné a aktuální. Automatizací takových úkolů mohou podniky soustředit více na strategické aktivity než na administrativní zátěž.

Pokud budeme pokračovat v používání termínu „chatbot“, je nezbytné, abychom odlišovali mezi platformami, které začleňují pokročilou konverzační AI, a těmi, které stále nabízejí omezené nástroje včera. Stejně jako dnes slovo „telefon“ častěji vyvolává obraz dotykového smartphone než spirálového telefonního vedení, věřím, že jsme nejsou daleko od toho, aby „chatbot“ byl nahrazen myšlenkou pokročilých AI agentů spíše než neohrabanými avatary s více výběrem.

Sam Oliver je technologický podnikatel, investor do nemovitostí a autor. Jeho poslední projekt, OpenFi, je konverzační AI pro generování leadů a péči o zákazníky.