Connect with us

Stoppa AI från att skapa historier: En guide till att förhindra hallucinationer

Tankeledare

Stoppa AI från att skapa historier: En guide till att förhindra hallucinationer

mm

AI revolutionerar sättet som nästan varje industri fungerar. Det gör oss mer effektiva, mer produktiva och – när det implementeras korrekt – bättre på våra jobb överlag. Men när vår tillit till denna nya teknologi ökar snabbt, måste vi påminna oss om en enkel sak: AI är inte ofelbar. Dess utdata bör inte tas för gott eftersom, precis som människor, AI kan göra misstag.

Vi kallar dessa misstag “AI-hallucinationer”. Sådana misstag sträcker sig från att svara fel på ett matematiskt problem till att tillhandahålla felaktig information om regeringspolicys. I högt reglerade industrier kan hallucinationer leda till dyra böter och rättsliga problem, för att inte tala om missnöjda kunder.

Frekvensen av AI-hallucinationer bör därför vara orsak till oro: det uppskattas att moderna stora språkmodeller (LLM) hallucinerar någonstans mellan 1% och 30% av tiden. Detta resulterar i hundratals falska svar som genereras varje dag, vilket innebär att företag som vill utnyttja denna teknik måste vara noggrant selektiva när de väljer vilka verktyg de ska implementera.

Låt oss undersöka varför AI-hallucinationer händer, vad som står på spel och hur vi kan identifiera och korrigera dem.

Skräp in, skräp ut

Kommer du ihåg när du spelade spelet “telefon” som barn? Hur den ursprungliga frasen blev förvanskad när den gick från spelare till spelare, vilket resulterade i en helt annan uttalande när den nådde slutet av cirkeln?

Sättet som AI lär sig från sina indata är liknande. De svar som LLM genererar är bara så bra som den information de matas med, vilket innebär att felaktig kontext kan leda till generering och spridning av falsk information. Om ett AI-system byggs på data som är felaktig, föråldrad eller partisk, så kommer dess utdata att återspegla detta.

Som sådan är en LLM bara så bra som dess indata, särskilt när det finns en brist på mänsklig inblandning eller tillsyn. När allt fler autonoma AI-lösningar sprids, är det avgörande att vi tillhandahåller verktygen med rätt datakontext för att undvika att orsaka hallucinationer. Vi behöver rigorös utbildning av denna data och/eller förmågan att vägleda LLM så att de svarar bara från den kontext de tillhandahålls, snarare än att dra information från någonstans på internet.

Varför är hallucinationer viktiga?

För kundfacing företag är noggrannhet allt. Om anställda förlitar sig på AI för uppgifter som syntetiserar kunddata eller svarar på kundförfrågningar, måste de lita på att de svar som verktygen genererar är korrekta.

Annars riskerar företag skada på sin rykte och kundlojalitet. Om kunder matas med otillräcklig eller falsk information av en chatbot, eller om de lämnas väntande medan anställda faktakontrollerar chatbotens utdata, kan de ta sin verksamhet någon annanstans. Människor bör inte behöva oroa sig för om de företag de interagerar med matar dem med felaktig information – de vill snabb och tillförlitlig support, vilket innebär att få dessa interaktioner rätt är av största vikt.

Företagsledare måste göra sin due diligence när de väljer rätt AI-verktyg för sina anställda. AI är tänkt att frigöra tid och energi för personalen att fokusera på högvärdiga uppgifter; att investera i en chatbot som kräver konstant mänsklig granskning motsäger hela syftet med antagandet. Men är existensen av hallucinationer verkligen så framträdande eller är termen helt enkelt överanvänd för att identifiera med vilket svar som helst som vi antar är fel?

Bekämpa AI-hallucinationer

Ta i beaktande: Dynamic Meaning Theory (DMT), konceptet att en förståelse mellan två personer – i det här fallet användaren och AI – utbyts. Men begränsningarna i språk och kunskap om ämnena orsakar en missanpassning i tolkningen av svaret.

I fallet med AI-genererade svar är det möjligt att de underliggande algoritmerna inte är fullt utrustade för att tolka eller generera text på ett sätt som överensstämmer med de förväntningar vi har som människor. Denna diskrepans kan leda till svar som kan verka korrekta på ytan men i slutändan saknar djup eller nyans för att uppnå sann förståelse.

Dessutom drar de flesta allmänna LLM bara information från innehåll som är offentligt tillgängligt på internet. Företagsapplikationer av AI fungerar bättre när de informeras av data och policys som är specifika för enskilda industrier och företag. Modeller kan också förbättras med direkt mänsklig feedback – särskilt agenslösningar som är utformade för att svara på ton och syntax.

Sådana verktyg bör också testas strängt innan de blir kundfacing. Detta är en kritisk del av att förhindra AI-hallucinationer. Hela flödet bör testas med hjälp av samtal med LLM som spelar rollen som en persona. Detta tillåter företag att bättre anta den allmänna framgången av samtal med en AI-modell innan den släpps ut i världen.

Det är avgörande för både utvecklare och användare av AI-teknik att förbli medvetna om dynamisk meningsteori i de svar de får, samt dynamiken i språket som används i indata. Kom ihåg, kontext är nyckeln. Och, som människor, har vi potentialen att hallucinera i svar på frågor. Men, i vår nuvarande iteration av AI, är vår mänskliga förståelse inte så lätt att kontextualisera, så vi måste vara mer kritiska till den kontext vi tillhandahåller i skrift.

Suffice att säga – inte alla AI-modeller är skapade lika. När tekniken utvecklas för att slutföra alltmer komplexa uppgifter, är det avgörande för företag som siktar på implementering att identifiera verktyg som kommer att förbättra kundinteraktioner och upplevelser snarare än att dra av från dem.

Bördan ligger inte bara på lösningstillhandahållare för att säkerställa att de har gjort allt i sin makt för att minimera chansen för hallucinationer att inträffa. Potentiella köpare har sin roll att spela också. Genom att prioritera lösningar som är rigoröst utbildade och testade och kan lära sig från proprietär data (i stället för allt och allt på internet), kan företag göra det mesta av sina AI-investeringar för att sätta anställda och kunder upp för framgång.

Dan Balaceanu, Chief Product Officer på DRUID AI, har erfarenhet av att hantera utvecklingsavdelningar och processer inom företagsorganisationer. Han är en mycket skicklig lösningsarkitekt och teknisk projektledare med mer än 15 års erfarenhet av att leda medelstora utvecklings- och implementationsprojekt, med insamling av kundkrav, systemanalys, applikationsutveckling och testning, i kundfokuserade team.