Tankeledare
Hur förklarlig AI bygger förtroende och ansvar

Företag har redan dykt rakt in i AI-användning, i en kapplöpning för att distribuera chatbots, innehållsgenererare och beslutsstödsverktyg över hela sina verksamheter. Enligt McKinsey använder 78% av företagen AI i minst en affärsfunktion.
Febern för implementering är förståelig — alla ser potentialen. Men i denna rusning, förbiser många organisationer faktum att alla neurala nätverksbaserade teknologier, inklusive varje LLM och generativ AI-system som används idag och för överskådlig framtid, delar en betydande brist: De är oförutsägbara och i slutändan kontrollösa.
Som vissa har lärt sig, kan det finnas riktiga konsekvenser som ett resultat. Hos en Chevrolet-återförsäljare som hade distribuerat en chatbot till sin webbplats, övertygade en kund chatboten att sälja en $58,195 Chevy Tahoe för bara $1. En annan kund uppmanade samma chatbot att skriva ett Python-skript för komplexa fluiddynamiska ekvationer, vilket den gjorde med glädje. Återförsäljaren inaktiverade snabbt botarna efter att dessa incidenter blev virala.
Förra året förlorade Air Canada i en småmålsdomstol när de hävdade att deras chatbot, som gav en passagerare felaktig information om en sorgerabatt, “är en separat juridisk enhet som är ansvarig för sina egna handlingar”.
Denna oförutsägbarhet härrör från den grundläggande arkitekturen i LLM. De är så stora och komplexa att det är omöjligt att förstå hur de kommer fram till specifika svar eller förutsäga vad de kommer att generera tills de producerar en utdata. De flesta organisationer svarar på detta tillförlitlighetsproblem utan att fullständigt erkänna det.
Den vanliga lösningen är att kontrollera AI-resultat för hand, vilket fungerar men drastiskt begränsar teknologins potential. När AI begränsas till att vara en personlig assistent — utkast till text, mötesanteckningar, dokument sammanfattningar och hjälp med kodning — ger det blygsamma produktivitetsvinster. Inte tillräckligt för att revolutionera ekonomin.
De verkliga fördelarna med AI kommer när vi slutar använda det för att assistera befintliga jobb och istället omstrukturerar hela processer, system och företag för att använda AI utan mänskligt ingripande i varje steg. Överväg lånebearbetning: om en bank ger lånehandläggare en AI-assistent för att sammanfatta ansökningar, kan de arbeta 20-30% snabbare. Men att distribuera AI för att hantera hela beslutsprocessen (med lämpliga säkerhetsåtgärder) kunde skära kostnaderna med över 90% och eliminera nästan all bearbetningstid. Detta är skillnaden mellan inkrementell förbättring och transformation.
Vägen till tillförlitlig AI-implementering
Att utnyttja AI:s fulla potential utan att falla offer för dess oförutsägbarhet kräver en sofistikerad blandning av tekniska tillvägagångssätt och strategiskt tänkande. Medan flera nuvarande metoder erbjuder partiella lösningar, har var och en betydande begränsningar.
Vissa organisationer försöker mildra tillförlitlighetsproblem genom systemstyrning — subtilt styra AI-beteende i önskade riktningar så att det svarar på specifika sätt till vissa indata. Forskare på Anthropic demonstrerade den fragila naturen hos detta tillvägagångssätt genom att identifiera en “Golden Gate Bridge-funktion” i Claudes neurala nätverk och, genom att artificiellt förstärka den, orsaka att Claude utvecklade en identitetskris. När de tillfrågades om dess fysiska form, hävdade Claude istället för att erkänna att den inte hade någon, att den var Golden Gate Bridge själv. Detta experiment avslöjade hur lätt en modells kärnfunktion kan ändras och att varje styrning representerar en avvägning, potentiellt förbättrande en aspekt av prestanda medan den försämrar andra.
En annan tillvägagångssätt är att låta AI övervaka annan AI. Medan detta lager-tillvägagångssätt kan upptäcka vissa fel, introducerar det ytterligare komplexitet och når fortfarande inte en fullständig tillförlitlighet. Hårdkodade skyddsräcken är en mer direkt ingrepp, som att blockera svar som innehåller vissa nyckelord eller mönster, som precursor-ingredienser för vapen. Medan de är effektiva mot kända problem, kan dessa skyddsräcken inte förutse nya problematiska utdata som uppstår från dessa komplexa system.
En mer effektiv tillvägagångssätt är att bygga AI-centrerade processer som kan fungera autonomt, med mänsklig tillsyn strategiskt positionerad för att upptäcka tillförlitlighetsproblem innan de orsakar verkliga problem. Du skulle inte vilja att AI direkt godkänner eller avslår låneansökningar, men AI kunde genomföra en första bedömning för mänskliga operatörer att granska. Detta kan fungera, men det kräver mänsklig vaksamhet för att upptäcka AI-fel och undergräver den potentiella effektivitetsvinsten från att använda AI.
Att bygga för framtiden
Dessa partiella lösningar pekar mot en mer omfattande tillvägagångssätt. Organisationer som grundläggande omprövar hur deras arbete utförs, snarare än att bara komplettera befintliga processer med AI-assistans, kommer att få den största fördelen. Men AI bör aldrig vara det sista steget i en högriskprocess eller beslut, så vad är den bästa vägen framåt?
Först bygger AI en upprepningsbar process som kommer att tillförlitligt och transparent leverera konsekventa resultat. Sedan granskar mänskliga operatörer processen för att säkerställa att de förstår hur den fungerar och att indata är lämpliga. Slutligen kör processen autonomt — utan AI — med periodisk mänsklig granskning av resultaten.
Överväg försäkringsbranschen. Den konventionella tillvägagångssättet kan lägga till AI-assistenter för att hjälpa skadereglerare att arbeta mer effektivt. En mer revolutionerande tillvägagångssätt skulle använda AI för att utveckla nya verktyg — som datorseende som analyserar skadefoton eller förbättrade bedrägerimodeller som identifierar misstänkta mönster — och sedan kombinera dessa verktyg till automatiserade system som styrs av tydliga, förståeliga regler. Mänskliga operatörer skulle designa och övervaka dessa system snarare än att bearbeta enskilda anspråk.
Detta tillvägagångssätt upprätthåller mänsklig tillsyn vid den kritiska punkten där det betyder mest: designen och valideringen av systemet själv. Det möjliggör exponentiella effektivitetsvinster samtidigt som det eliminerar risken att AI:s oförutsägbarhet kommer att leda till skadliga resultat i enskilda fall.
En AI kan identifiera potentiella indikatorer för låneåterbetalningsförmåga i transaktionsdata, till exempel. Mänskliga experter kan sedan utvärdera dessa indikatorer för rättvisthet och bygga explicita, förståeliga modeller för att bekräfta deras prediktiva kraft.
Detta tillvägagångssätt för förklarlig AI kommer att skapa en tydligare skiljelinje mellan organisationer som använder AI ytligt och de som omvandlar sina verksamheter runt det. De senare kommer att dra ifrån alltmer i sina branscher, kunna erbjuda produkter och tjänster till prispunkter som deras konkurrenter inte kan matcha.
Till skillnad från svart-lådan AI, säkerställer förklarliga AI-system att mänskliga operatörer upprätthåller meningsfull tillsyn över teknologins tillämpning, skapar en framtid där AI kompletterar mänsklig potential snarare än att bara ersätta mänskligt arbete.












