Connect with us

Tankeledere

Hvordan forklarlig AI opbygger tillid og ansvarlighed

mm

Virksomheder har allerede kastet sig over AI-adopteringsprocessen og løber for at implementere chatbots, indholdsgenerering og beslutningsstøttesystemer på tværs af deres operationer. Ifølge McKinsey, bruger 78% af virksomhederne AI i mindst én forretningsfunktion.

Implementeringsfrenzyen er forståelig — alle ser det potentielle værdi. Men i denne hast, overser mange organisationer, at alle neurale netværksbaserede teknologier, herunder hver LLM og generativ AI-system i brug i dag og i den nærmeste fremtid, deler en væsentlig svaghed: De er uforudsigelige og i sidste ende ukontrollerbare.

Som nogen har lært, kan der være reel fallout som følge heraf. Hos en Chevrolet-forhandler, der havde implementeret en chatbot på deres website, overbeviste en kunde ChatGPT-drevne bot om at sælge ham en $58.195 Chevy Tahoe for kun $1. En anden kunde fik den samme chatbot til at skrive et Python-script for komplekse fluidodynamiske ligninger, som den gladigt gjorde. Forhandleren deaktiverede hurtigt botterne efter disse episoder gik viralt.

Sidste år tabte Air Canada i en lille krævningsret, da de argumenterede for, at deres chatbot, der gav en passager urigtig information om en sørgefradrag, “er en separat juridisk enhed, der er ansvarlig for sine egne handlinger”.

Denne uforudsigelighed stammer fra den fundamentale arkitektur af LLM’er. De er så store og komplekse, at det er umuligt at forstå, hvordan de kommer til bestemte svar eller forudsige, hvad de vil generere, før de producerer en output. De fleste organisationer responderer til dette pålidelighedsproblem uden fuldt ud at erkende det.

Den sundeste løsning er at kontrollere AI-resultaterne manuelt, hvilket fungerer, men begrænser dramatisk teknologiens potentiale. Når AI reduceres til at være en personlig assistent — udarbejdelse af tekst, mødeoptagelse, dokumentation og hjælp til kodning — leverer det beskedne produktivitetsgevinster. Ikke nok til at revolutionere økonomien.

De sande fordele af AI vil ankomme, når vi stopper med at bruge det til at assistere eksisterende job og i stedet omdanner hele processer, systemer og virksomheder til at bruge AI uden menneskelig indblanding på hvert trin. Overvej lånebehandling: Hvis en bank giver låneansvarlige en AI-assistent til at sammenfatte ansøgninger, kan de måske arbejde 20-30% hurtigere. Men implementering af AI til at håndtere hele beslutningsprocessen (med passende sikkerhedsforanstaltninger) kunne reducere omkostningerne med over 90% og eliminere næsten alt behandlingstid. Dette er forskellen mellem inkrementel forbedring og transformation.

Vejen til pålidelig AI-implementering

At udnytte AI’s fulde potentiale uden at give efter for dets uforudsigelighed kræver en sofistikeret blanding af tekniske tilgange og strategisk tænkning. Mens flere nuværende metoder tilbyder delvise løsninger, har hver af dem betydelige begrænsninger.

Nogle organisationer forsøger at mildne pålidelighedsproblemerne gennem system-nudging — subtilt styring af AI-adfærd i ønskede retninger, så det reagerer på bestemte måder på visse input. Anthropic-forskere demonstrerede sårbarheden af denne tilgang ved at identificere en “Golden Gate Bridge-funktion” i Claudes neurale netværk og, ved kunstigt at forstærke den, fik Claude til at udvikle en identitetskrise. Når de blev bedt om deres fysiske form, erkendte Claude ikke, at den ikke havde nogen, men påstod at være Golden Gate Bridge selv. Denne eksperiment afslørede, hvor let en models kernefunktion kan ændres, og at hver nudging repræsenterer en kompromis, der potentielt kan forbedre ét aspekt af ydelsen, mens den forringrer andre.

En anden tilgang er at lade AI overvåge andre AI. Mens denne lagdelte tilgang kan fange nogle fejl, introducerer den yderligere kompleksitet og når ikke op til omfattende pålidelighed. Hardkodede sikkerhedsforanstaltninger er en mere direkte indgriben, som f.eks. blokering af svar, der indeholder bestemte nøgleord eller mønstre, såsom prækursor-ingedients til våben. Mens disse sikkerhedsforanstaltninger er effektive mod kendte problemer, kan de ikke forudse nye problematiske output, der opstår fra disse komplekse systemer.

En mere effektiv tilgang er at opbygge AI-centrerede processer, der kan fungere autonomt, med menneskelig oversigt strategisk positioneret til at fange pålidelighedsproblemer, før de forårsager virkelige problemer. Du ville ikke ønske, at AI direkte godkender eller afviser låneansøgninger, men AI kunne udføre en initial vurdering for menneskelige operatører til gennemsyn. Dette kan fungere, men det afhænger af menneskelig vagtsomhed for at fange AI-fejl og undergraver det potentielle effektivitetsgevinst fra brug af AI.

Bygning til fremtiden

Disse delvise løsninger peger mod en mere omfattende tilgang. Organisationer, der fundamentalt omdefinerer, hvordan deres arbejde bliver gjort, snarere end blot at supplere eksisterende processer med AI-assistance, vil opnå den største fordel. Men AI skal aldrig være det sidste trin i en højrisiko-proces eller beslutning, så hvad er den bedste vej frem?

Først bygger AI en gentagen proces, der pålideligt og gennemsigtigt leverer konsistente resultater. Dernæst gennemgår mennesker processen for at sikre, at de forstår, hvordan den fungerer, og at input er passende. Til sidst kører processen autonomt — uden brug af AI — med periodisk menneskelig gennemgang af resultater.

Overvej forsikringsindustrien. Den konventionelle tilgang kunne tilføje AI-assistenter til at hjælpe med at behandle krav mere effektivt. En mere revolutionerende tilgang ville bruge AI til at udvikle nye værktøjer — som f.eks. computer-vision, der analyserer skade-fotos eller forbedrede svig-modeller, der identificerer mistænkelige mønstre — og derefter kombinere disse værktøjer i automatiserede systemer styret af klare, forståelige regler. Mennesker ville designe og overvåge disse systemer snarere end at behandle enkeltkrav.

Denne tilgang opretholder menneskelig oversigt på det kritiske punkt, hvor det betyder mest: design og validering af systemet selv. Den tillader eksponentielle effektivitetsgevinster, mens den eliminerer risikoen for, at AI’s uforudsigelighed fører til skadelige resultater i enkelttilfælde.

En AI kunne f.eks. identificere potentielle indikatorer for låne-tilbagebetalings-evne i transaktionsdata. Menneskelige eksperter kan derefter evaluere disse indikatorer for retfærdighed og opbygge eksplisitte, forståelige modeller til at bekræfte deres prognosekraft.

Denne tilgang til forklarlig AI vil skabe en klarere skel mellem organisationer, der bruger AI overfladisk, og dem, der transformerer deres operationer omkring det. De sidstnævnte vil i stigende grad trække foran i deres brancher, i stand til at tilbyde produkter og tjenester til prisniveauer, deres konkurrenter ikke kan matche.

I modsætning til sort-boks-AI sikrer forklarlige AI-systemer, at mennesker opretholder meningsfuld oversigt over teknologiens anvendelse, skabende en fremtid, hvor AI supplerer menneskelig potentiale snarere end blot erstatter menneskelig arbejdskraft.

//www.carringtonlabs.com">Carrington Labs, en førende udbyder af forklarlig AI-drevet kreditrisikoscoring og udlånsløsninger. Tidligere var han Chief Data Officer i en stor australsk bank. Før det arbejdede han i en række forskellige roller i bank- og finanssektoren, efter at han startede sin karriere som konsulent hos McKinsey & Company.