Tanke ledere
Hvordan forklarlig AI opbygger tillid og ansvarlighed

Virksomheder har allerede kastet sig hovedkulds ud i AI-adoptionen og kæmper for at implementere chatbots, indholdsgeneratorer og beslutningsstøtteværktøjer på tværs af deres aktiviteter. Ifølge McKinsey78 % af virksomheder bruger AI i mindst én forretningsfunktion.
Implementeringsheksen er forståelig – alle ser den potentielle værdi. Men i denne hastværk overser mange organisationer det faktum, at alle neurale netværksbaserede teknologier, inklusive alle LLM- og generative AI-systemer, der er i brug i dag og i den nærmeste fremtid, deler en betydelig svag: De er uforudsigelige og i sidste ende ukontrollerbare.
Som nogle har erfaret, kan det føre til alvorlige konsekvenser. Hos en Chevrolet-forhandler, der havde implementeret en chatbot på sin hjemmeside, Kunden overtalte den ChatGPT-drevne bot til at sælge ham en Chevrolet Tahoe til 58,195 dollars for kun 1 dollarEn anden kunde bad den samme chatbot om at skrive et Python-script til komplekse fluiddynamiske ligninger, hvilket den med glæde gjorde. Forhandleren deaktiverede hurtigt botterne, efter at disse hændelser gik viralt.
Sidste år Air Canada tabte i småsagsret da den argumenterede for, at dens chatbot, som gav en passager unøjagtige oplysninger om en rabat ved dødsfald, "er en separat juridisk enhed, der er ansvarlig for sine egne handlinger."
Denne uforudsigelighed stammer fra den grundlæggende arkitektur i LLM'er. De er så store og komplekse, at det er umuligt at forstå, hvordan de når frem til specifikke svar, eller forudsige, hvad de vil generere, før de producerer et output. De fleste organisationer reagerer på dette pålidelighedsproblem uden fuldt ud at anerkende det.
Den sunde fornuft-løsning er at tjekke AI-resultater manuelt, hvilket virker, men drastisk begrænser teknologiens potentiale. Når AI henvises til at være en personlig assistent – ​​udarbejdelse af tekst, mødereferater, opsummering af dokumenter og hjælp med kodning – leverer det beskedne produktivitetsgevinster. Ikke nok til at revolutionere økonomien.
De sande fordele ved AI vil indtræffe, når vi holder op med at bruge den til at understøtte eksisterende job og i stedet omprogrammerer hele processer, systemer og virksomheder til at bruge AI uden menneskelig indblanding i hvert trin. Overvej lånebehandling: Hvis en bank giver låneansvarlige en AI-assistent til at opsummere ansøgninger, kan de arbejde 20-30 % hurtigere. Men at implementere AI til at håndtere hele beslutningsprocessen (med passende sikkerhedsforanstaltninger) kan reducere omkostningerne med over 90 % og eliminere næsten al behandlingstiden. Dette er forskellen mellem trinvis forbedring og transformation.
Vejen til pĂĄlidelig AI-implementering
At udnytte AI's fulde potentiale uden at bukke under for dens uforudsigelighed kræver en sofistikeret blanding af tekniske tilgange og strategisk tænkning. Mens flere nuværende metoder tilbyder delvise løsninger, har hver især betydelige begrænsninger.
Nogle organisationer forsøger at afbøde pålidelighedsproblemer gennem system-nudging – subtilt at styre AI-adfærd i de ønskede retninger, så den reagerer på bestemte måder på bestemte input. Antropiske forskere demonstrerede skrøbeligheden af denne tilgang ved at identificere en "Golden Gate Bridge-funktion" i Claudes neurale netværk og ved kunstigt at forstærke den, forårsagede det, at Claude udviklede en identitetskrise. Da han blev spurgt om dens fysiske form, hævdede Claude, i stedet for at erkende, at den ikke havde nogen, at be selve Golden Gate Bridge. Dette eksperiment afslørede, hvor let en models kernefunktion kan ændres, og at hvert skub repræsenterer et kompromis, der potentielt forbedrer ét aspekt af ydeevnen, mens det forringer andre.
En anden tilgang er at lade AI overvåge andre AI'er. Selvom denne lagdelte tilgang kan opdage nogle fejl, introducerer den yderligere kompleksitet og mangler stadig omfattende pålidelighed. Hardcodede guardrails er en mere direkte intervention, som f.eks. at blokere svar, der indeholder bestemte nøgleord eller mønstre, såsom ingredienser i våbenforløbere. Selvom disse guardrails er effektive mod kendte problemer, kan de ikke forudse nye problematiske output, der opstår fra disse komplekse systemer.
En mere effektiv tilgang er at opbygge AI-centrerede processer, der kan fungere autonomt, med menneskeligt tilsyn strategisk placeret til at opdage pålidelighedsproblemer, før de forårsager problemer i den virkelige verden. Man ønsker ikke, at AI direkte godkender eller afviser låneansøgninger, men AI kunne foretage en indledende vurdering, som menneskelige operatører kan gennemgå. Dette kan fungere, men det er afhængigt af menneskelig årvågenhed for at opdage AI-fejl og underminerer de potentielle effektivitetsgevinster ved at bruge AI.
Opbygning til fremtiden
Disse delvise løsninger peger mod en mere omfattende tilgang. Organisationer, der fundamentalt gentænker, hvordan deres arbejde udføres, i stedet for blot at supplere eksisterende processer med AI-assistance, vil opnå den største fordel. Men AI bør aldrig være det sidste skridt i en proces eller beslutning med høje indsatser, så hvad er den bedste vej frem?
For det første opbygger AI en gentagelig proces, der pålideligt og transparent leverer ensartede resultater. For det andet gennemgår mennesker processen for at sikre, at de forstår, hvordan den fungerer, og at inputtene er passende. Endelig kører processen autonomt – uden brug af AI – med periodisk menneskelig gennemgang af resultaterne.
Tænk på forsikringsbranchen. Den konventionelle tilgang kunne tilføje AI-assistenter for at hjælpe skadesbehandlere med at arbejde mere effektivt. En mere revolutionerende tilgang ville bruge AI til at udvikle nye værktøjer – såsom computervision, der analyserer skadesbilleder, eller forbedrede modeller til svindeldetektering, der identificerer mistænkelige mønstre – og derefter kombinere disse værktøjer i automatiserede systemer, der styres af klare og forståelige regler. Mennesker ville designe og overvåge disse systemer i stedet for at behandle individuelle skader.
Denne tilgang opretholder menneskelig overvågning på det kritiske tidspunkt, hvor det betyder mest: design og validering af selve systemet. Det giver mulighed for eksponentielle effektivitetsgevinster, samtidig med at det eliminerer risikoen for, at AI-uforudsigelighed vil føre til skadelige resultater i individuelle tilfælde.
En kunstig intelligens kan for eksempel identificere potentielle indikatorer for tilbagebetalingsevne i transaktionsdata. Menneskelige eksperter kan derefter evaluere disse indikatorer for retfærdighed og opbygge eksplicitte, forståelige modeller for at bekræfte deres prædiktive kraft.
Denne tilgang til forklarlig AI vil skabe en tydeligere kløft mellem organisationer, der bruger AI overfladisk, og dem, der transformerer deres drift omkring den. Sidstnævnte vil i stigende grad drage fordel i deres brancher og være i stand til at tilbyde produkter og tjenester til priser, som deres konkurrenter ikke kan matche.
I modsætning til black-box-AI sikrer forklarbare AI-systemer, at mennesker opretholder meningsfuldt overblik over teknologiens anvendelse og skaber en fremtid, hvor AI øger menneskeligt potentiale i stedet for blot at erstatte menneskelig arbejdskraft.