Connect with us

Hvorfor blind tillid til AI kan være dit værste valg nogensinde

Tankeledere

Hvorfor blind tillid til AI kan være dit værste valg nogensinde

mm

I 1979 udgav en IBM-træningsmanual en simpel, men slående advarsel: “En computer kan aldrig holdes ansvarlig; derfor må en computer aldrig træffe en ledelsesbeslutning.” Og mere end 45 år senere føles denne udtalelse som en ignoreret profeti.

I 2025 assisterer AI ikke blot; den træffer selvstændige beslutninger, og i mange tilfælde er det ikke blot AI, der beslutter, men også leder. Faktisk er det omkring 74% af direktører mere sikre på AI til forretningsråd sammenlignet med kolleger eller venner, 38% stoler på AI til at træffe forretningsbeslutninger for dem, og 44% følger teknologiens argumentation fremfor deres egne indsigt. Skiftet er tydeligt; AI er den nye intuition.

Men der er et problem. Tillid til AI er kun mulig, hvis algoritmen er værdig til at stole på. Og når tillid placeres blindt, især i sorte kasser, som vi ikke kan forstå eller gennemgå, er det en risiko forkleet som fremskridt. Som med menneskelig ledelse er tillid uden ansvar farligt, og når AI tager fejl, hvem tager faldet?

Når værktøjet bliver chefen

Hvad startede som et værktøj til at strømline bagkontor-operationer bruges nu i kerneforretningsprocesser. Men virksomheder bruger ikke kun AI til at støtte menneskelige beslutninger; de stoler nu på AI, især generativ AI (GenAI), til at træffe forretningsbeslutninger, fra forretningsstrategi til kundeservice, finansielle modeller og mere.

Dette skift er forståeligt. AI bliver ikke distraheret, glemmer instruktioner eller lader følelser skygge dets dømmekraft. For mange virksomheder tilbyder dette en tiltrængt kur mod risikoen for menneskelig fejl. Men en nøglefrage bliver: kan vi stole på AI til at være chef og træffe beslutninger uafhængigt?

Det er ikke et entydigt svar, men en måde at se på det er, hvordan vi dømmer menneskers tillidværdighed: ved deres kompetence, pålidelighed og klare hensigt. De samme principper gælder for AI.

For at være tillidværdig skal et AI-system levere resultater, der er præcise, rettidige og passende. Men tillidsniveauet og fejlmarginen varierer afhængigt af konteksten. For eksempel, når der diagnosticeres kræft fra medicinske billeder, er fejlmarginen ekstremt lav. Omvendt, når der genereres ideer til en markedsføringskampagne, er der mere plads til eksperimenter.

Vi har set AI brugt til at træffe selvstændige beslutninger på områder som kreditgodkendelser, hvor banker udnytter algoritmer til at bestemme låneberettigelse på få sekunder. Detailhandlere bruger AI til at styre lager og prissætning uden menneskelig indgang. Men vi har også set fejl – som selvstyrende biler, der misbedømmer vejforhold.

En advarselssag viser risikoen for at placere for megen tillid til AI uden tilstrækkelig tilsyn. Derek Mobley – en sort mand over 40 – ansøgte om over 100 stillinger gennem Workday AI-dreven ansættelsessystem siden 2017 og blev afvist hver gang. Han påstod diskrimination baseret på alder og race. I maj 2025 gav retten en landsdækkende kollektiv aktion. Klassen omfatter alle ansøgere over 40, der har ansøgt gennem Workday siden september 2020 og blev afvist på grund af AI-anbefalinger.

Dette eksempel understreger en vigtig point: AI mangler følelsesmæssig intelligens, moralsk begrundelse eller en naturlig fornemmelse for retfærdighed. Og da AI bevæger sig fra menneskelig assistent til selvstændig beslutningstager, er der nu et ansvarligt tomrum. Når algoritmer tillades at køre uden menneskelig kontrol, kan de og gør de dårlige beslutninger og forstærker eksisterende fordomme.

Spørgsmålet om sorte kasser

Sorte kasser – når et AI-system og logik ikke er fuldt synlige – er mere og mere almindelige. Selvom de kan have synlige lag, kan udviklere og brugere stadig ikke se, hvad der sker på hvert lag, hvilket gør dem uigennemsigtige.

For eksempel er ChatGPT en sort kasse, da selv dens skabere er usikre på, hvordan det virker, da det er trænet på så store datasæt. Men på grund af manglen på gennemsigtighed, er det nogensinde okay at ‘stole’ på en AI-model uden fuldt ud at forstå, hvordan den fungerer?

Kort sagt, nej: AI-hallucinationer bliver værre. Dette betyder, at i højrisikoscenarier, som finansielle beslutninger, juridisk rådgivning og medicinske indsigt, kræver AI streng validering, krydsreferencing og menneskelig tilsyn.

Den Disney og Universal-sagen fra juni 2025 understreger dette punkt. Studierne påstår, at GenAI-værktøjer blev trænet på ophavsretsmateriale for at skabe nyt indhold uden samtykke. Dette tilfælde fremhæver en ny realitet: når virksomheder implementerer AI-modeller, de ikke fuldt ud forstår, kan de blive holdt ansvarlige for beslutninger, der tages. Og uvidenhed er ingen undskyldning; det er en ansvarlighed.

Men vi stoler ofte på komplekse systemer, vi ikke forstår. For eksempel kan de fleste luftrejsepassagerer ikke forklare fysikken bag flyvning, men folk går om bord på fly med tillid, fordi vi har bygget tillid gennem gentagen eksponering, fælles erfaring og en stærk sikkerhedsrekord.

Den samme logik kan igen anvendes på AI. Det er urimeligt at forvente, at alle forstår, hvordan LLM’er faktisk fungerer. Men tillid bygges ikke på forståelse; det kræver bekendtskab, gennemsigtighed om begrænsninger og en bevist mønster af pålidelig præstation. Aerospace-ingeniører ved, hvilke tests der skal indsættes, og hvilke fejl ser ud, og vi må kræve det samme af GenAI-udbydere. Det grundlæggende princip for AI skal være tillid, men verificer.

Desuden tror forretningsledere ofte, at AI vil være den magiske kugle, der løser alle deres forretningsproblemer. Men denne myte plager mange virksomheder, når de integrerer AI. Ledere kan foretrække komplekse og sofistikerede modeller, men en simpel løsning kan være bedre egnet, hvis de havde gennemført en omkostnings-benefitanalyse. AI er et kraftfuldt instrument, men det er ikke egnet til hver opgave. Virksomheder skal erkende problemet, før de vælger et værktøj.

Genopbygning af tillid til AI

Selvom det er tydeligt, at blind tillid til AI er et problem, kan AI-systemer og algoritmer være det bedste værktøj, en forretning nogensinde ejer – når det bruges sikkert.

For virksomheder, der søger at udnytte AI-værktøjer, er det første, de skal undersøge, leverandørduelighed. Når en virksomhed har identificeret et område, der kunne blive bedre med AI-effektivitet, skal forretningsledere evaluere leverandører ikke kun på ydelseskrav, men på styrekontroller. Dette inkluderer gennemgang af, hvordan modeller udvikles, om forklaringsværktøjer er på plads, hvordan fordomme overvåges og om auditransaktioner er tilgængelige. At vælge en leverandør med gennemsigtige processer er afgørende for at mindske risikoen fra starten.

Måske det vigtigste punkt, når man bygger tillid til AI-systemer, er at sikre datastyring med rene, repræsentative og vel-dokumenterede datasæt. Som det siges: skrald ind, skrald ud. Derfor, hvis data er ufuldstændige, fordomsfulde eller upræcise, vil selv den mest avancerede model producere upålidelige resultater.

For at sikre, at data er AI-klar, skal virksomheder:

  • Gennemgå eksisterende datasæt for huller og duplikation og tjek for kilder til fordomme

  • Standardiser dataformater

  • Implementer datastyringspolitikker, der definerer ejerskab og adgangskontroller

En anden nøglepunkt for forretningsledere at udføre er stresstest under forskellige betingelser. Selvom en model kan fungere godt i kontrollerede tests, er det kritisk at forstå modellens begrænsninger, når den konfronteres med nye data eller input, som den ikke havde forventet. Dette er hvorfor det er vigtigt at teste AI i en række situationer, med forskellige typer brugere, forskellige brugsområder og data fra forskellige tidsperioder.

AI-validering er også en løbende opgave. Da data ændrer sig over tid, kan selv pålidelige AI-modeller miste nøjagtighed. Derfor er regelmæssig overvågning vigtig. Virksomheder skal overvåge, hvordan modellen fungerer fra dag til dag: er den stadig nøjagtig? Eller er de falske positive værdier øgende? Og ligesom ethvert system, der kræver vedligeholdelse, skal modeller gen-trænes regelmæssigt med frisk data for at forblive relevante.

AI er ikke tillidværdig eller utillidværdig; det er formet af de data, det lærer af, de mennesker, der laver det, og de regler, der styrer det. Da AI udvikler sig fra et nyttigt værktøj til en forretningsrådgiver, har ledere muligheden for ikke kun at bruge det, men at gøre det på en tankefuld og etisk måde. Hvis vi gør det rigtigt, vil AI ikke kun være kraftfuldt i fremtiden, men også ansvarligt, med ansvarliggørelse, der tydeligt sidder hos udvikleren og tilsynsførerne.

Martin Lewit er SVP (Senior Vice President) i Nisum, en global rådgivningspartner specialiseret i digital handel og udvikling, der opbygger AI-drevne platforme og tilpassede løsninger, der låser vækst op, optimerer operationer og skaber langsigtede værdier. Med omfattende erfaring i at løse komplekse forretningsudfordringer med innovative løsninger, omfatter Martins interesser udvikling og træning af dem, der arbejder med ham, og generering af forbindelser, der skaber nye og spændende muligheder, og yder effektiv ledelse, strategisk vision og en daglig fokus på opbygning af en innovativ kultur under virksomhedens motto "Bygning succes sammen".