Tankeledere
Hvad betyder Human-in-the-Loop egentlig?

I begyndelsen af det 20. århundrede myntede den britiske filosof Gilbert Ryle begrebet “ghost in the machine”. I sin bog The Concept of Mind brugte Ryle metaforen til at kritisere dualismen mellem krop og sjæl, der fastholder, at krop og sjæl eksisterer som separate substanser. For Ryle var denne opdeling en fejl, da kognition og fysisk handling var uadskillelige, en del af et enkelt system snarere end to interagerende dele.
Med opkomsten af AI opstår en lignende metafor, når man taler om brugere af AI-værktøjer til at øge produktiviteten: den ofte brugte “human-in-the-loop”. Hvis mennesker og intelligente systemer nu er mere sammenflettede end nogensinde, bygger vi så en sammenhængende fusion eller skaber vi en bekvem illusion af kontrol?
Startups læner tungt på dette begreb for at tale om deres værktøjer. Mens det lover både innovation og beroligelse, er virkeligheden ofte mere kompliceret. Ansvar kan let blive diffust, og ansvarlighed kan være sværere at spore.
Da AI-systemer bevæger sig dybere ind i følsomme domæner – fra uddannelse til krig – er indsatsen ikke længere abstrakt. Hvad betyder human-in-the-loop egentlig, og er dette bare en eufemisme for, når de forsvinder helt?
1. Human-in-the-loop som skjold for ansvar
Brugt uden omhu kan begrebet human-in-the-loop være en let måde at flytte ansvar uden rigtigt at engagere sig i det. Som mange har bemærket, garanterer en menneskelig underskrift ved slutningen af en proces ikke nødvendigvis etisk integritet, især hvis det underliggende system er dårligt designed eller utilstrækkeligt forstået.
Maysa Hawwash, grundlægger og administrerende direktør for Scale X, har skrevet om gliden væk fra ansvar og er åben om, hvordan begrebet ofte bruges. “Det er faktisk ikke uligt andre måder at flytte byrden på”, sagde Hawwash til Startup Beat og brugte eksemplet på, hvordan HR-chefer ofte bruger en godkendelsespolitik til at flytte virksomheden væk fra ansvar. “Hvis du har denne politik, og folk læser den og godkender den, så er virksomheden teknisk set ikke ansvarlig, right?” sagde hun.
Det, der opstår, er et mønster, der er velkendt på tværs af virksomhedssystemer, hvor ansvar flyttes snarere end elimineres. Hawwash ser dette som den lave vej, der undgår kritisk tænkning eller forståelse af de områder, hvor det kan påvirke mennesker eller samfund. “Så du flytter byrden, og så betyder det ikke, om folk forstår politiken, det betyder ikke, om politiken giver mening”.
I denne ramme kan “human-in-the-loop” risikere at blive mindre om meningsfuld indgriben og mere om procedurereligt dække. Farens her er ikke kun semantisk. Når oversigt reduceres til en godkendelse, bliver den menneskelige rol symbolsk snarere end substansiel.
Hawwash henviser til en recent militær forbrydelse – skolen i Minab, Iran – hvor mennesker godkendte et angreb, men tilstedeværelsen af en menneskelig beslutningstager betød ikke nødvendigvis etisk klarethed eller tilstrækkelig overvejelse. “Når du er i krig eller udfører en kompleks operation, har du ikke luksus til at bruge human-in-the-loop som skjold”.
2. Design til ansvar, ikke kun oversigt
Alternativet er ikke at opgive human-in-the-loop-systemer, men at tage dem alvorligt som designforpligtelser. Dette betyder at gå ud over symbolsk oversigt mod bevidste ansvarsstrukturer.
“Der er denne store kapløb for at få mere AI ret til markedet. Der er ikke meget tænkning igennem fra et designperspektiv, som hvad den nedadgående effekt er på samfund, på mennesker eller på slutbrugere”, sagde Hawwash.
Hastighed er blevet den dominerende konkurrencemæssige variabel. I dette kapløb bliver ansvar ofte udskudt snarere end integreret. Resultatet er en reaktiv model for etik, hvor løsning af problemer sker efter udrulning snarere end under udvikling.
Tilgængelighed kan accelerere adoption, men det fører også til mere forstærkede konsekvenser. Systemer er ikke længere begrænset til tekniske brugere, da de kan forme beslutninger for mennesker med varierende niveauer af forståelse og kontekst. I en sådan omgang kan ansvar ikke uddelegeres til slutbrugeren.
3. Human-in-the-loop som nøjagtighed og ansvarlighed
Abhay Gupta, medstifter af Frizzle, tilbyder et mere operationelt perspektiv – et, der er grundlagt i opbygning af et system, hvor menneskelig oversigt er både praktisk og nødvendig.
Hans virksomhed opstod af et specifikt problem: overarbejdede lærere. “I byen hører du om bankfolk og konsulenter, der arbejder 70 timer om ugen, men du hører ikke om lærere, der arbejder så meget. Så ud af nysgerrighed interviewede vi hundredvis af lærere, og tværs over brættet var karaktergivning deres største tidsfordriv”.
Automatisering af karaktergivning kan synes ligetil, men kompleksiteten af håndskrevne matematiske opgaver introducerer reelle begrænsninger for AI. “Der er nøjagtighedsproblemet. AI er ikke perfekt, så vi byggede et human-in-the-loop-system. Hvis AI ikke er sikker – som med uordentligt håndskrift – markerer det det for læreren til gennemsyn og godkendelse eller afvisning”.
Her er den menneskelige rol ikke kun udsmykning. Systemet identificerer explicit sin egen usikkerhed og sender disse tilfælde til en menneskelig. “For os handler det om nøjagtighed. Der vil altid være kanttilfælde – måske 1-3% – hvor AI kæmper, så en menneskelig skal træde ind”.
Dette tilgang reframer human-in-the-loop som en mekanisme for kvalitetskontrol. Men Gupta går videre: “I sin kerne er AI ikke 100% nøjagtig – det kan hallucinere eller producere forkerte outputs. Human-in-the-loop fungerer som den endelige kvalitetskontrol, før resultaterne når slutbrugeren. Det handler også om ansvar. Nogen skal være ansvarlig for output, og lige nu skal det stadig være en menneskelig”.
Vigtigt er, at den menneskelige rol også bevare noget mindre kvantificerbart: den relationelle aspekt af undervisning. “Det handler også om at bevare den menneskelige side af undervisning. Lærere har forskellige stilarter, så vi lader dem tilpasse, hvordan feedback leveres”
Omdefinering af Human-in-the-loop
Udtrykket “human in the loop” bærer en beroligende enkelhed. Det antyder, at uanset hvor avancerede vores systemer bliver, er en menneskelig stadig i kontrol, og vi er ikke bare “ghosts in the machine”. Men da startups i stigende grad udruller AI i højrisikområder, kræver denne beroligelse en kritisk gennemgang.
Det dybere problem er design. Hvis et systems risici er dårligt forstået eller bevidst minimiseret, gør indsættelse af en menneskelig i slutningen kun lidt for at korrigere grundlæggende fejl. Det betyder også, at den menneskelige rol defineres ikke som en reserve, men som en integreret del af systemets drift. En menneskelig i løkken skal ikke kun godkende resultaterne. Startups skal søge at empower deres medarbejdere til at forme dem, udfordre dem og, når nødvendigt, omgøre dem med autoritet.












