Connect with us

Tankeledare

Vad Betyder Egentligen Human-in-the-Loop?

mm

I början av 1900-talet myntade den brittiske filosofen Gilbert Ryle begreppet “spöke i maskinen”. I sin skrift The Concept of Mind använde Ryle metaforen för att motsätta sig dualismen mellan kropp och själ, som hävdar att kropp och själ existerar som separata substanser. För Ryle var denna uppdelning ett misstag, eftersom kognition och fysisk handling var oupplösligt sammanflätade, en del av ett enda system snarare än två interagerande delar.

Med framväxten av AI har en liknande metafor nu uppstått när man talar om användare av AI-verktyg för att öka produktiviteten: det ofta använda “human-in-the-loop”. Om människor och intelligenta system nu är mer sammanflätade än någonsin, bygger vi då en sömlös fusion eller skapar vi en bekväm illusion av kontroll?

Startups litar tungt på detta koncept för att tala om sina verktyg. Medan det lovar både innovation och trygghet, är verkligheten ofta mer komplicerad. Ansvar kan lätt bli diffust och ansvarsskyldighet svårare att spåra.

När AI-system går djupare in i känsliga områden – från utbildning till krig – är insatserna inte längre abstrakta. Vad betyder human-in-the-loop egentligen och är detta bara en eufemism för när de försvinner helt?

1. Human-in-the-loop som sköld för ansvar

Används slarvigt, kan begreppet human-in-the-loop vara ett enkelt sätt att skifta ansvar utan att verkligen engagera sig i det. Många har noterat att en människas signatur i slutet av en process inte garanterar etisk integritet, särskilt om det underliggande systemet är dåligt utformat eller otillräckligt förstått.

Maysa Hawwash, grundare och VD för Scale X, har skrivit om glidningen från ansvar och är öppen om hur konceptet ofta används. “Det är faktiskt inte så olikt andra sätt att skifta bördan”, sa Hawwash till Startup Beat och använde exemplet med hur HR-chefer ofta använder en signaturpolicy för att flytta företaget bort från ansvar. “Om du har denna policy och människor läser den och godkänner den, då är företaget inte längre ansvarigt, eller hur?” sa hon.

Vad som framkommer är ett mönster som är bekant över hela företagssystem, där ansvar flyttas snarare än elimineras. Hawwash ser detta som en lättsinnig utväg som undviker kritiskt tänkande eller förståelse för de områden där det kan påverka människor eller samhällen. “Så du flyttar bördan, och sedan spelar det ingen roll om människor förstår policyn, det spelar ingen roll om policyn är meningsfull.”

I denna ram, riskerar “human-in-the-loop” att bli mindre om meningsfullt ingripande och mer om procedurellt skydd. Faran här är inte bara semantisk. När tillsyn reduceras till en signatur, blir den mänskliga rollen symbolisk snarare än substantiell.

Hawwash hänvisade till en nylig militär grymhet – skolan i Minab, Iran – där människor godkände ett angrepp, men närvaron av en mänsklig beslutsfattare innebar inte nödvändigtvis etisk tydlighet eller tillräcklig eftertanke. “När du är i krig eller genomför en komplex operation, har du inte lyxen att använda human-in-the-loop som sköld.”

2. Att forma ansvar, inte bara tillsyn

Alternativet är inte att överge human-in-the-loop-system, utan att ta dem på allvar som designåtaganden. Detta innebär att gå bortom symbolisk tillsyn mot medvetna ansvarsstrukturer.

“Det finns en stor kapplöpning för att få mer AI rätt ut på marknaden. Det finns inte mycket tanke bakom, ur ett designperspektiv, vad den nedströmsverkande effekten är på samhällen, på människor eller på slutanvändare”, sa Hawwash.

Hastighet har blivit den dominerande konkurrensfaktorn. I den kapplöpningen, skjuts ansvar ofta upp snarare än införs. Resultatet är en reaktiv modell för etik, där man åtgärdar problem efter distribution snarare än under utveckling.

Tillgänglighet kan påskynda antagandet, men det leder också till mer förstärkta konsekvenser. System är inte längre begränsade till tekniska användare, eftersom de kan forma beslut för människor med varierande nivåer av förståelse och kontext. I en sådan miljö, kan ansvar inte utkontrakteras till slutanvändaren.

3. Human-in-the-loop som noggrannhet och ansvarsskyldighet

Abhay Gupta, medgrundare av Frizzle, erbjuder ett mer operativt perspektiv – ett som grundar sig i att bygga ett system där mänsklig tillsyn är både praktisk och nödvändig.

Hans företag uppstod ur ett specifikt problem: överarbetade lärare. “I staden hör man talas om bankirer och konsulter som arbetar 70 timmar i veckan, men man hör inte talas om lärare som arbetar så mycket. Så av nyfikenhet intervjuade vi hundratals lärare och över hela linjen var betygsättning deras största tidsåtgång.”

Att automatisera betygsättning kan tyckas enkelt, men komplexiteten i handskrivna matematikproblem introducerar verkliga begränsningar för AI. “Det finns noggrannhetsproblemet. AI är inte perfekt, så vi byggde ett human-in-the-loop-system. Om AI inte är säker – som med otydligt handstil – flaggar det för läraren att granska och godkänna eller avvisa.”

Här är den mänskliga rollen inte bara utsmyckning. Systemet identifierar explicit sin egen osäkerhet och skickar dessa fall till en människa. “För oss handlar det om noggrannhet. Det kommer alltid att finnas undantagsfall – kanske 1-3% – där AI kämpar, så en människa måste träda in.”

Detta tillvägagångssätt omformar human-in-the-loop till en mekanism för kvalitetskontroll. Men Gupta driver det vidare: “I sin kärna är AI inte 100% noggrann – den kan hallucinera eller producera felaktiga utdata. Human-in-the-loop fungerar som den slutliga kvalitetskontrollen innan resultaten når slutanvändaren. Det handlar också om ansvar. Någon måste vara ansvarig för utdata, och just nu måste det fortfarande vara en människa.”

Viktigt är också att den mänskliga rollen bevarar något mindre kvantifierbart: den relationella aspekten av undervisning. “Det handlar också om att bevara den mänskliga sidan av undervisning. Lärare har olika stilar, så vi låter dem anpassa hur feedback levereras”

Omdefiniera Human-in-the-loop

Uttrycket “human in the loop” bär en tilltalande enkelhet. Det antyder att oavsett hur avancerade våra system blir, så förblir en människa i kontroll och vi är inte bara “spöken i maskinen”. Men när startups alltmer använder AI i högriskmiljöer, kräver den tryggheten granskning.

Det djupare problemet är design. Om ett systems risker är dåligt förstådda eller medvetet minimaliserade, så gör det lite för att korrigera grundläggande fel när en människa införs i slutet. Det är också viktigt att definiera den mänskliga rollen, inte som en reserv, utan som en integrerad del av systemets drift. En människa i loopen bör inte bara godkänna resultatet. Startups bör sträva efter att ge sina anställda möjlighet att forma dem, utmana dem och, när det är nödvändigt, åsidosätta dem med auktoritet.

Arjun Harindranath är en frilansjournalist baserad i Medellin, Colombia, som täcker berättelser om konflikt, migration och teknik för en global publik. Tidigare artiklar inkluderar Al Jazeera, TechCrunch, The Next Web och New York Times.