Connect with us

Thought leaders

Wat betekent Human-in-the-Loop eigenlijk?

mm

In het begin van de 20e eeuw bedacht de Britse filosoof Gilbert Ryle de term “ghost in the machine”. In The Concept of Mind gebruikt Ryle de metafoor om zich te verzetten tegen de dualiteit van lichaam en geest, die stelt dat lichaam en geest als afzonderlijke substanties bestaan. Voor Ryle was deze scheiding een fout, omdat cognitie en fysieke actie onlosmakelijk verbonden zijn, onderdeel van een enkel systeem in plaats van twee interactieve onderdelen.

Met de opkomst van AI ontstaat een soortgelijke metafoor wanneer we spreken over gebruikers van AI-hulpmiddelen om de productiviteit te verhogen: de vaak gebruikte “human-in-the-loop”. Als mensen en intelligente systemen nu meer dan ooit met elkaar verbonden zijn, bouwen we een naadloze fusie of creëren we een handige illusie van controle?

Startups steunen zwaar op dit concept om te praten over hun hulpmiddelen. Terwijl het zowel innovatie als geruststelling belooft, is de realiteit vaak rommeliger. Verantwoordelijkheid kan gemakkelijk diffuus worden en aansprakelijkheid moeilijker te traceren.

Terwijl AI-systemen dieper doordringen in gevoelige domeinen – van onderwijs tot oorlog – zijn de inzetten niet langer abstract. Wat betekent human-in-the-loop eigenlijk en is dit slechts een eufemisme voor wanneer ze helemaal verdwijnen?

1. Human-in-the-loop als schild voor verantwoordelijkheid

Als de term human-in-the-loop zorgeloos wordt gebruikt, kan het een gemakkelijke manier zijn om verantwoordelijkheid te verschuiven zonder er echt mee om te gaan. Zoals velen opmerken, garandeert een handtekening van een mens aan het einde van een proces geen ethische integriteit, vooral als het onderliggende systeem slecht ontworpen of onvoldoende begrepen is.

Maysa Hawwash, oprichter en CEO van Scale X, heeft geschreven over de afname van verantwoordelijkheid en is bot over de manier waarop het concept vaak wordt ingezet. “Het is eigenlijk niet ongelijk aan andere manieren van belastingsverschuiving”, zei Hawwash tegen Startup Beat, met het voorbeeld van hoe HR-managers vaak een ondertekeningsbeleid gebruiken om het bedrijf weg te halen van aansprakelijkheid. “Als je dit beleid hebt en mensen lezen het en ondertekenen het, dan is het bedrijf technisch gezien niet aansprakelijk, toch?” zei ze.

Wat naar voren komt, is een patroon dat bekend is in corporate systemen waar verantwoordelijkheid wordt verplaatst in plaats van geëlimineerd. Hawwash ziet dit als de gemakkelijke uitweg die kritisch denken of begrip van de gebieden waar het invloed kan hebben op mensen of gemeenschappen vermijdt. “Dus je verschuift de last, en dan maakt het niet uit of mensen het beleid begrijpen, het maakt niet uit of het beleid zin heeft.”

In deze context loopt “human-in-the-loop” het risico om minder over betekenisvolle interventie te gaan en meer over procedurale dekking. Het gevaar hier is niet alleen semantisch. Wanneer toezicht wordt teruggebracht tot een ondertekening, wordt de rol van de mens symbolisch in plaats van substantieel.

Hawwash verwees naar een recent militair wreedheid – de school in Minab, Iran – waar mensen een aanval goedkeurden, maar de aanwezigheid van een menselijke beslissingsnemer niet noodzakelijkerwijs ethische duidelijkheid of adequate overweging impliceerde. “Wanneer je in oorlog bent of een complexe operatie uitvoert, heb je niet de luxe van tijd om human-in-the-loop als schild te gebruiken.”

2. Ontwerpen voor verantwoordelijkheid, niet alleen toezicht

Het alternatief is niet om human-in-the-loop-systemen te verlaten, maar om ze serieus te nemen als ontwerpplichten. Dit betekent dat we verder gaan dan symbolisch toezicht naar doelgerichte verantwoordelijkheidsstructuren.

“Er is deze grote race om meer AI rechtstreeks op de markt te krijgen. Er is niet veel nagedacht over het ontwerp, zoals wat het neerwaartse effect is op gemeenschappen, op mensen of op eindgebruikers”, zei Hawwash.

Snelheid is het dominante competitieve variabele geworden. In die race wordt verantwoordelijkheid vaak uitgesteld in plaats van geïntegreerd. Het resultaat is een reactief model van ethiek waarbij het oplossen van problemen plaatsvindt na implementatie in plaats van tijdens de ontwikkeling.

Toegankelijkheid kan de adoptie versnellen, maar het leidt ook tot meer versterkte gevolgen. Systemen zijn niet langer beperkt tot technische gebruikers, omdat ze beslissingen kunnen vormen voor mensen met verschillende niveaus van begrip en context. In zo’n omgeving kan verantwoordelijkheid niet worden uitbesteed aan de eindgebruiker.

3. Human-in-the-loop als nauwkeurigheid en aansprakelijkheid

Abhay Gupta, medeoprichter van Frizzle, biedt een meer operationeel perspectief – een dat gebaseerd is op het bouwen van een systeem waarin menselijk toezicht zowel praktisch als noodzakelijk is.

Zijn bedrijf ontstond uit een specifiek probleem: overwerkte leraren. “In de stad hoor je over bankiers en consultants die 70 uur per week werken, maar je hoort niet over leraren die zo veel werken. Dus uit nieuwsgierigheid interviewden we honderden leraren en overal was het beoordelen van werk hun grootste tijdsverlies.”

Het automatiseren van beoordelingen lijkt rechttoe rechtaan, maar de complexiteit van handgeschreven wiskunde introduceert echte beperkingen voor AI. “Er is het nauwkeurigheidsprobleem. AI is niet perfect, dus we bouwden een human-in-the-loop-systeem. Als de AI niet zeker is – zoals bij rommelige handschriften – markeert het deze voor de leraar om te controleren en goed te keuren of te verwerpen.”

Hier is de rol van de mens niet alleen ornamentaal. Het systeem identificeert expliciet zijn eigen onzekerheid en routeert die gevallen naar een mens. “Voor ons gaat het om nauwkeurigheid. Er zullen altijd randgevallen zijn – misschien 1-3% – waar AI worstelt, dus een mens moet ingrijpen.”

Deze benadering herschikt human-in-the-loop als een mechanisme voor kwaliteitscontrole. Maar Gupta gaat verder: “In wezen is AI niet 100% nauwkeurig – het kan hallucineren of verkeerde uitvoer produceren. Human-in-the-loop fungeert als de laatste kwaliteitscontrole voordat resultaten de eindgebruiker bereiken. Het gaat ook om verantwoordelijkheid. Iemand moet aansprakelijk zijn voor de uitvoer, en op dit moment moet dat nog steeds een mens zijn.”

Belangrijk is dat de rol van de mens ook iets minder kwantificeerbaars behoudt: het relationele aspect van lesgeven. “Het gaat ook om het behoud van de menselijke kant van lesgeven. Leraren hebben verschillende stijlen, dus we laten hen aangepaste feedback leveren”

Herdefiniëren van Human-in-the-loop

De frase “human in the loop” draagt een geruststellende eenvoud. Het suggereert dat hoe geavanceerd onze systemen ook worden, een mens blijft in controle en we zijn niet gewoon “ghosts in the machine”. Maar terwijl startups AI steeds vaker inspannen in hoge-inzetomgevingen, vereist die geruststelling een kritische blik.

Het dieperliggende probleem is ontwerp. Als de risico’s van een systeem slecht worden begrepen of opzettelijk geminimaliseerd, doet het invoegen van een mens aan het einde weinig om fundamentele fouten te corrigeren. Cruciaal is het ook om de rol van de mens te definiëren, niet als een terugval, maar als een integraal onderdeel van de systeemoperatie. Een mens in de lus moet niet alleen het resultaat goedkeuren. Startups moeten hun personeel proberen te empoweren om ze te vormen, uit te dagen en, wanneer nodig, met autoriteit te overriden.

Arjun Harindranath is een freelance journalist gevestigd in Medellin, Colombia, die verhalen over conflict, migratie en technologie voor een wereldwijd publiek behandelt. Eerder gepubliceerde artikelen zijn onder andere Al Jazeera, TechCrunch, The Next Web en de New York Times.