Connect with us

Was bedeutet Human-in-the-Loop eigentlich?

Vordenker

Was bedeutet Human-in-the-Loop eigentlich?

mm

Im frühen 20. Jahrhundert prägte der britische Philosoph Gilbert Ryle den Begriff “Geist in der Maschine”. In seinem Werk The Concept of Mind verwendete Ryle die Metapher, um sich gegen den Dualismus von Geist und Körper zu wehren, der besagt, dass Geist und Körper als separate Substanzen existieren. Für Ryle war diese Trennung ein Fehler, da Kognition und physische Aktion untrennbar seien und Teil eines einzigen Systems und nicht zwei interagierender Teile.

Mit dem Aufkommen von KI entsteht eine ähnliche Metapher, wenn man über die Benutzer von KI-Tools zur Steigerung der Produktivität spricht: die oft verwendete “Human-in-the-Loop”. Wenn Menschen und intelligente Systeme nun engmaschiger verbunden sind als je zuvor, bauen wir eine nahtlose Fusion oder schaffen wir eine bequeme Illusion der Kontrolle?

Startups stützen sich stark auf dieses Konzept, um über ihre Tools zu sprechen. Während es sowohl Innovation als auch Beruhigung verspricht, ist die Realität oft verwirrender. Die Verantwortung kann leicht diffus werden und die Rechenschaftspflicht ist schwieriger zu verfolgen.

Wenn KI-Systeme tiefer in sensible Bereiche eindringen – von der Bildung bis zum Krieg – sind die Einsätze nicht länger abstrakt. Was bedeutet Human-in-the-Loop eigentlich und ist dies nur ein Euphemismus dafür, wenn sie vollständig verschwinden?

1. Human-in-the-Loop als Schild für Verantwortung

Wenn der Begriff Human-in-the-Loop sorglos verwendet wird, kann er eine einfache Möglichkeit sein, die Verantwortung zu verschieben, ohne sich wirklich damit auseinanderzusetzen. Wie viele bemerken, garantiert eine menschliche Unterschrift am Ende eines Prozesses nicht unbedingt ethische Integrität, insbesondere wenn das zugrunde liegende System schlecht konzipiert oder unzureichend verstanden ist.

Maysa Hawwash, Gründerin und CEO von Scale X, hat geschrieben über den Rückzug von der Verantwortung und ist offen über die Art und Weise, wie das Konzept oft eingesetzt wird. “Es ist eigentlich nicht unähnlich anderen Formen der Verantwortungsverschiebung”, sagte Hawwash gegenüber Startup Beat und verwies auf das Beispiel, wie HR-Manager oft eine Genehmigungsrichtlinie verwenden, um das Unternehmen von der Haftung zu befreien. “Wenn Sie diese Richtlinie haben und die Leute lesen sie und genehmigen sie, dann ist das Unternehmen technisch gesehen nicht haftbar, richtig?”, sagte sie.

Was herauskommt, ist ein Muster, das in korporativen Systemen vertraut ist, in denen die Verantwortung verlagert und nicht eliminiert wird. Hawwash sieht dies als den faulen Weg, der kritisches Denken oder das Verständnis der Bereiche, in denen es Menschen oder Gemeinschaften beeinflussen kann, vermeidet. “Sie verlagern also die Last und es spielt keine Rolle, ob die Leute die Richtlinie verstehen, es spielt keine Rolle, ob die Richtlinie Sinn ergibt.”

In dieser Darstellung riskiert “Human-in-the-Loop”, weniger über sinnvolle Intervention und mehr über prozedurale Abdeckung zu sein. Die Gefahr liegt nicht nur in der Semantik. Wenn die Aufsicht auf eine Genehmigung reduziert wird, wird die menschliche Rolle symbolisch und nicht substantiell.

Hawwash verwies auf ein jüngstes militärisches Verbrechen – die Schule in Minab, Iran – wo Menschen einen Angriff genehmigten, aber die Anwesenheit eines menschlichen Entscheidungsträgers nicht unbedingt ethische Klarheit oder angemessene Abwägung bedeutete. “Wenn Sie im Krieg sind oder eine komplexe Operation durchführen, haben Sie nicht die Luxus der Zeit, um Human-in-the-Loop als Schild zu verwenden.”

2. Designen für Verantwortung, nicht nur für Aufsicht

Die Alternative besteht nicht darin, Human-in-the-Loop-Systeme aufzugeben, sondern sie ernst zu nehmen als Designverpflichtungen. Dies bedeutet, über symbolische Aufsicht hinaus zu gehen und absichtliche Verantwortungsstrukturen zu schaffen.

“Es gibt diesen großen Wettlauf, um mehr KI auf den Markt zu bringen. Es gibt nicht viel Nachdenken aus einer Design-Perspektive, wie die nachgelagerten Auswirkungen auf Gemeinschaften, auf Menschen oder auf Endbenutzer sind”, sagte Hawwash.

Geschwindigkeit ist zur dominanten Wettbewerbsvariable geworden. In diesem Wettlauf wird die Verantwortung oft aufgeschoben und nicht eingebettet. Das Ergebnis ist ein reaktives Modell der Ethik, bei dem die Behebung von Problemen nach der Bereitstellung und nicht während der Entwicklung erfolgt.

Die Zugänglichkeit kann die Adoption beschleunigen, aber sie führt auch zu verstärkten Konsequenzen. Systeme sind nicht länger auf technische Benutzer beschränkt, da sie Entscheidungen für Menschen mit unterschiedlichem Verständnis und Kontext beeinflussen können. In einer solchen Umgebung kann die Verantwortung nicht an den Endbenutzer ausgelagert werden.

3. Human-in-the-Loop als Genauigkeit und Rechenschaftspflicht

Abhay Gupta, Mitgründer von Frizzle, bietet eine operativere Perspektive – eine, die auf dem Aufbau eines Systems basiert, in dem menschliche Aufsicht praktisch und notwendig ist.

Sein Unternehmen entstand aus einem spezifischen Problem: überarbeitete Lehrer. “In der Stadt hört man von Bankern und Beratern, die 70 Stunden pro Woche arbeiten, aber man hört nicht von Lehrern, die so viel arbeiten. Also interviewten wir aus Neugier heraus Hunderte von Lehrern und überall war das Korrigieren ihre größte Zeitaufwendung.”

Die Automatisierung der Korrektur mag einfach erscheinen, aber die Komplexität von handschriftlichem Mathematik introduziert reale Einschränkungen für KI. “Es gibt das Genauigkeitsproblem. KI ist nicht perfekt, also bauten wir ein Human-in-the-Loop-System. Wenn die KI nicht sicher ist – wie bei unleserlichem Handschrift – flaggt sie es für den Lehrer zur Überprüfung und Genehmigung oder Ablehnung.”

Hier ist die menschliche Rolle nicht nur ornamentell. Das System identifiziert explizit seine eigene Unsicherheit und leitet diese Fälle an einen Menschen weiter. “Für uns geht es um Genauigkeit. Es wird immer Randfälle geben – vielleicht 1-3% – in denen KI Schwierigkeiten hat, also muss ein Mensch eingreifen.”

Dieser Ansatz umdefiniert Human-in-the-Loop als Mechanismus für Qualitätskontrolle. Aber Gupta geht weiter: “Im Kern ist KI nicht 100% genau – es kann halluzinieren oder falsche Ausgaben produzieren. Human-in-the-Loop fungiert als finale Qualitätsprüfung, bevor die Ergebnisse den Endbenutzer erreichen. Es geht auch um Verantwortung. Jemand muss für die Ausgabe verantwortlich sein, und im Moment muss dies noch ein Mensch sein.”

Wichtig ist, dass die menschliche Rolle auch etwas weniger Quantifizierbares bewahrt: den relationalen Aspekt des Unterrichtens. “Es geht auch darum, die menschliche Seite des Unterrichtens zu bewahren. Lehrer haben unterschiedliche Stile, also lassen wir sie die Art und Weise anpassen, wie Feedback geliefert wird”

Umdefinieren von Human-in-the-Loop

Der Begriff “Human-in-the-Loop” trägt eine beruhigende Einfachheit. Er suggeriert, dass unabhängig davon, wie fortschrittlich unsere Systeme werden, ein Mensch in der Kontrolle bleibt und wir nicht einfach “Geister in der Maschine” sind. Aber da Startups zunehmend KI in hochriskanten Umgebungen einsetzen, verlangt diese Beruhigung nach einer Prüfung.

Das tiefer liegende Problem ist das Design. Wenn die Risiken eines Systems schlecht verstanden oder absichtlich minimiert werden, hilft das Einfügen eines Menschen am Ende wenig, um grundlegende Mängel zu korrigieren. Wesentlich ist es auch, die Rolle des Menschen nicht als Rückfall, sondern als integralen Teil des Systembetriebs zu definieren. Ein Mensch in der Schleife sollte nicht nur das Ergebnis genehmigen. Startups sollten danach streben, ihr Personal zu befähigen, sie zu formen, sie in Frage zu stellen und sie bei Bedarf mit Autorität außer Kraft zu setzen.

Arjun Harindranath ist ein freiberuflicher Journalist mit Sitz in Medellin, Kolumbien, der für ein globales Publikum über Konflikte, Migration und Technologie berichtet. Frühere Veröffentlichungen umfassen Al Jazeera, TechCrunch, The Next Web und die New York Times.