Connect with us

Künstliche Intelligenz

USA sehen ersten Fall von falscher Verhaftung aufgrund eines schlechten Algorithmus

mm

Letzte Woche berichtete die New York Times über den ersten Fall einer falschen Verhaftung, die durch einen schlechten Algorithmus in den Vereinigten Staaten verursacht wurde. Der Vorfall ereignete sich in Detroit, als Robert Julian-Borchak Williams, ein afroamerikanischer Mann, verhaftet wurde, nachdem er fälschlicherweise mit einer Person identifiziert worden war, die in einer Sicherheitskameraaufnahme zu sehen war, wie sie Ladendiebstahl beging.

Die American Civil Liberties Union (ACLU) reagierte schnell und reichte eine Beschwerde gegen die Polizei von Detroit ein. Nachdem die ACLU sich für die Einstellung des Verfahrens gegen Williams und die Entfernung seiner Informationen aus den Strafdatenbanken in Detroit eingesetzt hatte, gingen die Staatsanwälte auf diese Forderungen ein.

Diese Entwicklung ist die erste ihrer Art in den Vereinigten Staaten und unterstreicht einige ernsthafte Bedenken, die weltweit mit der Verwendung von Gesichtserkennungstechnologie durch den Staat verbunden sind.

Probleme mit Gesichtserkennungssystemen

Gesichtserkennungssysteme sind bereits seit längerer Zeit umstritten und werden zunehmend zu einem Diskussionsthema unter denen, die sich um Privatsphäre und falsche Anschuldigungen sorgen.

Mit den jüngsten Protesten im ganzen Land und in vielen Teilen der Welt gegen Polizeibrutalität und Diskriminierung ist diese Kritik noch verstärkt worden.

Diese Algorithmen haben eine völlig neue Dimension in die Strafverfolgung gebracht und sind voller Fehler.

Die falsche Anschuldigung

Der Raubüberfall, bei dem Williams fälschlicherweise identifiziert wurde, fand im Oktober 2018 statt. Das Überwachungsvideo wurde im März 2019 in die Gesichtserkennungsdatenbank des Bundesstaates Michigan hochgeladen.

Williams’ Foto gelangte in eine Fotolineup, in der ein Sicherheitsbeamter Williams als denjenigen identifizierte, der das Verbrechen begangen hatte.

Laut der ACLU hat der Beamte den Raubüberfall jedoch nie persönlich miterlebt.

Im Januar erhielt Williams einen Anruf von der Polizei von Detroit, der ihn über seine Verhaftung informierte. Als er den Anruf als Scherz abtat, erschienen die Polizisten nur eine Stunde später bei seinem Zuhause.

Williams wurde dann in ein Gewahrsamszentrum gebracht, wo sein Polizeifoto, Fingerabdrücke und DNA-Proben genommen wurden, und er wurde anschließend die ganze Nacht auf der Wache festgehalten.

Was folgte, war eine Vernehmung für ein Verbrechen, das er nie begangen hatte, alles nur wegen eines fehlerhaften Erkennungssystems.

Williams’ Fall wurde zwei Wochen nach seiner Verhaftung eingestellt, aber im größeren Kontext bedeutete dieser Vorfall viel mehr und hat massive Auswirkungen auf die Privatsphäre. Mit der zunehmenden Verwendung von Gesichtserkennungssoftware durch Regierungen und Strafverfolgungsbehörden könnte dieser Fall der Beginn von schwerwiegenden Verletzungen sein, die bereits in Ländern wie China stattfinden, aber noch nicht in den USA, zumindest nicht öffentlich bekannt sind.

Eine solche Verletzung ist, dass Williams’ DNA-Probe, Polizeifoto und Fingerabdrücke jetzt alle aufgrund der Technologie aktenkundig sind. Nicht nur das, sondern auch seine Verhaftung ist aktenkundig.

Private Unternehmen und Strafverfolgung

Williams’ Fall kommt zu einem Zeitpunkt, an dem große Unternehmen wie IBM, Microsoft und Amazon ihre Gesichtserkennungstechnologie nicht mehr an Strafverfolgungsbehörden liefern.

Das erste große Unternehmen, das dies tat, war IBM, als CEO Arvind Krishna einen Brief an den Kongress schrieb, in dem er mitteilte, dass das Unternehmen keine allgemein gültige Gesichtserkennung oder Analyse-Software mehr anbieten würde. Darüber hinaus stellte das Unternehmen seine Forschung und Entwicklung dieser Technologie ein.

“IBM lehnt entschieden ab und wird nicht dulden, dass die [Gesichtserkennungstechnologie], einschließlich der Gesichtserkennungstechnologie, die von anderen Anbietern angeboten wird, für Massenüberwachung, rassistische Profilierung, Verletzungen grundlegender Menschenrechte und Freiheiten oder für einen Zweck verwendet wird, der nicht mit unseren Werten und Grundsätzen von Vertrauen und Transparenz vereinbar ist”, heißt es in dem Brief. “Wir glauben, dass es jetzt an der Zeit ist, einen nationalen Dialog über die Frage zu beginnen, ob und wie Gesichtserkennungstechnologie von inländischen Strafverfolgungsbehörden eingesetzt werden sollte.”

Amazon folgte diesem Beispiel, als es bekannt gab, dass es eine einjährige Aussetzung der Nutzung der Gesichtserkennungsplattform Rekognition durch Strafverfolgungsbehörden einführen würde.

Die Ankündigung erfolgte nur wenige Tage nach IBMs Entscheidung.

Eine der wichtigsten Arbeiten, die zu diesem Thema durchgeführt wurden, war ein 2018-Papier, das von Joy Buolamwini und Timnit Gebru co-autorisiert wurde. Buolamwini ist Forscherin am MIT Media Lab, und Gebru ist Mitglied bei Microsoft Research.

Das 2018-Papier fand heraus, dass “maschinelles Lernen-Algorithmen aufgrund von Klassen wie Rasse und Geschlecht diskriminieren können”, unter anderem.

Der Fall von Robert Julian-Borchak Williams ist extrem besorgniserregend für viele, die in den Vereinigten Staaten leben, aber es ist auch ein Indikator für das, was weltweit passiert. Die Verwendung von Gesichtserkennungstechnologie durch Regierungen und Strafverfolgungsbehörden ist gerade erst im Gange, und es gibt sehr wenig, um zu verhindern, dass sie unethisch eingesetzt wird. Ob es sich um Chinas weit verbreitete Verwendung von Gesichtserkennungstechnologie für Überwachung handelt oder um den Fall von Williams, der fälschlicherweise identifiziert wurde, in den Vereinigten Staaten, die Technologie öffnet der Weltbevölkerung ein neues Set von Verletzungen der Privatsphäre und Menschenrechte, die bisher nicht existierten.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.