Vernetzen Sie sich mit uns

Ethik

AI Ethics Coalition verurteilt Algorithmen zur Kriminalitätsvorhersage

mm

Am Dienstag eine Reihe von KI-Forschern, Ethikern, Datenwissenschaftlern und Sozialwissenschaftlern hat einen Blog-Beitrag veröffentlicht Er argumentiert, dass akademische Forscher aufhören sollten, Forschung zu betreiben, die darauf abzielt, die Wahrscheinlichkeit vorherzusagen, dass eine Person eine Straftat begehen wird, und zwar auf der Grundlage von Variablen wie Kriminalitätsstatistiken und Gesichtsscans.

Der Blogbeitrag wurde von der Coalition for Critical Technology verfasst, die argumentierte, dass der Einsatz solcher Algorithmen einen Kreislauf von Vorurteilen gegenüber Minderheiten fortsetzt. Viele Studien zur Wirksamkeit von Gesichtserkennungs- und prädiktiven Polizeialgorithmen kommen zu dem Ergebnis, dass die Algorithmen dazu neigen, Minderheiten härter zu beurteilen, was nach Ansicht der Autoren des Blogbeitrags auf die Ungleichheiten im Strafjustizsystem zurückzuführen ist. Das Justizsystem produziert verzerrte Daten, und daher verbreiten die auf diesen Daten trainierten Algorithmen diese Verzerrungen, argumentiert die Coalition for Critical Technology. Die Koalition argumentiert, dass der Begriff „Kriminalität“ oft auf der Rasse basiert und dass die Forschung zu diesen Technologien daher von der Neutralität der Algorithmen ausgeht, obwohl eine solche Neutralität in Wahrheit nicht existiert.

Wie The Verge berichtet, ein großer Verlag für wissenschaftliche Werke, Springer, plante die Veröffentlichung einer Studie mit dem Titel „A Deep Neural Network Model to Predict Criminality using Image Processing“. Die Autoren der Studie behaupteten, einen Gesichtserkennungsalgorithmus entwickelt zu haben, der in der Lage sei, die Wahrscheinlichkeit, dass eine Person ein Verbrechen begehen würde, unvoreingenommen und mit einer Genauigkeit von etwa 80 % vorherzusagen. Dennoch hat die Coalition for Critical Technology einen offenen Brief an Springer verfasst, in dem sie den Verlag auffordert, die Studie oder zukünftige Studien mit ähnlicher Forschung nicht zu veröffentlichen.

„Die Verbreitung dieses Werks durch einen großen Verlag wie Springer wäre ein bedeutender Schritt zur Legitimation und Anwendung immer wieder entlarvter, gesellschaftsschädlicher Forschung in der realen Welt“, argumentiert die Koalition.

Springer erklärte, dass das Papier nicht veröffentlicht werde. wie von MIT Technology Review berichtet. Springer gab an, dass das Papier für eine bevorstehende Konferenz eingereicht wurde, aber nach dem Peer-Review-Verfahren wurde das Papier zur Veröffentlichung abgelehnt.

Die Coalition for Critical Technology argumentiert, dass das Papier zur Kriminalitätsvorhersage nur ein einzelnes Beispiel für einen größeren, schädlichen Trend ist, bei dem KI-Ingenieure und -Forscher versuchen, Verhalten auf der Grundlage von Daten vorherzusagen, die aus sensiblen, sozial konstruierten Variablen bestehen. Die Koalition argumentiert außerdem, dass ein Großteil der Forschung auf wissenschaftlich zweifelhaften Ideen und Theorien basiert, die nicht durch die verfügbaren Beweise in Biologie und Psychologie gestützt werden. Als Beispiel Forscher aus Princeton und Google veröffentlichte einen Artikel Warnung, dass Algorithmen, die behaupten, Kriminalität anhand von Gesichtsmerkmalen vorhersagen zu können, auf diskreditierten und gefährlichen Pseudowissenschaften wie der Physiognomie basieren. Die Forscher warnten davor, maschinelles Lernen dazu zu nutzen, längst entlarvte Theorien zur Unterstützung rassistischer Systeme wiederzubeleben.

Die jüngste Dynamik der Black-Lives-Matter-Bewegung hat viele Unternehmen, die Gesichtserkennungsalgorithmen einsetzen, dazu veranlasst, den Einsatz dieser Systeme neu zu bewerten. Untersuchungen haben ergeben, dass diese Algorithmen häufig voreingenommen sind und auf nicht repräsentativen, voreingenommenen Trainingsdaten basieren.

Die Unterzeichner des Schreibens plädieren nicht nur dafür, dass KI-Forscher auf Forschung zu Algorithmen zur Kriminalitätsvorhersage verzichten sollten, sondern empfehlen den Forschern auch, die Art und Weise, wie der Erfolg von KI-Modellen beurteilt wird, neu zu bewerten. Die Koalitionsmitglieder empfehlen, dass die gesellschaftliche Wirkung von Algorithmen zusätzlich zu Maßstäben wie Präzision, Rückruf und Genauigkeit ein Maßstab für den Erfolg sein sollte. Wie die Autoren des Papiers schreiben:

„Wenn maschinelles Lernen den in Förderanträgen und Pressemitteilungen angepriesenen ‚sozialen Nutzen‘ bringen soll, müssen Forscher in diesem Bereich aktiv über die Machtstrukturen (und die damit einhergehende Unterdrückung) nachdenken, die ihre Arbeit ermöglichen.“

Blogger und Programmierer mit Spezialisierung auf Maschinelles lernen und Tiefes Lernen Themen. Daniel hofft, anderen dabei zu helfen, die Macht der KI für das soziale Wohl zu nutzen.