talon Les États-Unis voient le premier cas d'arrestation injustifiée en raison d'un mauvais algorithme - Unite.AI
Suivez nous sur

Intelligence artificielle

Les États-Unis voient le premier cas d'arrestation injustifiée en raison d'un mauvais algorithme

Le kit de préparation mis à jour on

La semaine dernière, le New York Times a rapporté le premier cas d'arrestation injustifiée causée par un mauvais algorithme aux États-Unis. L'incident s'est produit à Detroit lorsque Robert Julian-Borchak Williams, un Afro-Américain, a été arrêté après avoir été faussement associé à des images de sécurité montrant un individu en train de commettre un vol à l'étalage. 

L'American Civil Liberties Union (ACLU) est rapidement intervenue et a porté plainte contre la police de Detroit. Après que l'ACLU ait fait pression pour que le dossier de Williams soit rejeté et que ses informations soient supprimées des bases de données criminelles de Detroit, les procureurs ont poursuivi ces actions.

Ce développement est le premier du genre aux États-Unis, et il met en lumière de sérieuses préoccupations qui commencent à surgir dans le monde entier avec l'utilisation de la technologie de reconnaissance faciale par l'État.

Problèmes avec les systèmes de reconnaissance faciale

Les systèmes de reconnaissance faciale font l'objet de controverses depuis un certain temps, devenant de plus en plus un sujet de débat parmi les personnes préoccupées par la vie privée et les fausses accusations.

Avec les récentes manifestations dans tout le pays et dans de nombreuses régions du monde contre la brutalité et la discrimination policières, cet examen n'a fait que s'intensifier. 

Ces algorithmes ont apporté un tout nouvel aspect aux forces de l'ordre et sont bourrés de failles. 

La fausse accusation

Le vol que Williams a été faussement identifié comme ayant commis a eu lieu en octobre 2018. La vidéo de surveillance a ensuite été téléchargée dans la base de données de reconnaissance faciale de l'État du Michigan en mars 2019. 

La photo de Williams a réussi à faire partie d'une série de photos, où un agent de sécurité a identifié Williams comme celui qui a commis le crime. 

Selon l'ACLU, ce garde n'a jamais été témoin du vol de première main.

En janvier, Williams a reçu un appel téléphonique du département de police de Detroit l'informant de son arrestation. Lorsqu'il a ignoré l'appel comme une farce, la police est arrivée chez lui une heure plus tard.

Williams a ensuite été emmené dans un centre de détention où il a fait prendre sa photo d'identité, ses empreintes digitales et son ADN, et il a ensuite été détenu toute la nuit au poste. 

S'en est suivi un interrogatoire pour un crime qu'il n'a jamais commis, tout cela à cause d'un système de reconnaissance défaillant.

L'affaire Williams a été rejetée deux semaines après son arrestation, mais à plus grande échelle, cet incident signifiait beaucoup plus et avait des implications massives pour la vie privée. Avec l'utilisation croissante des logiciels de reconnaissance faciale par les gouvernements et les forces de l'ordre, cette affaire pourrait être le début de violations graves, qui se sont déjà déroulées dans des pays comme la Chine mais qui n'ont pas encore atteint les États-Unis, du moins à la connaissance du public.

L'une de ces violations est que l'échantillon d'ADN, la photo d'identité et les empreintes digitales de Williams sont désormais tous enregistrés en conséquence directe de la technologie. Non seulement cela, mais son arrestation est enregistrée.

Entreprises privées et forces de l'ordre

Le cas de Williams survient alors que de grandes entreprises comme IBM, Microsoft et Amazon ont cessé de fournir leur technologie de reconnaissance faciale aux forces de l'ordre.

La première grande entreprise à le faire a été IBM lorsque le PDG Arvind Krishna a envoyé une lettre au Congrès à propos de ne propose plus de logiciel de reconnaissance ou d'analyse faciale à usage général. En plus de cela, la société a interrompu sa recherche et son développement de la technologie.

"IBM s'oppose fermement et ne tolérera pas l'utilisation de toute technologie [de reconnaissance faciale], y compris la technologie de reconnaissance faciale proposée par d'autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits et libertés fondamentaux de l'homme, ou à toute fin qui n'est pas conforme à notre valeurs et principes de confiance et de transparence », selon la lettre. "Nous pensons que le moment est venu d'entamer un dialogue national sur la question de savoir si et comment la technologie de reconnaissance faciale devrait être utilisée par les forces de l'ordre nationales."

Amazon a emboîté le pas en annonçant un moratoire d'un an pour permettre aux forces de l'ordre d'utiliser la plateforme de reconnaissance faciale Rekognition de l'entreprise. 

L'annonce est intervenue quelques jours seulement après la décision d'IBM.

L'un des travaux les plus importants réalisés sur la question de la discrimination et de la technologie de reconnaissance faciale a été un papier 2018 co-écrit par Joy Buolamwini et Timnit Gebru. Buolamwini est chercheur au MIT Media Lab et Gebru est membre de Microsoft Research. 

L’article de 2018 révèle que « les algorithmes d’apprentissage automatique peuvent faire une discrimination en fonction de classes telles que la race et le sexe », entre autres. 

Le cas de Robert Julian-Borchak Williams est extrêmement préoccupant pour de nombreuses personnes vivant aux États-Unis, mais c'est aussi un indicateur de ce qui se passe dans le monde entier. L'utilisation de la technologie de reconnaissance faciale par les gouvernements et les organismes d'application de la loi ne fait que décoller, et il y a très peu de choses en place pour empêcher qu'elle ne soit utilisée de manière contraire à l'éthique. Qu'il s'agisse de l'utilisation généralisée par la Chine de la technologie de reconnaissance faciale pour la surveillance ou du cas de Williams faussement identifié aux États-Unis, la technologie ouvre la population mondiale à un ensemble de nouvelles violations de la vie privée et des droits de l'homme qui n'existaient pas auparavant.

 

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.