talon Les principes d'éthique de l'IA font l'objet d'une méta-analyse, les droits de l'homme sont soulignés - Unite.AI
Suivez nous sur

Ethique

Les principes d'éthique de l'IA font l'objet d'une méta-analyse, les droits de l'homme sont soulignés

mm

Publié le

 on

En 2019, l'accent a été mis plus que jamais sur l'éthique de l'IA. Cependant, une grande partie de cette discussion semblait floue, sans approche codifiée. Au lieu de cela, différentes entreprises ont créé leurs propres cadres et politiques concernant l'éthique de l'IA. Il est important d'avoir un consensus sur les questions d'éthique de l'IA, car cela aide les décideurs à créer et à ajuster les politiques, et cela éclaire également le travail effectué par les chercheurs et les universitaires. Au-delà de cela, les entreprises d'IA doivent savoir où se situent les limites éthiques si elles espèrent éviter une mise en œuvre contraire à l'éthique de l'IA. Afin de créer une meilleure image des tendances en matière d'éthique de l'IA, comme le rapporte VentureBeats, le Berkman Klein Center de l'Université de Harvard réalisé une méta-analyse des divers principes et cadres éthiques existants en matière d'IA.

Selon les auteurs de l'analyse, les chercheurs voulaient comparer les principes côte à côte pour rechercher les chevauchements et les divergences. Jessica Fjeld, directrice adjointe de la Harvard Law School Cyberlaw Clinic, a expliqué que l'équipe de recherche voulait "découvrir l'élan caché d'une conversation mondiale fracturée autour de l'avenir de l'IA, ce qui a abouti à ce livre blanc et à la visualisation des données associées".

Au cours de l'analyse, l'équipe a examiné 36 documents différents sur les principes de l'IA provenant du monde entier et provenant de nombreux types d'organisations différents. Les résultats de la recherche ont révélé qu'il y avait huit thèmes qui continuaient à apparaître dans les nombreux documents.

La confidentialité et la responsabilité étaient deux des thèmes éthiques les plus courants, tout comme la sûreté/sécurité de l'IA. La transparence/l'explicabilité était également un objectif fréquemment cité, avec de nombreuses tentatives pour rendre les algorithmes plus explicables au cours de l'année 2019. L'équité/la non-discrimination était un autre point focal éthique, reflétant les préoccupations croissantes concernant la partialité des données. Assurer le contrôle humain de la technologie et ne pas céder le pouvoir de décision à l'IA a également été fortement mentionné. La responsabilité professionnelle était le septième thème commun relevé par les chercheurs. Enfin, les chercheurs ont trouvé une mention continue de la promotion des valeurs humaines dans la documentation sur l'éthique de l'IA qu'ils ont examinée.

L'équipe de recherche a donné des ventilations qualitatives et quantitatives de la façon dont ces thèmes se sont manifestés dans la documentation sur l'éthique de l'IA dans leur article et dans un document d'accompagnement. Localisation. La carte affiche où chacun des thèmes a été mentionné.

L'équipe de recherche a noté qu'une grande partie de la discussion sur l'éthique de l'IA tournait autour de la préoccupation pour les valeurs et les droits humains. Comme le note le document de recherche :

« 64 % de nos documents contenaient une référence aux droits de l'homme, et cinq documents [14 %] prenaient les droits de l'homme internationaux comme cadre de leur effort global ».

Les références aux droits et valeurs de l'homme étaient plus courantes dans les documents produits par des groupes du secteur privé et des groupes de la société civile. Cela indique que les entreprises du secteur privé de l'IA ne sont pas uniquement préoccupées par les profits, mais par la production d'IA de manière éthique. Pendant ce temps, les agences gouvernementales semblent moins préoccupées ou conscientes de l'éthique de l'IA dans l'ensemble, avec moins de la moitié des documents liés à l'IA provenant d'agences gouvernementales se rapportant à l'éthique de l'IA.

Les chercheurs ont également noté que si les documents qu'ils ont examinés étaient plus récents, ils étaient plus susceptibles d'aborder les huit thèmes les plus importants au lieu de seulement quelques-uns. Ce fait implique que les idées derrière ce qui constitue une utilisation éthique de l'IA commencent à fusionner parmi ceux qui mènent la discussion sur l'éthique de l'IA. Enfin, les chercheurs affirment que le succès de ces principes dans l'orientation du développement de l'IA dépendra de leur degré d'intégration dans la communauté du développement de l'IA dans son ensemble. Les chercheurs déclarent dans le document:

« De plus, les principes sont un point de départ pour la gouvernance, pas une fin. En soi, un ensemble de principes a peu de chances d'être plus que légèrement persuasif. Son impact dépendra probablement de la manière dont il s'intègre dans un écosystème de gouvernance plus large, y compris, par exemple, les politiques pertinentes (par exemple, les plans nationaux d'IA), les lois, les réglementations, mais aussi les pratiques professionnelles et les routines quotidiennes.