Des leaders d'opinion
Comment opérationnaliser l'éthique de l'IA ?

L'IA consiste à optimiser les processus, pas à en éliminer les humains. La responsabilité reste cruciale dans l'idée générale que l'IA peut remplacer les humains. Alors que la technologie et les systèmes automatisés nous ont aidés à obtenir de meilleurs résultats économiques au cours du siècle dernier, peuvent-ils vraiment remplacer les services, la créativité et les connaissances approfondies ? Je crois toujours qu'ils ne le peuvent pas, mais ils peuvent optimiser le temps passé à développer ces zones.
La responsabilité repose fortement sur les droits de propriété intellectuelle, prévoyant l'impact de la technologie sur les droits collectifs et individuels, et garantissant la sécurité et la protection des données utilisées dans la formation et le partage tout en développant de nouveaux modèles. Alors que nous continuons à progresser dans la technologie, le sujet de l'éthique de l'IA est devenu de plus en plus pertinent. Cela soulève des questions importantes sur la manière dont nous réglementons et intégrons l'IA dans la société tout en minimisant les risques potentiels.
Je travaille en étroite collaboration avec un aspect de l'IA : le clonage vocal. La voix est un élément important de l'image d'un individu et des données biométriques utilisées pour former les modèles vocaux. La protection de l'image (questions juridiques et politiques), la sécurisation des données vocales (politiques de confidentialité et cybersécurité) et la définition des limites des applications de clonage vocal (questions éthiques mesurant l'impact) sont des éléments essentiels à prendre en compte lors du développement du produit.
Nous devons évaluer l'adéquation de l'IA aux normes et valeurs de la société. L'IA doit être adaptée au cadre éthique existant, en veillant à ne pas imposer de risques supplémentaires ni à menacer les normes sociétales établies. L'impact de la technologie touche des domaines où l'IA renforce un groupe d'individus tout en en éliminant d'autres. Ce dilemme existentiel se pose à chaque étape de notre développement et de la croissance ou du déclin de notre société. L'IA peut-elle introduire davantage de désinformation dans les écosystèmes informationnels ? Oui. Comment gérer ce risque au niveau du produit et comment sensibiliser les utilisateurs et les décideurs politiques à ce sujet ? Les réponses ne résident pas dans les dangers de la technologie elle-même, mais dans la manière dont nous la présentons dans les produits et services. Si les équipes produit ne disposent pas de suffisamment de ressources humaines pour analyser l'impact de la technologie, nous resterons bloqués dans un cycle de réparations incessantes.
L'intégration de l'IA dans les produits soulève des questions sur la sécurité des produits et la prévention des dommages liés à l'IA. Le développement et la mise en œuvre de l'IA doivent donner la priorité aux considérations de sécurité et d'éthique, ce qui nécessite l'allocation de ressources aux équipes concernées.
Pour faciliter la discussion émergente sur l'opérationnalisation de l'éthique de l'IA, je suggère ce cycle de base pour rendre l'IA éthique au niveau du produit :
1. Étudier les aspects juridiques de l'IA et la manière dont nous la réglementons, si des réglementations existent. Celles-ci incluent la loi européenne sur l'IA, la loi sur les services numériques, le projet de loi britannique sur la sécurité en ligne et le RGPD sur la confidentialité des données. Ces cadres sont en cours d'élaboration et nécessitent la contribution des pionniers et des leaders du secteur (technologies émergentes). Voir le point (4) qui complète le cycle suggéré.
2. Réfléchissez à la manière d'adapter les produits basés sur l'IA aux normes de la société sans accroître les risques. Cela affecte-t-il la sécurité de l'information ou le secteur de l'emploi, ou porte-t-il atteinte aux droits d'auteur et de propriété intellectuelle ? Créez une matrice basée sur des scénarios de crise. Je m'appuie sur mon expérience en sécurité internationale.
3. Déterminer comment intégrer les éléments ci-dessus aux produits basés sur l'IA. À mesure que l'IA gagne en sophistication, nous devons nous assurer qu'elle est conforme aux valeurs et aux normes de la société. Nous devons être proactifs en abordant les questions éthiques et en les intégrant au développement et à la mise en œuvre de l'IA. Si les produits basés sur l'IA, comme l'IA générative, menacent de propager davantage de désinformation, nous devons mettre en place des fonctionnalités d'atténuation, de modération, limiter l'accès aux technologies de base et communiquer avec les utilisateurs. Il est essentiel de disposer d'équipes chargées de l'éthique et de la sécurité de l'IA au sein des produits basés sur l'IA, ce qui nécessite des ressources et une vision d'entreprise.
Réfléchissez à la manière dont nous pouvons contribuer aux cadres juridiques et les façonner. Les meilleures pratiques et les cadres politiques ne sont pas de simples mots à la mode ; ce sont des outils pratiques qui aident les nouvelles technologies à fonctionner comme des outils d'assistance plutôt que comme des menaces imminentes. Rassembler les décideurs politiques, les chercheurs, les grandes technologies et les technologies émergentes est essentiel pour équilibrer les intérêts sociétaux et commerciaux autour de l'IA. Les cadres juridiques doivent s'adapter à la technologie émergente de l'IA, en veillant à protéger les individus et la société tout en favorisant l'innovation et le progrès.
4. Réfléchissez à la manière dont nous contribuons aux cadres juridiques et façonnons-les. Les meilleures pratiques et les cadres politiques ne sont pas des mots à la mode vides, mais des outils assez pratiques pour faire fonctionner la nouvelle technologie comme des outils d'assistance, et non comme des menaces imminentes. Réunir les décideurs politiques, les chercheurs, les grandes technologies et les technologies émergentes dans une même pièce est essentiel pour équilibrer les intérêts sociétaux et commerciaux autour de l'IA. Les cadres juridiques doivent s'adapter à la technologie émergente de l'IA. Nous devons veiller à ce que ces cadres protègent les individus et la société tout en facilitant l'innovation et le progrès.
Résumé
Il s'agit d'un cercle vraiment basique d'intégration des technologies émergentes basées sur l'IA dans nos sociétés. Alors que nous continuons à nous débattre avec les complexités de l'éthique de l'IA, il est essentiel de rester déterminé à trouver des solutions qui donnent la priorité à la sécurité, à l'éthique et au bien-être de la société. Et ce ne sont pas des vains mots, mais le travail difficile consistant à assembler quotidiennement tous les puzzles.
Ces mots sont basés sur ma propre expérience et mes conclusions.