talon Qu'est-ce que l'IA responsable ? Principes, défis et avantages - Unite.AI
Suivez nous sur
Classe de maître IA :

AI 101

Qu'est-ce que l'IA responsable ? Principes, défis et avantages

mm
Le kit de préparation mis à jour on
Une personne tenant le globe dans ses mains tout en se tenant dans les champs.

IA responsable (RAI) fait référence à la conception et au déploiement de systèmes d'IA transparents, impartiaux, responsables et conformes aux directives éthiques. À mesure que les systèmes d'IA deviennent plus robustes et répandus, il est essentiel de s'assurer qu'ils sont développés de manière responsable et qu'ils respectent les directives de sécurité et d'éthique.

La santé, le transport, la gestion du réseau et la surveillance sont applications d'IA critiques pour la sécurité où une défaillance du système peut avoir de graves conséquences. Les grandes entreprises sont conscientes que le RAI est essentiel pour atténuer les risques technologiques. Pourtant, selon un rapport MIT Sloan/BCG qui comprenait 1093 répondants, 54% des entreprises manquaient d'expertise et de talents en IA responsable.

Bien que les leaders d'opinion et les organisations aient développé des principes pour une IA responsable, assurer le développement responsable des systèmes d'IA présente toujours des défis. Explorons cette idée en détail :

5 principes pour une IA responsable

1. Justice

Les technologues doivent concevoir des procédures de sorte que les systèmes d'IA traitent tous les individus et groupes de manière équitable et sans parti pris. Par conséquent, l'équité est la principale exigence dans les applications de prise de décision à haut risque.

Équité est défini comme:

"Examiner l'impact sur divers groupes démographiques et choisir l'une des nombreuses définitions mathématiques de l'équité de groupe qui satisfera de manière adéquate l'ensemble souhaité d'exigences légales, culturelles et éthiques."

2. Responsabilité

La responsabilité signifie que les individus et les organisations qui développent et déploient des systèmes d'IA doivent être responsables de leurs décisions et de leurs actions. L'équipe qui déploie les systèmes d'IA doit s'assurer que son système d'IA est transparent, interprétable, auditable et ne nuit pas à la société.

La responsabilité comprend sept Composants:

  1. Contexte (but pour lequel la reddition de comptes est requise)
  2. Portée (sujet de responsabilité)
  3. Agent (qui est responsable ?)
  4. Forum (à qui le responsable doit rendre compte)
  5. Normes (critères de responsabilité)
  6. Processus (méthode de reddition de comptes)
  7. Implications (conséquences de la responsabilité)

3. Transparence

La transparence signifie que la raison derrière la prise de décision dans les systèmes d'IA est claire et compréhensible. Les systèmes d'IA transparents sont explicables.

Selon Liste d'évaluation pour l'intelligence artificielle digne de confiance (ALTAI), la transparence comporte trois éléments clés :

  1. Traçabilité (les données, les étapes de prétraitement et le modèle sont accessibles)
  2. Explicabilité (le raisonnement derrière la prise de décision/prédiction est clair)
  3. Communication ouverte (concernant la limitation du système d'IA)

4. Intimité

La confidentialité est l'un des grands principes d'une IA responsable. Il fait référence à la protection des renseignements personnels. Ce principe garantit que les informations personnelles des personnes sont collectées et traitées avec leur consentement et à l'abri des mécontents.

Comme en témoigne récemment, il y a eu le cas de Clearview, une entreprise qui fabrique des modèles de reconnaissance faciale pour les forces de l'ordre et les universités. Les chiens de garde des données du Royaume-Uni a poursuivi Clearview AI pour 7.5 millions de livres sterling pour avoir collecté des images de résidents britanniques sur les réseaux sociaux sans leur consentement afin de créer une base de données de 20 milliards d'images.

5. Sécurité

La sécurité signifie s'assurer que les systèmes d'IA sont sécurisés et ne menacent pas la société. Un exemple de menace pour la sécurité de l'IA est attaques accusatoires. Ces attaques malveillantes poussent les modèles ML à prendre des décisions incorrectes. Protéger les systèmes d'IA contre les cyberattaques est impératif pour une IA responsable.

4 principaux défis et risques d'une IA responsable

1. Biais

Les préjugés humains liés à l'âge, au sexe, à la nationalité et à la race peuvent avoir un impact sur la collecte de données, conduisant potentiellement à des modèles d'IA biaisés. Étude du Département américain du commerce a constaté que l'IA de reconnaissance faciale identifie à tort les personnes de couleur. Par conséquent, l'utilisation de l'IA pour la reconnaissance faciale dans les forces de l'ordre peut entraîner des arrestations injustifiées. De plus, créer des modèles d'IA équitables est difficile car il y a 21 différents paramètres pour les définir. Donc, il y a un compromis; satisfaire un paramètre d'IA juste signifie en sacrifier un autre.

2. Interprétabilité

L’interprétabilité est un défi crucial dans le développement d’une IA responsable. Il s’agit de comprendre comment le modèle d’apprentissage automatique est parvenu à une conclusion particulière.

Les réseaux de neurones profonds manquent d'interprétabilité car ils fonctionnent comme des boîtes noires avec plusieurs couches de neurones cachés, ce qui rend difficile la compréhension du processus de prise de décision. Cela peut être un défi dans la prise de décision à enjeux élevés tels que la santé, la finance, etc.

De plus, formaliser l'interprétabilité dans les modèles ML est difficile car il est subjectif ainsi que le spécifique au domaine.

3. La gouvernance

La gouvernance fait référence à un ensemble de règles, de politiques et de procédures qui supervisent le développement et le déploiement des systèmes d'IA. Récemment, des progrès significatifs ont été réalisés dans le discours sur la gouvernance de l'IA, les organisations présentant des cadres et des lignes directrices éthiques.

Lignes directrices en matière d'éthique pour IA digne de confiance par l'UECadre éthique australien de l'IAet Principes de l'IA de l'OCDE sont des exemples de cadres de gouvernance de l'IA.

Mais les progrès rapides de l'IA au cours des dernières années peuvent dépasser ces cadres de gouvernance de l'IA. À cette fin, il doit y avoir un cadre qui évalue l'équité, l'interprétabilité et l'éthique des systèmes d'IA.

4. Règlement

À mesure que les systèmes d'IA deviennent plus répandus, il doit y avoir une réglementation pour tenir compte des valeurs éthiques et sociétales. Développer une réglementation qui n'étouffe pas l'innovation en IA est un défi crucial pour une IA responsable.

Même avec le règlement général sur la protection des données (GDPR), le California Consumer Privacy Act (CCPA) et la loi sur la protection des informations personnelles (PIPL) en tant qu'organismes de réglementation, les chercheurs en intelligence artificielle ont constaté que 97% des sites Web de l'UE ne respectent pas les exigences du cadre juridique du RGPD.

De plus, les législateurs sont confrontés à un défi important pour parvenir à un consensus sur la définition de l'IA qui inclut à la fois les systèmes d'IA classiques et les dernières applications d'IA.

3 avantages majeurs d'une IA responsable

1. Biais réduit

L’IA responsable réduit les biais dans les processus décisionnels, renforçant ainsi la confiance dans les systèmes d’IA. La réduction des préjugés dans les systèmes d’IA peut fournir un système de santé juste et équitable et réduire les préjugés dans les systèmes basés sur l’IA. services financiers et ainsi de suite

2. Transparence accrue

L'IA responsable crée des applications d'IA transparentes qui renforcent la confiance dans les systèmes d'IA. Systèmes d'IA transparents réduire le risque d'erreur et d'abus. Une transparence accrue facilite l'audit des systèmes d'IA, gagne la confiance des parties prenantes et peut conduire à des systèmes d'IA responsables.

3. Une meilleure sécurité

Les applications d'IA sécurisées garantissent la confidentialité des données, produisent des résultats fiables et inoffensifs et sont à l'abri des cyberattaques.

Les géants de la technologie comme Microsoft ainsi que le Google, qui sont à la pointe du développement de systèmes d'IA, ont développé des principes d'IA responsable. L'IA responsable garantit que l'innovation en IA ne nuit pas aux individus et à la société.

Les leaders d'opinion, les chercheurs, les organisations et les autorités juridiques devraient continuellement réviser la littérature responsable sur l'IA afin d'assurer un avenir sûr pour l'innovation en IA.

Pour plus de contenu lié à l'IA, visitez unir.ai.