Suivez nous sur

Qu'est-ce que l'IA responsable ? Principes, défis et avantages

AI 101

Qu'est-ce que l'IA responsable ? Principes, défis et avantages

mm
Une personne tenant le globe dans ses mains tout en se tenant dans les champs.

IA responsable (RAI) fait référence à la conception et au déploiement de systèmes d'IA transparents, impartiaux, responsables et conformes aux directives éthiques. À mesure que les systèmes d'IA deviennent plus robustes et répandus, il est essentiel de s'assurer qu'ils sont développés de manière responsable et qu'ils respectent les directives de sécurité et d'éthique.

La santĂ©, le transport, la gestion du rĂ©seau et la surveillance sont applications d'IA critiques pour la sĂ©curitĂ© oĂą une dĂ©faillance du système peut avoir de graves consĂ©quences. Les grandes entreprises sont conscientes que le RAI est essentiel pour attĂ©nuer les risques technologiques. Pourtant, selon un rapport MIT Sloan/BCG qui comprenait 1093 rĂ©pondants, 54% des entreprises manquaient d'expertise et de talents en IA responsable.

Bien que les leaders d'opinion et les organisations aient développé des principes pour une IA responsable, assurer le développement responsable des systèmes d'IA présente toujours des défis. Explorons cette idée en détail :

5 principes pour une IA responsable

1. Justice

Les technologues doivent concevoir des procédures de sorte que les systèmes d'IA traitent tous les individus et groupes de manière équitable et sans parti pris. Par conséquent, l'équité est la principale exigence dans les applications de prise de décision à haut risque.

Équité est défini comme:

"Examiner l'impact sur divers groupes démographiques et choisir l'une des nombreuses définitions mathématiques de l'équité de groupe qui satisfera de manière adéquate l'ensemble souhaité d'exigences légales, culturelles et éthiques."

2. La Responsabilité

La responsabilité signifie que les individus et les organisations qui développent et déploient des systèmes d'IA doivent être responsables de leurs décisions et de leurs actions. L'équipe qui déploie les systèmes d'IA doit s'assurer que son système d'IA est transparent, interprétable, auditable et ne nuit pas à la société.

La responsabilitĂ© comprend sept Composants:

  1. Contexte (but pour lequel la reddition de comptes est requise)
  2. Portée (sujet de responsabilité)
  3. Agent (qui est responsable ?)
  4. Forum (Ă  qui le responsable doit rendre compte)
  5. Normes (critères de responsabilité)
  6. Processus (méthode de reddition de comptes)
  7. Implications (conséquences de la responsabilité)

3. Transparence

La transparence signifie que la raison derrière la prise de décision dans les systèmes d'IA est claire et compréhensible. Les systèmes d'IA transparents sont explicables.

D’après Liste d'Ă©valuation pour l'intelligence artificielle digne de confiance (ALTAI), la transparence comporte trois Ă©lĂ©ments clĂ©s :

  1. Traçabilité (les données, les étapes de prétraitement et le modèle sont accessibles)
  2. Explicabilité (le raisonnement derrière la prise de décision/prédiction est clair)
  3. Communication ouverte (concernant la limitation du système d'IA)

4. Intimité

La confidentialité est l'un des grands principes d'une IA responsable. Il fait référence à la protection des renseignements personnels. Ce principe garantit que les informations personnelles des personnes sont collectées et traitées avec leur consentement et à l'abri des mécontents.

Comme en tĂ©moigne rĂ©cemment, il y a eu le cas de Clearview, une entreprise qui fabrique des modèles de reconnaissance faciale pour les forces de l'ordre et les universitĂ©s. Les chiens de garde des donnĂ©es du Royaume-Uni a poursuivi Clearview AI pour 7.5 millions de livres sterling pour avoir collectĂ© des images de rĂ©sidents britanniques sur les rĂ©seaux sociaux sans leur consentement afin de crĂ©er une base de donnĂ©es de 20 milliards d'images.

5. Sécurité

La sécurité signifie s'assurer que les systèmes d'IA sont sécurisés et ne menacent pas la société. Un exemple de menace pour la sécurité de l'IA est attaques accusatoires. Ces attaques malveillantes poussent les modèles ML à prendre des décisions incorrectes. Protéger les systèmes d'IA contre les cyberattaques est impératif pour une IA responsable.

4 principaux défis et risques d'une IA responsable

1. Biais

Les prĂ©jugĂ©s humains liĂ©s Ă  l'âge, au sexe, Ă  la nationalitĂ© et Ă  la race peuvent avoir un impact sur la collecte de donnĂ©es, conduisant potentiellement Ă  des modèles d'IA biaisĂ©s. Ă‰tude du DĂ©partement amĂ©ricain du commerce a constatĂ© que l'IA de reconnaissance faciale identifie Ă  tort les personnes de couleur. Par consĂ©quent, l'utilisation de l'IA pour la reconnaissance faciale dans les forces de l'ordre peut entraĂ®ner des arrestations injustifiĂ©es. De plus, crĂ©er des modèles d'IA Ă©quitables est difficile car il y a 21 diffĂ©rents paramètres pour les dĂ©finir. Donc, il y a un compromis; satisfaire un paramètre d'IA juste signifie en sacrifier un autre.

2. Interprétabilité

L’interprétabilité est un défi crucial dans le développement d’une IA responsable. Il s’agit de comprendre comment le modèle d’apprentissage automatique est parvenu à une conclusion particulière.

Les réseaux de neurones profonds manquent d'interprétabilité car ils fonctionnent comme des boîtes noires avec plusieurs couches de neurones cachés, ce qui rend difficile la compréhension du processus de prise de décision. Cela peut être un défi dans la prise de décision à enjeux élevés tels que la santé, la finance, etc.

De plus, formaliser l'interprĂ©tabilitĂ© dans les modèles ML est difficile car il est subjectif et spĂ©cifique au domaine.

3. La gouvernance

La gouvernance fait référence à un ensemble de règles, de politiques et de procédures qui supervisent le développement et le déploiement des systèmes d'IA. Récemment, des progrès significatifs ont été réalisés dans le discours sur la gouvernance de l'IA, les organisations présentant des cadres et des lignes directrices éthiques.

Lignes directrices en matière d'Ă©thique pour IA digne de confiance par l'UECadre Ă©thique australien de l'IAou  Principes de l'IA de l'OCDE sont des exemples de cadres de gouvernance de l'IA.

Mais les progrès rapides de l'IA au cours des dernières années peuvent dépasser ces cadres de gouvernance de l'IA. À cette fin, il doit y avoir un cadre qui évalue l'équité, l'interprétabilité et l'éthique des systèmes d'IA.

4. Règlement

À mesure que les systèmes d'IA deviennent plus répandus, il doit y avoir une réglementation pour tenir compte des valeurs éthiques et sociétales. Développer une réglementation qui n'étouffe pas l'innovation en IA est un défi crucial pour une IA responsable.

MĂŞme avec le règlement gĂ©nĂ©ral sur la protection des donnĂ©es (GDPR), le California Consumer Privacy Act (CCPA) et la loi sur la protection des informations personnelles (PIPL) en tant qu'organismes de rĂ©glementation, les chercheurs en intelligence artificielle ont constatĂ© que 97% des sites Web de l'UE ne respectent pas les exigences du cadre juridique du RGPD.

De plus, les législateurs sont confrontés à un défi important pour parvenir à un consensus sur la définition de l'IA qui inclut à la fois les systèmes d'IA classiques et les dernières applications d'IA.

3 avantages majeurs d'une IA responsable

1. Biais réduit

L’IA responsable rĂ©duit les biais dans les processus dĂ©cisionnels, renforçant ainsi la confiance dans les systèmes d’IA. La rĂ©duction des prĂ©jugĂ©s dans les systèmes d’IA peut fournir un système de santĂ© juste et Ă©quitable et rĂ©duire les prĂ©jugĂ©s dans les systèmes basĂ©s sur l’IA. services financiers et ainsi de suite

2. Transparence accrue

L'IA responsable crée des applications d'IA transparentes qui renforcent la confiance dans les systèmes d'IA. Systèmes d'IA transparents réduire le risque d'erreur et d'abus. Une transparence accrue facilite l'audit des systèmes d'IA, gagne la confiance des parties prenantes et peut conduire à des systèmes d'IA responsables.

3. Une meilleure sécurité

Les applications d'IA sécurisées garantissent la confidentialité des données, produisent des résultats fiables et inoffensifs et sont à l'abri des cyberattaques.

Les gĂ©ants de la technologie comme Microsoft et Google, qui sont Ă  la pointe du dĂ©veloppement de systèmes d'IA, ont dĂ©veloppĂ© des principes d'IA responsable. L'IA responsable garantit que l'innovation en IA ne nuit pas aux individus et Ă  la sociĂ©tĂ©.

Les leaders d'opinion, les chercheurs, les organisations et les autorités juridiques devraient continuellement réviser la littérature responsable sur l'IA afin d'assurer un avenir sûr pour l'innovation en IA.

Pour plus de contenu liĂ© Ă  l'IA, visitez unir.ai.