Connect with us

Leaders d’opinion

Transparence de l’IA et nécessité de modèles open-source

mm

Afin de protéger les personnes des dommages potentiels de l’IA, certains régulateurs aux États-Unis et dans l’Union européenne préconisent de plus en plus des contrôles et des mécanismes de contrôle sur le pouvoir des modèles d’IA open-source. Cela est partiellement motivé par le désir des grandes entreprises de contrôler le développement de l’IA et de façonner le développement de l’IA de manière à les bénéficier. Les régulateurs s’inquiètent également du rythme de développement de l’IA, car ils craignent que l’IA ne se développe trop rapidement et qu’il n’y ait pas suffisamment de temps pour mettre en place des mesures de sauvegarde pour empêcher qu’elle ne soit utilisée à des fins malveillantes.

Le projet de loi sur les droits de l’IA et le cadre de gestion des risques de l’IA du NIST aux États-Unis, ainsi que l’acte de l’UE sur l’IA, soutiennent divers principes tels que l’exactitude, la sécurité, la non-discrimination, la sécurité, la transparence, la responsabilité, l’explicabilité, l’interprétabilité et la confidentialité des données. De plus, tant l’UE que les États-Unis anticipent que les organisations de normalisation, qu’elles soient gouvernementales ou internationales, joueront un rôle crucial dans l’établissement de lignes directrices pour l’IA.

Compte tenu de cette situation, il est impératif de viser un avenir qui embrasse la transparence et la capacité d’inspecter et de surveiller les systèmes d’IA. Cela permettrait aux développeurs du monde entier d’examiner, d’analyser et d’améliorer l’IA, en se concentrant en particulier sur les données et les processus de formation.

Pour réussir à apporter de la transparence à l’IA, nous devons comprendre les algorithmes de prise de décision qui sous-tendent l’IA, dénouant ainsi l’approche « boîte noire » de l’IA. Les modèles open-source et inspectables jouent un rôle essentiel dans la réalisation de cet objectif, car ils fournissent l’accès au code sous-jacent, à l’architecture du système et aux données de formation pour examen et audit. Cette ouverture favorise la collaboration, stimule l’innovation et garantit contre la monopolisation.

Pour voir se réaliser cette vision, il est essentiel de faciliter les changements de politique, les initiatives de base et d’encourager la participation active de toutes les parties prenantes, y compris les développeurs, les entreprises, les gouvernements et le public.

État actuel de l’IA : concentration et contrôle

Actuellement, le développement de l’IA, en particulier en ce qui concerne les grands modèles de langage (LLM), est principalement centralisé et contrôlé par les grandes entreprises. Cette concentration du pouvoir soulève des inquiétudes quant à la possibilité d’une utilisation abusive et pose des questions sur l’accès équitable et la répartition équitable des avantages des progrès de l’IA.

En particulier, les modèles populaires comme les LLM manquent d’alternatives open-source pendant le processus de formation en raison des ressources de calcul étendues requises, qui sont généralement disponibles uniquement pour les grandes entreprises. Néanmoins, même si cette situation reste inchangée, assurer la transparence concernant les données et les processus de formation est crucial pour faciliter l’examen et la responsabilité.

La récente introduction par OpenAI d’un système de licence pour certains types d’IA a généré des inquiétudes et des préoccupations quant à la capture réglementaire, car cela pourrait influencer non seulement la trajectoire de l’IA, mais également des aspects sociaux, économiques et politiques plus larges.

Besoin de transparence de l’IA

Imaginez-vous en train de vous fier à une technologie qui prend des décisions ayant un impact sur la vie humaine/personnelle, sans laisser de trace, sans comprendre les raisons derrière ces conclusions. C’est là que la transparence devient indispensable.

Tout d’abord et avant tout, la transparence est cruciale et établit la confiance. Lorsque les modèles d’IA deviennent observables, ils inspirent confiance dans leur fiabilité et leur exactitude. De plus, une telle transparence rendrait les développeurs et les organisations beaucoup plus responsables des résultats de leurs algorithmes.

Un autre aspect critique de la transparence est l’identification et l’atténuation des biais algorithmiques. Les biais peuvent être injectés dans les modèles d’IA de plusieurs manières.

  • Élément humain : les scientifiques des données sont vulnérables à la perpétuation de leurs propres biais dans les modèles.
  • Apprentissage automatique : même si les scientifiques créaient une IA purement objective, les modèles sont toujours très susceptibles aux biais. L’apprentissage automatique commence avec un ensemble de données défini, mais est ensuite laissé libre pour absorber de nouvelles données et créer de nouveaux chemins d’apprentissage et de nouvelles conclusions. Ces résultats peuvent être involontaires, biaisés ou inexacts, car le modèle tente d’évoluer de lui-même dans ce que l’on appelle « dérive des données ».

Il est important d’être conscient de ces sources potentielles de biais afin de pouvoir les identifier et les atténuer. Une façon d’identifier les biais est d’auditer les données utilisées pour former le modèle. Cela inclut la recherche de modèles qui pourraient indiquer la discrimination ou l’injustice. Une autre façon d’atténuer les biais est d’utiliser des techniques de débiasing. Ces techniques peuvent aider à supprimer ou à réduire les biais du modèle. En étant transparent sur la possibilité de biais et en prenant des mesures pour les atténuer, nous pouvons nous assurer que l’IA est utilisée de manière équitable et responsable.

Les modèles d’IA transparents permettent aux chercheurs et aux utilisateurs d’examiner les données de formation, d’identifier les biais et de prendre des mesures correctives pour les résoudre. En rendant le processus de prise de décision visible, la transparence nous aide à viser l’équité et à prévenir la propagation de pratiques discriminatoires. De plus, la transparence est nécessaire tout au long de la vie du modèle, comme expliqué ci-dessus, pour prévenir la dérive des données, les biais et les hallucinations de l’IA qui produisent de fausses informations. Ces hallucinations sont particulièrement répandues dans les grands modèles de langage, mais existent également dans tous les types de produits d’IA. L’observabilité de l’IA joue également des rôles importants pour assurer les performances et l’exactitude des modèles, créant ainsi un AI plus sûr et plus fiable, moins susceptible d’erreurs ou de conséquences involontaires.

Cependant, parvenir à la transparence de l’IA n’est pas sans défis. Il est nécessaire de trouver un équilibre délicat pour répondre à des préoccupations telles que la confidentialité des données, la sécurité et la propriété intellectuelle. Cela implique la mise en œuvre de techniques de préservation de la confidentialité, l’anonymisation des données sensibles et l’établissement de normes et de réglementations industrielles qui favorisent des pratiques de transparence responsables.

Rendre l’IA transparente une réalité

Développer des outils et des technologies capables d’activer l’inspectabilité dans l’IA est crucial pour promouvoir la transparence et la responsabilité dans les modèles d’IA.

En plus de développer des outils et des technologies qui permettent l’inspectabilité dans l’IA, le développement technologique peut également promouvoir la transparence en créant une culture de celle-ci autour de l’IA. Encourager les entreprises et les organisations à être transparentes sur leur utilisation de l’IA peut également contribuer à établir la confiance et la confiance. En rendant plus facile l’inspection des modèles d’IA et en créant une culture de transparence autour de l’IA, le développement technologique peut aider à garantir que l’IA est utilisée de manière équitable et responsable.

Cependant, le développement technologique peut également avoir l’effet inverse. Par exemple, si les sociétés de technologie développent des algorithmes propriétaires qui ne sont pas ouverts à l’examen public, cela peut rendre plus difficile la compréhension de la façon dont ces algorithmes fonctionnent et l’identification de tout biais ou risque potentiel. Assurer que l’IA profite à la société dans son ensemble plutôt qu’à quelques-uns seulement nécessite un niveau élevé de collaboration.

Les chercheurs, les décideurs politiques et les scientifiques des données peuvent établir des réglementations et des normes qui trouvent un équilibre entre ouverture, confidentialité et sécurité sans étouffer l’innovation. Ces réglementations peuvent créer des cadres qui encouragent le partage des connaissances tout en abordant les risques potentiels et en définissant les attentes en matière de transparence et d’explicabilité dans les systèmes critiques.

Toutes les parties liées au développement et au déploiement de l’IA devraient donner la priorité à la transparence en documentant leurs processus de prise de décision, en rendant le code source disponible et en adoptant la transparence comme principe fondamental dans le développement des systèmes d’IA. Cela permet à chacun de jouer un rôle vital dans l’exploration de méthodes pour rendre les algorithmes d’IA plus interprétables et dans le développement de techniques qui facilitent la compréhension et l’explication de modèles complexes.

Enfin, l’engagement du public est crucial dans ce processus. En sensibilisant et en encourageant les discussions publiques sur la transparence de l’IA, nous pouvons nous assurer que les valeurs sociétales sont reflétées dans le développement et le déploiement des systèmes d’IA.

Conclusion

Alors que l’IA est de plus en plus intégrée dans divers aspects de notre vie, la transparence de l’IA et l’utilisation de modèles open-source deviennent des considérations critiques. Adopter l’IA inspectable non seulement garantit l’équité et la responsabilité, mais stimule également l’innovation, prévient la concentration du pouvoir et favorise l’accès équitable aux progrès de l’IA.

En donnant la priorité à la transparence, en permettant l’examen des modèles d’IA et en favorisant la collaboration, nous pouvons collectivement façonner un avenir de l’IA qui profite à tous, tout en abordant les défis éthiques, sociaux et techniques associés à cette technologie transformatrice.

Liran Hason est le co-fondateur et PDG de Aporia, la principale plateforme de contrôle IA, de confiance pour les entreprises du Fortune 500 et les leaders du secteur dans le monde entier pour assurer la confiance dans GenAI. Aporia a également été reconnue comme un pionnier de la technologie par le Forum économique mondial. Avant de fonder Aporia, Liran était architecte ML chez Adallom (acquis par Microsoft), puis investisseur chez Vertex Ventures. Liran a fondé Aporia après avoir constaté de visu les effets de l'IA sans garde-fous. En 2022, Forbes a nommé Aporia comme la « prochaine entreprise d'un milliard de dollars »