Connect with us

Nous n’alignons plus les IA. Nous alignons les civilisations

Intelligence artificielle

Nous n’alignons plus les IA. Nous alignons les civilisations

mm

Pendant de nombreuses années, la principale question en intelligence artificielle (IA) était de savoir comment aligner les modèles d’IA avec les valeurs humaines. Les chercheurs ont tenté de définir des règles de sécurité, des principes éthiques et des mécanismes de contrôle qui guident les décisions de l’IA. Ce travail a réalisé des progrès significatifs. Mais maintenant, à mesure que ces systèmes d’IA deviennent plus capables et répandus, le focus de l’alignement commence à changer. Ce qui a commencé comme le défi d’aligner un seul modèle à un seul ensemble d’instructions est maintenant devenu le défi beaucoup plus grand d’aligner des civilisations entières qui utilisent ces systèmes à l’échelle mondiale. L’IA n’est plus seulement un outil. Elle évolue en un environnement où les sociétés travaillent, communiquent, négocient et concourent. En conséquence, l’alignement ne reste plus un problème technique. Il est devenu un problème civilisationnel. Dans cet article, j’explique pourquoi l’alignement n’est plus seulement question de modèles et pourquoi nous devons commencer à penser en termes de civilisations plutôt que de machines. Je discute également de la manière dont ce changement affecte nos responsabilités et ce que cela signifie pour la coopération mondiale.

Quelles valeurs l’IA représente-t-elle vraiment ?

Si vous demandez à une IA à propos d’un événement historique sensible, sa réponse dépend des données qu’elle a étudiées. Si ces données proviennent principalement de l’internet occidental, la réponse aura un biais occidental. Elle donnera la priorité à l’individualisme, à la liberté d’expression et aux idéaux démocratiques. Ce sont de bonnes valeurs pour beaucoup de gens. Mais ce ne sont pas les seules valeurs dans le monde.

Un utilisateur à Singapour, un utilisateur à Riyad et un utilisateur à San Francisco ont des définitions différentes de ce qui est “utile” et de ce qui est “nuisible”. Dans certaines cultures, l’harmonie sociale est plus importante que la liberté d’expression absolue. Dans d’autres, le respect de la hiérarchie est plus important que la disruption.

Lorsqu’une entreprise de la Silicon Valley utilise “Reinforcement Learning from Human Feedback” (RLHF), ils embauchent des humains pour noter les réponses de l’IA. Mais qui sont ces humains ? Quelles sont leurs croyances ? Si ils alignent le modèle avec les normes américaines, ils construisent involontairement une exportation culturelle américaine. Ils construisent un diplomate numérique qui impose les règles d’une civilisation spécifique au reste du monde.

L’essor des boucles de rétroaction

Le défi n’est pas seulement que l’IA reflète les croyances d’une culture. C’est la façon dont ces croyances peuvent nous changer. Les systèmes d’IA modernes ont le potentiel de façonner le comportement des individus, des organisations et même des nations. Ils peuvent influencer la façon dont nous pensons, travaillons, faisons confiance et concourons. Cela crée des boucles de rétroaction entre les systèmes d’IA et les sociétés humaines ; nous formons l’IA et l’IA façonne notre façon de penser et d’agir. Ces boucles deviennent plus fortes à mesure que l’IA devient plus omniprésente. Pour voir comment cette boucle de rétroaction fonctionne, voici deux exemples :

  • Le déploiement à grande échelle de l’IA change le comportement social, et le comportement social change les données qui forment de nouveaux systèmes. Par exemple, un algorithme de recommandation peut façonner ce que les gens regardent, lisent et croient. Les outils de productivité façonnent la façon dont les équipes collaborent et dont les étudiants apprennent. Ces changements de comportement changent les modèles de données sous forme de nouveaux habitudes de visionnage, de modèles de communication au travail ou de styles d’écriture. Lorsque ces données sont intégrées dans les futurs jeux de données de formation, les modèles ajustent leurs hypothèses et leurs sorties en conséquence. Le comportement humain façonne les modèles, et les modèles, à leur tour, façonnent le comportement humain.
  • Les outils de décision automatisés influencent les politiques publiques, et les politiques publiques influencent la formation des futurs modèles. Par exemple, de nombreux gouvernements utilisent maintenant l’IA pour suggérer où allouer des ressources telles que l’identification des quartiers qui ont besoin de plus de soutien en matière de santé ou des zones qui pourraient présenter un risque de criminalité plus élevé. Lorsque les décideurs politiques agissent sur ces recommandations, les résultats de ces décisions deviennent plus tard partie des nouveaux jeux de données. Au fil du temps, les décisions politiques façonnées par l’IA finissent par façonner la prochaine génération de modèles d’IA.

Une fois que vous reconnaissez cette boucle de rétroaction, il devient clair que l’IA façonne et aligne progressivement les civilisations. En conséquence, les nations commencent à se demander : Comment peuvent-elles protéger leurs valeurs tout en intégrant l’IA dans leurs sociétés et institutions ?

L’émergence de l’IA souveraine

Ce défi d’alignement a provoqué une réaction significative des gouvernements du monde entier. Les nations ont réalisé que s’appuyer sur l’IA importée est un risque pour leur souveraineté. Elles ne peuvent pas se permettre d’avoir leurs citoyens éduqués, informés et conseillés par une boîte noire qui pense comme un étranger.

Cette prise de conscience a conduit à l’émergence de l’ “IA souveraine“. La France investit lourdement pour construire des modèles qui parlent français et comprennent le droit et la culture français. L’Inde est en train de construire des modèles d’IA autochtones pour garantir que leurs valeurs culturelles soient respectées. Les Émirats arabes unis et la Chine sont en train de construire des modèles d’IA alignés sur leurs propres visions nationales.

C’est la nouvelle course aux armements. C’est une course pour le contrôle du récit. Une civilisation qui n’a pas son propre IA finira par perdre sa propre mémoire. Si vos enfants posent une question à une machine et que la machine répond avec la logique d’une autre culture, votre culture commence à s’éroder. Cette prise de conscience peut cependant conduire à la formation de blocs numériques distincts. Nous pourrions finir par avoir un IA occidental, un IA chinois, un IA indien, etc. Ces systèmes fonctionneront avec des faits et des boussoles morales différentes. Ces développements montrent clairement que si nous voulons créer un modèle d’IA vraiment aligné, nous devons d’abord trouver un moyen d’aligner les civilisations.

Besoin d’un IA diplomatique

L’alignement traditionnel suppose qu’un modèle peut être aligné par une formation, une sollicitation et des garde-fous soigneux. Cette pensée provient de l’esprit technique de la recherche sur la sécurité de l’IA dans ses premiers jours. Mais même un alignement de modèle parfait ne peut pas résoudre les défis de l’alignement des civilisations. L’alignement ne peut pas rester stable lorsque les sociétés tirent dans des directions opposées. Si les pays, les entreprises et les communautés ont des objectifs contradictoires, ils pousseront les systèmes d’IA à refléter ces conflits. Ces limites montrent que l’alignement n’est pas seulement un problème technique. C’est un problème de gouvernance, de culture et de coordination. Et ces problèmes nécessitent non seulement des experts ou des développeurs. Ils impliquent toute une civilisation.

Alors, comment avançons-nous ? Si nous acceptons que l’alignement universel est impossible, nous devons changer de stratégie. Nous devons cesser de chercher une solution technique à un problème philosophique. Nous devons commencer à penser comme des diplomates. Nous allons avoir besoin de protocoles pour “l’alignement des civilisations”. Nous devons déterminer comment l’IA peut respecter les croyances et les valeurs d’une société sans imposer les croyances d’autres cultures. En d’autres termes, nous avons besoin d’une Organisation des Nations Unies numérique pour nos algorithmes.

Cela nécessite de la transparence. Actuellement, nous ne savons pas vraiment quels sont les valeurs cachées dans les couches profondes d’un réseau de neurones. Nous ne voyons que la sortie. Pour aligner les civilisations, nous devons être clairs sur la “Constitution” de chaque modèle. Un modèle devrait être capable de déclarer ses biais. Il devrait être capable de dire : “Je suis formé sur ces données, avec ces règles de sécurité, en donnant la priorité à ces valeurs.” Seulement lorsque le biais est visible pouvons-nous faire confiance au système. Un utilisateur devrait être capable de basculer entre les perspectives. Vous devriez être capable de poser une question et de voir comment un modèle “occidental” répond par rapport à un modèle “oriental”. Cela transformerait l’IA en un outil de compréhension, plutôt qu’en un outil d’endoctrinement.

En résumé

Nous avons passé trop de temps à nous inquiéter du Terminator. Le véritable risque n’est pas qu’un robot nous détruit. Le véritable risque est qu’un robot nous fait oublier qui nous sommes. L’alignement n’est pas un code que nous pouvons écrire une fois et oublier. C’est une négociation constante avec les modèles d’IA pour les garder alignés sur nos croyances et nos valeurs. C’est un acte politique. Alors que nous entrons dans cette prochaine phase de l’ère de l’intelligence, nous devons regarder au-delà de l’écran. Nous devons considérer comment l’IA interprète notre histoire, nos frontières et nos croyances. Nous construisons les esprits qui nous aideront à diriger le monde. Nous devons nous assurer que ces esprits respectent les différences entre les civilisations.

Dr. Tehseen Zia est un professeur associé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en intelligence artificielle de l'Université technique de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté des contributions significatives avec des publications dans des revues scientifiques réputées. Dr. Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi en tant que consultant en intelligence artificielle.