Suivez nous sur

Nous n'alignons plus les IA. Nous alignons les civilisations.

Intelligence Artificielle

Nous n'alignons plus les IA. Nous alignons les civilisations.

mm

Pendant de nombreuses années, la question centrale de l'intelligence artificielle (IA) a été celle de l'alignement des modèles d'IA sur les valeurs humaines. Les chercheurs se sont efforcés de définir des règles de sécurité, des principes éthiques et des mécanismes de contrôle guidant les décisions de l'IA. Ces travaux ont permis des progrès significatifs. Mais aujourd'hui, à mesure que ces systèmes d'IA gagnent en puissance et se généralisent, l'enjeu de l'alignement évolue. Ce qui consistait initialement à aligner un modèle unique sur un ensemble d'instructions précis est devenu un défi bien plus vaste : celui d'aligner des civilisations entières utilisant ces systèmes à l'échelle mondiale. L'IA n'est plus un simple outil. Elle se transforme en un environnement où les sociétés travaillent, communiquent, négocient et rivalisent. De ce fait, l'alignement n'est plus un problème technique, mais un enjeu civilisationnel. Dans cet article, j'explique pourquoi l'alignement ne se limite plus aux modèles et pourquoi nous devons commencer à penser en termes de civilisations plutôt que de machines. J'aborde également l'impact de ce changement sur nos responsabilités et ses implications pour la coopération internationale.

Quelles valeurs l'IA représente-t-elle réellement ?

Si vous interrogez une IA sur un événement historique sensible, sa réponse dépendra des données analysées. Si ces données proviennent principalement d'Internet en Occident, la réponse sera biaisée par une perspective occidentale. Elle privilégiera l'individualisme, la liberté d'expression et les idéaux démocratiques. Ce sont des valeurs importantes pour beaucoup, certes, mais elles ne sont pas les seules.

Un utilisateur à Singapour, un autre à Riyad et un troisième à San Francisco n'ont pas la même définition de ce qui est « utile » et de ce qui est « nuisible ». Dans certaines cultures, l'harmonie sociale prime sur la liberté d'expression absolue. Dans d'autres, le respect de la hiérarchie est plus important que la perturbation.

Lorsqu'une entreprise de la Silicon Valley utilise «Apprentissage par renforcement à partir de la rétroaction humaine(RLHF), ils embauchent des humains pour évaluer les réponses de l'IA. Mais qui sont ces humains ? Quelles sont leurs convictions ? S'ils alignent le modèle sur les normes américaines, ils créent involontairement un produit d'exportation culturelle américaine. Ils créent un diplomate numérique qui impose les règles d'une civilisation particulière au reste du monde.

L'essor des boucles de rétroaction

Le défi ne réside pas seulement dans le fait que l'IA reflète les croyances d'une culture. Il réside dans la manière dont ces croyances peuvent nous transformer. Les systèmes d'IA modernes ont le potentiel de façonner le comportement des individus, des organisations et même des nations. Ils peuvent influencer notre façon de penser, de travailler, de faire confiance et de rivaliser. Cela crée des boucles de rétroaction entre les systèmes d'IA et les sociétés humaines : nous formons l'IA et l'IA façonne notre façon de penser et d'agir. Ces boucles se renforcent à mesure que l'IA se généralise. Pour comprendre le fonctionnement de cette boucle de rétroaction, voici deux exemples :

  • Le déploiement à grande échelle de l'IA modifie les comportements sociaux, et ces comportements modifient les données servant à l'entraînement des nouveaux systèmes. Par exemple, un algorithme de recommandation peut influencer les choix de visionnage, de lecture et les convictions des individus. Les outils de productivité transforment la collaboration au sein des équipes et l'apprentissage des étudiants. Ces changements de comportement modifient les schémas de données, se traduisant par des habitudes de visionnage différentes, des modes de communication au travail ou des styles d'écriture différents. Lorsque ces données alimentent les futurs ensembles de données d'entraînement, les modèles ajustent leurs hypothèses et leurs résultats en conséquence. Le comportement humain influence les modèles, et les modèles, à leur tour, influencent le comportement humain.
  • Les outils d'aide à la décision automatisée influencent les politiques publiques, et ces dernières influencent la formation des futurs modèles. Par exemple, de nombreux gouvernements utilisent désormais l'IA pour suggérer l'allocation des ressources, notamment pour identifier les quartiers nécessitant un renforcement des services de santé ou les zones présentant un risque de criminalité plus élevé. Lorsque les décideurs politiques mettent en œuvre ces recommandations, les résultats de ces décisions alimentent de nouveaux ensembles de données. Au fil du temps, les décisions politiques influencées par l'IA finissent par façonner la prochaine génération de modèles d'IA.

Une fois ce cercle vicieux identifié, il devient évident que l'IA façonne et harmonise progressivement les civilisations. Dès lors, les nations commencent à s'interroger : comment préserver leurs valeurs tout en intégrant l'IA à leurs sociétés et institutions ?

L'émergence de l'IA souveraine

Ce défi d'harmonisation a suscité de vives réactions de la part des gouvernements du monde entier. Les nations ont pris conscience que le recours à une IA importée représente un risque pour leur souveraineté. Elles ne peuvent se permettre que leurs citoyens soient éduqués, informés et conseillés par une machine opaque qui pense comme un étranger.

Cette prise de conscience a conduit à l'essor de «IA souveraineLa France est investir L'Inde s'efforce fortement de créer des modèles qui parlent français et comprennent le droit et la culture français. bâtiment Des modèles d'IA indigènes sont développés pour préserver leurs valeurs culturelles. Les Émirats arabes unis et la Chine élaborent des modèles d'IA conformes à leurs visions nationales respectives.

Voici la nouvelle course aux armements. C'est une course à la maîtrise du récit. Une civilisation dépourvue d'IA propre finira par perdre sa propre mémoire. Si vos enfants posent une question à une machine et que celle-ci répond selon la logique d'une autre culture, votre culture commencera à s'éroder. Cette prise de conscience pourrait toutefois mener à la formation de blocs numériques distincts. Nous pourrions nous retrouver avec une IA occidentale, une IA chinoise, une IA indienne, et ainsi de suite. Ces systèmes fonctionneront avec des faits et des valeurs morales différents. Ces évolutions montrent clairement que si nous voulons créer un modèle d'IA unique et véritablement cohérent, nous devons d'abord trouver un moyen d'harmoniser les civilisations.

Nécessité d'une IA diplomatique

L'alignement traditionnel part du principe qu'un modèle peut être aligné grâce à un entraînement rigoureux, des incitations ciblées et des garde-fous. Cette conception découle de l'approche technique des premières recherches sur la sécurité de l'IA. Or, même un alignement parfait au niveau du modèle ne peut résoudre les défis que représente l'alignement des civilisations. Cet alignement ne peut se maintenir lorsque les sociétés exercent des pressions opposées. Si les pays, les entreprises et les communautés poursuivent des objectifs conflictuels, ils inciteront les systèmes d'IA à refléter ces conflits. Ces limites démontrent que l'alignement n'est pas seulement un problème technique. C'est un problème de gouvernance, de culture et de coordination. Et ces problèmes ne concernent pas uniquement les experts ou les développeurs ; ils impliquent des civilisations entières.

Alors, comment avancer ? Si nous admettons qu’un alignement universel est impossible, nous devons changer de stratégie. Il nous faut cesser de chercher une solution technique à un problème philosophique. Nous devons commencer à penser comme des diplomates. Il nous faudra élaborer des protocoles pour un « alignement civilisationnel ». Nous devons trouver comment l’IA peut respecter les croyances et les valeurs d’une société sans lui imposer celles d’autres cultures. Autrement dit, nous avons besoin d’une ONU numérique pour nos algorithmes.

Cela exige de la transparence. Actuellement, nous ignorons les valeurs sous-jacentes aux couches profondes d'un réseau neuronal. Nous n'observons que le résultat. Pour harmoniser les civilisations, il est essentiel de clarifier la « constitution » de chaque modèle. Un modèle devrait pouvoir déclarer ses biais. Il devrait pouvoir affirmer : « Je suis entraîné sur ces données, avec ces règles de sécurité, en privilégiant ces valeurs. » Ce n'est que lorsque les biais sont visibles que l'on peut faire confiance au système. Un utilisateur devrait pouvoir passer d'une perspective à l'autre. Il devrait pouvoir poser une question et observer la réponse d'un modèle « occidental » par rapport à celle d'un modèle « oriental ». L'IA deviendrait ainsi un outil de compréhension, et non un instrument d'endoctrinement.

Conclusion

Nous avons passé trop de temps à nous inquiéter du Terminator. Le véritable risque n'est pas qu'un robot nous détruise, mais qu'il nous fasse oublier qui nous sommes. L'alignement n'est pas un code que l'on écrit une fois pour toutes. C'est une négociation constante avec les modèles d'IA pour qu'ils restent en accord avec nos convictions et nos valeurs. C'est un acte politique. Alors que nous entrons dans cette nouvelle phase de l'ère de l'intelligence artificielle, nous devons regarder au-delà des écrans. Nous devons nous interroger sur la manière dont l'IA interprète notre histoire, nos frontières et nos croyances. Nous formons les esprits qui nous aideront à gouverner le monde. Nous devons veiller à ce que ces esprits respectent les différences entre les civilisations.

Le Dr Tehseen Zia est professeur agrégé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en IA de l'Université de technologie de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté d'importantes contributions avec des publications dans des revues scientifiques réputées. Le Dr Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi à titre de consultant en IA.