Des leaders d'opinion
L'IA et la lutte contre la technophobie

En ce qui concerne l'IA générative et les grands modèles de langage, comme ChatGPT. L'enthousiasme pour l'IA se mêle à la technophobie. C'est naturel pour le grand public : ils aiment les nouvelles choses passionnantes, mais ils ont peur de l'inconnu. La nouveauté est que plusieurs scientifiques éminents sont eux-mêmes devenus techno-sceptiques, voire technophobes. Le cas des scientifiques et des industriels demandant une interdiction de six mois de la recherche sur l'IA, ou le scepticisme du grand scientifique en IA, le professeur A. Hinton, en sont de tels exemples. Le seul équivalent historique connexe dont je me souvienne est la critique des bombes atomiques et nucléaires par une partie de la communauté scientifique pendant la guerre froide. Heureusement, l'humanité a réussi à répondre à ces préoccupations de manière plutôt satisfaisante.
Bien sûr, tout le monde a le droit de remettre en question l'état actuel des affaires de l'IA :
- Personne ne sait pourquoi les grands modèles de langage fonctionnent si bien et s'ils ont une limite.
- De nombreux dangers que les méchants créent des "bombes IA" se cachent, en particulier si les États restent des spectateurs passifs, en termes de réglementation.
Ce sont des préoccupations légitimes qui alimentent la peur de l'inconnu, même chez des scientifiques éminents. Après tout, ce sont eux-mêmes des humains.
Cependant, la recherche sur l'IA peut-elle s'arrêter même temporairement ? À mon avis, non, car l'IA est la réponse de l'humanité à une société mondiale et à un monde physique d'une complexité toujours croissante. Comme les processus d'augmentation de la complexité physique et sociale sont très profonds et semblent implacables, l'IA et la morphose citoyenne sont notre seul espoir d'avoir une transition en douceur de la société de l'information actuelle vers une société de la connaissance. Sinon, nous pourrions être confrontés à une implosion sociale catastrophique.
La solution consiste à approfondir notre compréhension des progrès de l'IA, à accélérer son développement, à réglementer son utilisation afin de maximiser son impact positif, tout en minimisant les effets négatifs déjà évidents et cachés. La recherche en IA peut et doit devenir différente : plus ouverte, démocratique, scientifique et éthique. Voici une proposition de liste de points à cette fin :
- Le premier mot sur les questions importantes de recherche en IA qui ont un impact social de grande envergure devrait être délégué aux parlements et aux gouvernements élus, plutôt qu'aux entreprises ou aux scientifiques individuels.
- Tous les efforts doivent être faits pour faciliter l'exploration des aspects positifs de l'IA dans le progrès social et financier et pour minimiser ses aspects négatifs.
- L'impact positif des systèmes d'IA peut largement compenser leurs aspects négatifs, si des mesures réglementaires appropriées sont prises. La technophobie n'est ni justifiée, ni une solution.
- À mon avis, la plus grande menace actuelle vient du fait que de tels systèmes d'IA peuvent tromper à distance trop de roturiers qui ont peu (ou moyennement) d'éducation et/ou peu de capacité d'investigation. Cela peut être extrêmement dangereux pour la démocratie et toute forme de progrès socio-économique.
- Dans un avenir proche, nous devrions contrer la grande menace provenant de l'utilisation du LLM et/ou du CAN dans des activités illégales (la tricherie aux examens universitaires est une utilisation plutôt bénigne dans l'espace des possibilités criminelles associées).
- Leur impact sur le travail et les marchés sera très positif à moyen et long terme.
- Compte tenu de ce qui précède, les systèmes d'IA devraient : a) être tenus par le droit international d'être enregistrés dans un « registre des systèmes d'IA », et b) notifier à leurs utilisateurs qu'ils conversent avec un système d'IA ou utilisent les résultats d'un système d'IA.
- Comme les systèmes d'IA ont un impact sociétal énorme et pour maximiser les avantages et les progrès socio-économiques, les technologies clés avancées des systèmes d'IA devraient devenir ouvertes.
- Les données liées à l'IA devraient être (au moins partiellement) démocratisées, toujours dans le but de maximiser les avantages et le progrès socio-économique.
- Des régimes de compensation financière solides et appropriés doivent être prévus pour les champions de la technologie de l'IA afin de compenser toute perte de profit due à l'ouverture susmentionnée et d'assurer de solides investissements futurs dans la R&D en IA (par exemple, par le biais de brevets technologiques, de régimes de licences obligatoires).
- L'équilibre de la recherche en IA entre le milieu universitaire et l'industrie devrait être repensé pour maximiser les résultats de la recherche, tout en maintenant la compétitivité et en récompensant les risques de R&D entrepris.
- Les pratiques éducatives doivent être revues à tous les niveaux d'éducation afin de maximiser les avantages des technologies de l'IA, tout en créant une nouvelle race de citoyens et de scientifiques (IA) créatifs et adaptables.
- Des mécanismes appropriés de réglementation/supervision/financement de l'IA devraient être créés et renforcés pour garantir ce qui précède.
Plusieurs de ces points sont traités en détail dans mon récent livre en 4 volumes sur 'AI Science and Society', en particulier dans les volumes A (réécrit en mai 2023 pour couvrir les LLM et l'Intelligence Générale Artificielle) et C.
Références de livres :
Science et société de l'intelligence artificielle Partie C : Science et société de l'IA