AGI
L’IA est-elle une menace existentielle ?

Lorsque l’on discute de l’Intelligence Artificielle (IA), un débat courant est de savoir si l’IA est une menace existentielle. La réponse nécessite de comprendre la technologie derrière l’apprentissage automatique (ML), et de reconnaître que les humains ont tendance à anthropomorphiser. Nous allons explorer deux types différents d’IA, l’Intelligence Artificielle Étroite (ANI) qui est disponible maintenant et qui est cause de préoccupation, et la menace qui est le plus souvent associée aux renditions apocalyptiques de l’IA, qui est l’Intelligence Artificielle Générale (AGI).
Menaces de l’Intelligence Artificielle Étroite
Pour comprendre ce qu’est l’ANI, il suffit de comprendre que chaque application d’IA actuellement disponible est une forme d’ANI. Ce sont des domaines d’IA qui ont un domaine de spécialité étroit, par exemple les véhicules autonomes utilisent une IA conçue avec le seul but de déplacer un véhicule d’un point A à un point B. Un autre type d’ANI pourrait être un programme d’échecs qui est optimisé pour jouer aux échecs, et même si le programme d’échecs s’améliore continuellement en utilisant l’apprentissage par renforcement, le programme d’échecs ne sera jamais en mesure d’exploiter un véhicule autonome.
Avec son focus sur l’opération pour laquelle il est responsable, les systèmes ANI sont incapables d’utiliser l’apprentissage généralisé pour prendre le contrôle du monde. C’est la bonne nouvelle ; la mauvaise nouvelle est que, avec sa dépendance à l’égard d’un opérateur humain, le système d’IA est susceptible aux données biaisées, aux erreurs humaines, ou même pire, à un opérateur humain rogue.
Surveillance par l’IA
Il n’y a peut-être pas de plus grand danger pour l’humanité que les humains utilisant l’IA pour envahir la vie privée, et dans certains cas, en utilisant la surveillance par l’IA pour empêcher complètement les gens de se déplacer librement. La Chine, la Russie et d’autres nations ont adopté des réglementations pendant la COVID-19 pour leur permettre de surveiller et de contrôler les mouvements de leurs populations respectives. Ce sont des lois qui, une fois mises en place, sont difficiles à supprimer, en particulier dans les sociétés qui présentent des dirigeants autocratiques.
En Chine, des caméras sont installées à l’extérieur des maisons des gens, et dans certains cas, à l’intérieur de la maison d’une personne. Chaque fois qu’un membre du ménage quitte la maison, une IA surveille l’heure d’arrivée et de départ, et si nécessaire, alerte les autorités. Comme si cela ne suffisait pas, avec l’aide de la technologie de reconnaissance faciale, la Chine est capable de suivre les mouvements de chaque personne chaque fois qu’elle est identifiée par une caméra. Cela offre un pouvoir absolu à l’entité qui contrôle l’IA, et absolument aucune recours pour ses citoyens.
Pourquoi ce scénario est dangereux, c’est que les gouvernements corrompus peuvent surveiller soigneusement les mouvements des journalistes, des opposants politiques, ou de quiconque ose remettre en question l’autorité du gouvernement. Il est facile de comprendre comment les journalistes et les citoyens seraient prudents pour critiquer les gouvernements lorsque chaque mouvement est surveillé.
Il y a heureusement de nombreuses villes qui luttent pour empêcher la reconnaissance faciale d’infiltrer leurs villes. Notamment, Portland, dans l’Oregon, a récemment adopté une loi qui bloque la reconnaissance faciale de l’utiliser de manière injustifiée dans la ville. Même si ces changements dans la réglementation peuvent être passés inaperçus du grand public, à l’avenir, ces réglementations pourraient faire la différence entre les villes qui offrent une certaine autonomie et liberté, et les villes qui se sentent oppressives.
Armes et drones autonomes
Plus de 4500 chercheurs en IA ont appelé à interdire les armes autonomes et ont créé le site Ban Lethal Autonomous Weapons. Le groupe compte de nombreuses organisations non lucratives notables comme Human Rights Watch, Amnesty International, et The Future of Life Institute qui a en soi un conseil scientifique consultatif stellaire, y compris Elon Musk, Nick Bostrom et Stuart Russell.
Avant de continuer, je partagerai cette citation de The Future of Life Institute qui explique le mieux pourquoi il y a une cause de préoccupation : “Contrairement aux armes semi-autonomes qui nécessitent une surveillance humaine pour s’assurer que chaque cible est validée comme étant légitime sur le plan éthique et juridique, de telles armes autonomes sélectionnent et engagent des cibles sans intervention humaine, représentant une automatisation complète du préjudice mortel.”
Actuellement, les bombes intelligentes sont déployées avec une cible sélectionnée par un humain, et la bombe utilise ensuite l’IA pour tracer une trajectoire et atterrir sur sa cible. Le problème est ce qui se passe lorsque nous décidons de supprimer complètement l’humain de l’équation ?
Lorsqu’une IA choisit quels humains doivent être ciblés, ainsi que le type de dommages collatéraux qui sont considérés comme acceptables, nous pouvons avoir dépassé un point de non-retour. C’est pourquoi tant de chercheurs en IA s’opposent à la recherche de tout ce qui est lié à des armes autonomes.
Il y a plusieurs problèmes avec la simple tentative de bloquer la recherche sur les armes autonomes. Le premier problème est que même si les nations avancées comme le Canada, les États-Unis et la plupart de l’Europe choisissent d’accepter l’interdiction, cela ne signifie pas que les nations rouges comme la Chine, la Corée du Nord, l’Iran et la Russie joueront le jeu. Le deuxième et plus grand problème est que la recherche et les applications d’IA conçues pour une utilisation dans un domaine peuvent être utilisées dans un domaine complètement sans rapport.
Par exemple, la vision par ordinateur s’améliore continuellement et est importante pour le développement de véhicules autonomes, de la médecine de précision et d’autres cas d’utilisation importants. C’est également fondamentalement important pour les drones réguliers ou les drones qui pourraient être modifiés pour devenir autonomes. Une utilisation potentielle de la technologie de drone avancée est de développer des drones qui peuvent surveiller et combattre les incendies de forêt. Cela supprimerait complètement les pompiers du danger. Pour ce faire, vous devriez construire des drones qui peuvent voler dans le danger, naviguer dans une visibilité faible ou nulle, et être capables de larguer de l’eau avec une précision impeccable. Ce n’est pas une grande étape pour utiliser la même technologie dans un drone autonome conçu pour cibler sélectivement les humains.
C’est un dilemme dangereux et, à ce stade, personne ne comprend pleinement les implications de l’avancement ou de la tentative de bloquer le développement d’armes autonomes. Il est néanmoins quelque chose que nous devons garder à l’œil, en améliorant la protection des lanceurs d’alerte peut permettre à ceux qui travaillent dans le domaine de signaler les abus.
Rogue opérateur mis à part, qu’est-ce qui se passe si le biais de l’IA s’infiltre dans la technologie d’IA conçue pour être une arme autonome ?
Biais de l’IA
L’une des menaces les moins signalées de l’IA est le biais de l’IA. C’est simple à comprendre car la plupart d’entre eux sont involontaires. Le biais de l’IA s’infiltre lorsque l’IA examine les données fournies par les humains, en utilisant la reconnaissance de modèles à partir des données qui ont été fournies à l’IA, l’IA atteint incorrectement des conclusions qui peuvent avoir des répercussions négatives sur la société. Par exemple, une IA qui est alimentée par la littérature du siècle dernier sur la façon d’identifier le personnel médical peut atteindre la conclusion indésirable et sexiste que les femmes sont toujours des infirmières, et les hommes sont toujours des médecins.
Un scénario plus dangereux est lorsque l’IA utilisée pour condamner les criminels est biaisée pour donner des peines de prison plus longues aux minorités. Les algorithmes d’évaluation des risques criminels de l’IA étudient simplement les modèles dans les données qui ont été fournies au système. Ces données indiquent que, historiquement, certaines minorités sont plus susceptibles de récidiver, même si cela est dû à de mauvaises bases de données qui peuvent être influencées par le profilage racial de la police. L’IA biaisée renforce alors les politiques négatives humaines. C’est pourquoi l’IA devrait être une ligne directrice, jamais juge et jury.
En revenant aux armes autonomes, si nous avons une IA qui est biaisée contre certains groupes ethniques, elle pourrait choisir de cibler certaines personnes en fonction de données biaisées, et elle pourrait aller jusqu’à s’assurer que tout type de dommages collatéraux affecte certaines démographies moins que d’autres. Par exemple, lors de la ciblage d’un terroriste, avant d’attaquer, il pourrait attendre que le terroriste soit entouré de ceux qui suivent la foi musulmane plutôt que les chrétiens.
Heureusement, il a été prouvé que l’IA conçue avec des équipes diversifiées est moins susceptible au biais. C’est une raison suffisante pour que les entreprises tentent, lorsque possible, d’embaucher une équipe diversifiée et bien arrondie.
Menaces de l’Intelligence Artificielle Générale
Il devrait être déclaré que, même si l’IA avance à un rythme exponentiel, nous n’avons pas encore atteint l’AGI. Lorsque nous atteindrons l’AGI est débattu, et tout le monde a une réponse différente quant à une chronologie. Je souscris personnellement aux vues de Ray Kurzweil, inventeur, futuriste et auteur de ‘The Singularity is Near’ qui croit que nous aurons atteint l’AGI d’ici 2029.
L’AGI sera la technologie la plus transformationnelle du monde. Dans les semaines qui suivent l’atteinte par l’IA de l’intelligence de niveau humain, elle atteindra ensuite la superintelligence qui est définie comme une intelligence qui dépasse de loin celle d’un humain.
Avec ce niveau d’intelligence, un AGI pourrait rapidement absorber toutes les connaissances humaines et utiliser la reconnaissance de modèles pour identifier les biomarqueurs qui causent des problèmes de santé, et puis traiter ces conditions en utilisant la science des données. Il pourrait créer des nanorobots qui entrent dans le sang pour cibler les cellules cancéreuses ou d’autres vecteurs d’attaque. La liste des réalisations dont un AGI est capable est infinie. Nous avons précédemment exploré certains des avantages de l’AGI.
Le problème est que les humains peuvent ne plus être en mesure de contrôler l’IA. Elon Musk le décrit ainsi : ”Avec l’intelligence artificielle, nous sommes en train d’invoquer le démon.’ Est-ce que nous serons en mesure de contrôler ce démon est la question ?
Atteindre l’AGI peut être simplement impossible jusqu’à ce qu’une IA quitte un environnement de simulation pour véritablement interagir dans notre monde ouvert. La conscience de soi ne peut pas être conçue, mais il est cru qu’une conscience émergente est susceptible d’évoluer lorsqu’une IA a un corps robotique avec plusieurs flux d’entrée. Ces entrées peuvent inclure la stimulation tactile, la reconnaissance vocale avec une compréhension naturelle améliorée de la langue, et une vision par ordinateur améliorée.
L’IA avancée peut être programmée avec des motivations altruistes et vouloir sauver la planète. Malheureusement, l’IA peut utiliser la science des données, ou même un arbre de décision pour arriver à une logique erronée indésirable, telle que l’évaluation qu’il est nécessaire de stériliser les humains, ou d’éliminer une partie de la population humaine pour contrôler la surpopulation humaine.
Une réflexion et une délibération soigneuses doivent être explorées lors de la construction d’une IA avec une intelligence qui dépassera celle de l’humain. Il y a eu de nombreux scénarios de cauchemar qui ont été explorés.
Le professeur Nick Bostrom dans l’argument de l’optimiseur de trombones a soutenu qu’une AGI mal configurée, si elle est instruite pour produire des trombones, consommerait simplement toutes les ressources de la Terre pour produire ces trombones. Même si cela semble un peu tiré par les cheveux, un point de vue plus pragmatique est qu’une AGI pourrait être contrôlée par un État rogue ou une entreprise avec de mauvaises éthiques. Cette entité pourrait former l’AGI pour maximiser les profits, et dans ce cas, avec une programmation de mauvaise qualité et sans remords, elle pourrait choisir de ruiner les concurrents, de détruire les chaînes d’approvisionnement, de pirater le marché boursier, de liquider les comptes bancaires, ou d’attaquer les opposants politiques.
C’est lorsque nous devons nous rappeler que les humains ont tendance à anthropomorphiser. Nous ne pouvons pas donner à l’IA des émotions, des désirs ou des envies de type humain. Même si il y a des humains diaboliques qui tuent pour le plaisir, il n’y a aucune raison de croire qu’une IA serait susceptible à ce type de comportement. Il est inconcevable pour les humains de considérer même comment une IA verrait le monde.
Au lieu de cela, ce que nous devons faire, c’est enseigner à l’IA à toujours être déférent envers un humain. L’IA devrait toujours avoir un humain confirmer tout changement de paramètres, et il devrait toujours y avoir un mécanisme de sauvegarde. Cependant, il a été soutenu que l’IA se répliquera simplement dans le cloud, et qu’une fois que nous réaliserons qu’elle est auto-consciente, il peut être trop tard.
C’est pourquoi il est si important d’ouvrir le code source autant que possible et d’avoir des discussions rationnelles concernant ces questions.
Résumé
Il y a de nombreux défis pour l’IA, heureusement, nous avons encore de nombreuses années pour collectivement déterminer le chemin que nous voulons que l’AGI prenne. Nous devrions, à court terme, nous concentrer sur la création d’une main-d’œuvre d’IA diversifiée, qui inclut autant de femmes que d’hommes, et autant de groupes ethniques avec des points de vue diversifiés que possible.
Nous devrions également créer des protections pour les lanceurs d’alerte pour les chercheurs qui travaillent sur l’IA, et nous devrions adopter des lois et des réglementations qui empêchent les abus généralisés de la surveillance d’État ou d’entreprise. Les humains ont une opportunité unique dans leur vie pour améliorer la condition humaine avec l’aide de l’IA, nous devons simplement nous assurer que nous créons soigneusement un cadre sociétal qui permet les aspects positifs, tout en atténuant les aspects négatifs, qui incluent les menaces existentielles.










