Suivez nous sur

L'IA est-elle une menace existentielle ?

Intelligence générale artificielle

L'IA est-elle une menace existentielle ?

mm

Lorsqu’on parle d’intelligence artificielle (IA), un débat courant consiste à savoir si l’IA constitue une menace existentielle. La réponse nécessite de comprendre la technologie derrière l’apprentissage automatique (ML) et de reconnaître que les humains ont tendance à s’anthropomorphiser. Nous explorerons deux types différents d'IA, l'intelligence artificielle étroite (ANI), qui est actuellement disponible et qui suscite des inquiétudes, et la menace la plus souvent associée aux interprétations apocalyptiques de l'IA, à savoir l'intelligence artificielle générale (AGI).

Menaces artificielles d'intelligence étroite

Pour comprendre ce qu'est l'ANI, vous devez simplement comprendre que chaque application d'IA actuellement disponible est une forme d'ANI. Ce sont des domaines d'IA qui ont un domaine de spécialité étroit, par exemple les véhicules autonomes utilisent l'IA qui est conçue dans le seul but de déplacer un véhicule d'un point A à B. Un autre type d'ANI pourrait être un programme d'échecs optimisé pour jouer échecs, et même si le programme d'échecs s'améliore continuellement en utilisant l'apprentissage par renforcement, le programme d'échecs ne pourra jamais faire fonctionner un véhicule autonome.

En se concentrant sur l'opération dont il est responsable, les systèmes ANI sont incapables d'utiliser l'apprentissage généralisé pour conquérir le monde. C'est la bonne nouvelle; la mauvaise nouvelle est qu'en s'appuyant sur un opérateur humain, le système d'IA est sensible aux données biaisées, à l'erreur humaine ou, pire encore, à un opérateur humain malveillant.

Surveillance de l'IA

Il n'y a peut-ĂŞtre pas de plus grand danger pour l'humanitĂ© que les humains utilisant l'IA pour envahir la vie privĂ©e et, dans certains cas, utilisant la surveillance de l'IA pour empĂŞcher complètement les gens de se dĂ©placer librement.  La Chine, la Russie et d'autres pays ont adoptĂ© des rĂ©glementations pendant le COVID-19 pour leur permettre de surveiller et de contrĂ´ler les mouvements de leurs populations respectives. Ce sont des lois qui, une fois en place, sont difficiles Ă  supprimer, en particulier dans les sociĂ©tĂ©s qui comptent des dirigeants autocratiques.

En Chine, des caméras sont installées à l'extérieur des domiciles, et parfois même à l'intérieur. Chaque fois qu'un membre du foyer quitte le domicile, une IA surveille l'heure d'arrivée et de départ et, si nécessaire, alerte les autorités. Comme si cela ne suffisait pas, grâce à la reconnaissance faciale, la Chine est capable de suivre les déplacements de chaque personne chaque fois qu'elle est identifiée par une caméra. Cela confère un pouvoir absolu à l'entité qui contrôle l'IA, et un recours absolu à ses citoyens.

Pourquoi ce scénario est dangereux, c'est que les gouvernements corrompus peuvent surveiller attentivement les mouvements des journalistes, des opposants politiques ou de toute personne qui ose remettre en question l'autorité du gouvernement. Il est facile de comprendre comment les journalistes et les citoyens seraient prudents pour critiquer les gouvernements alors que chaque mouvement est surveillé.

Il existe heureusement de nombreuses villes qui se battent pour empêcher la reconnaissance faciale de s'infiltrer dans leurs villes. Notamment, Portland, Oregon a récemment adopté une loi qui empêche la reconnaissance faciale d'être utilisée inutilement en ville. Bien que ces changements de réglementation soient peut-être passés inaperçus du grand public, à l'avenir, ces réglementations pourraient faire la différence entre les villes qui offrent une certaine forme d'autonomie et de liberté et les villes qui se sentent oppressives.

Armes autonomes et drones

Plus de 4500 recherches sur l'IA ont appelé à l'interdiction des armes autonomes et ont créé le Interdire les armes autonomes mortelles site web. Le groupe compte de nombreux organismes à but non lucratif notables en tant que signataires tels que Human Rights Watch, Amnesty Internationalainsi que, Institut de l'avenir de la vie qui en soi a un conseil consultatif scientifique stellaire comprenant Elon Musk, Nick Bostrom et Stuart Russell.

Avant de continuer, je partagerai cette citation de The Future of Life Institute qui explique le mieux pourquoi il y a une raison évidente de s'inquiéter : « Contrairement aux armes semi-autonomes qui nécessitent une surveillance humaine pour s'assurer que chaque cible est validée comme éthiquement et légalement légitime, comme des armes entièrement autonomes sélectionnent et engagent des cibles sans intervention humaine, ce qui représente une automatisation complète des dommages mortels. ”

Actuellement, les bombes intelligentes sont dĂ©ployĂ©es avec une cible sĂ©lectionnĂ©e par un humain, et la bombe utilise ensuite l'IA pour tracer une trajectoire et atterrir sur sa cible. Le problème est que se passe-t-il lorsque nous dĂ©cidons de supprimer complètement l'humain de l'Ă©quation ?

Lorsqu'une IA choisit ce que les humains ont besoin de cibler, ainsi que le type de dommage collatéral jugé acceptable, nous avons peut-être franchi un point de non-retour. C'est pourquoi tant de chercheurs en intelligence artificielle s'opposent à la recherche de tout ce qui est lié à distance aux armes autonomes.

Tenter simplement de bloquer la recherche sur les armes autonomes pose de multiples problèmes. Le premier est que, même si des pays avancés comme le Canada, les États-Unis et la plupart des pays européens acceptent l'interdiction, cela ne signifie pas que des États voyous comme la Chine, la Corée du Nord, l'Iran et la Russie joueront le jeu. Le deuxième problème, plus grave encore, est que la recherche et les applications en IA, conçues pour un domaine particulier, peuvent être utilisées dans un domaine totalement différent.

Par exemple, la vision par ordinateur s’améliore continuellement et joue un rôle important dans le développement de véhicules autonomes, de médecine de précision et d’autres cas d’utilisation importants. C’est également fondamental pour les drones réguliers ou qui pourraient être modifiés pour devenir autonomes. Un cas d’utilisation potentiel de la technologie avancée des drones est le développement de drones capables de surveiller et de combattre les incendies de forêt. Cela mettrait complètement les pompiers hors de danger. Pour ce faire, vous devrez construire des drones capables de voler dans des zones dangereuses, de naviguer dans des conditions de visibilité faible ou nulle et de larguer de l'eau avec une précision impeccable. Il n’est pas exagéré d’utiliser ensuite cette technologie identique dans un drone autonome conçu pour cibler sélectivement les humains.

C'est une situation dangereuse et à ce stade, personne ne comprend pleinement les implications d'avancer ou de tenter de bloquer le développement d'armes autonomes. C'est néanmoins quelque chose que nous devons garder à l'esprit, en améliorant protection des dénonciateurs peut permettre aux personnes sur le terrain de signaler les abus.

Opérateur voyou mis à part, que se passe-t-il si le biais de l'IA s'infiltre dans une technologie d'IA conçue pour être une arme autonome ?

Biais de l'IA

L'une des menaces les moins signalées de l'IA est le biais de l'IA. C'est simple à comprendre car la plupart d'entre eux sont involontaires. Le biais de l'IA se glisse lorsqu'une IA examine les données qui lui sont transmises par des humains, en utilisant la reconnaissance de formes à partir des données qui ont été transmises à l'IA, l'IA parvient à des conclusions incorrectes qui peuvent avoir des répercussions négatives sur la société. Par exemple, une IA alimentée par la littérature du siècle dernier sur la façon d'identifier le personnel médical peut arriver à la conclusion sexiste non désirée que les femmes sont toujours des infirmières et les hommes sont toujours des médecins.

Un scénario plus dangereux est lorsque L'IA utilisée pour condamner les criminels condamnés est biaisée Vers des peines de prison plus longues pour les minorités. Les algorithmes d'évaluation du risque criminel de l'IA étudient simplement les tendances dans les données introduites dans le système. Ces données indiquent que, historiquement, certaines minorités sont plus susceptibles de récidiver, même lorsque cela est dû à des bases de données incomplètes, potentiellement influencées par le profilage racial de la police. L'IA biaisée renforce alors les politiques humaines négatives. C'est pourquoi l'IA devrait servir de guide, et non de juge et de jury.

Pour en revenir aux armes autonomes, si nous avons une IA qui est biaisée contre certains groupes ethniques, elle pourrait choisir de cibler certains individus sur la base de données biaisées, et elle pourrait aller jusqu'à garantir que tout type de dommage collatéral affecte moins certaines données démographiques que d'autres. . Par exemple, lorsque vous visez un terroriste, avant d'attaquer, vous pourriez attendre que le terroriste soit entouré de ceux qui suivent la foi musulmane au lieu de chrétiens.

Heureusement, il a été prouvé que l'IA conçue avec des équipes diverses est moins sujette aux biais. C'est une raison suffisante pour que les entreprises tentent, dans la mesure du possible, d'embaucher une équipe diversifiée et bien équilibrée.

Menaces d'intelligence artificielle générale

Il convient de préciser que si l'IA progresse à un rythme exponentiel, nous n'avons toujours pas atteint l'AGI. Quand nous atteindrons l'AGI est à débattre, et tout le monde a une réponse différente quant à un calendrier. Je souscris personnellement à l'opinion de Ray Kurzweil, inventeur, futuriste et auteur de "The Singularity is Near" qui pense que nous aurons AGI atteint d'ici 2029.

AGI sera la technologie la plus transformationnelle au monde. Quelques semaines après que l'IA aura atteint une intelligence de niveau humain, elle atteindra alors superintelligence qui est défini comme une intelligence qui dépasse de loin celle d'un humain.

Avec un tel niveau d'intelligence, une IAG pourrait rapidement assimiler toutes les connaissances humaines et utiliser la reconnaissance de formes pour identifier les biomarqueurs responsables de problèmes de santé, puis traiter ces pathologies grâce à la science des données. Elle pourrait créer des nanorobots pénétrant dans la circulation sanguine pour cibler les cellules cancéreuses ou d'autres vecteurs d'attaque. La liste des possibilités offertes par une IAG est infinie. Nous avons déjà exploré certaines de ces possibilités. avantages de l'IAG.

Le problème est que les humains pourraient ne plus être en mesure de contrôler l'IA. Elon Musk le décrit ainsi : «Avec l'intelligence artificielle, nous invoquons le démon. « Serons-nous capables de contrôler ce démon, telle est la question ? »

Atteindre l'AGI peut tout simplement être impossible jusqu'à ce qu'une IA quitte un cadre de simulation pour véritablement interagir dans notre monde ouvert. La conscience de soi ne peut pas être conçue, on croit plutôt qu'une conscience émergente est susceptible d'évoluer lorsqu'une IA a un corps robotique comportant plusieurs flux d'entrée. Ces entrées peuvent inclure une stimulation tactile, une reconnaissance vocale avec une meilleure compréhension du langage naturel et une vision par ordinateur augmentée.

L'IA avancée peut être programmée avec des motifs altruistes et vouloir sauver la planète. Malheureusement, l'IA peut utiliser science des données, Ou même un arbre de décision pour arriver à une logique défectueuse indésirable, comme évaluer qu'il est nécessaire de stériliser les humains, ou d'éliminer une partie de la population humaine afin de contrôler la surpopulation humaine.

Une réflexion et une délibération approfondies doivent être explorées lors de la construction d'une IA dotée d'une intelligence qui surpassera de loin celle d'un humain. De nombreux scénarios cauchemardesques ont été explorés.

Le professeur Nick Bostrom dans l'argument Paperclip Maximizer a fait valoir qu'un AGI mal configuré, s'il était chargé de produire des trombones, consommerait simplement toutes les ressources terrestres pour produire ces trombones. Bien que cela semble un peu tiré par les cheveux, un point de vue plus pragmatique est qu'une AGI pourrait être contrôlée par un État voyou ou une société avec une mauvaise éthique. Cette entité pourrait entraîner l'AGI à maximiser les profits, et dans ce cas, avec une mauvaise programmation et aucun remords, elle pourrait choisir de mettre ses concurrents en faillite, de détruire les chaînes d'approvisionnement, de pirater le marché boursier, de liquider des comptes bancaires ou d'attaquer des opposants politiques.

C'est à ce moment-là que nous devons nous rappeler que les humains ont tendance à s'anthropomorphiser. Nous ne pouvons pas donner à l'IA des émotions, des désirs ou des désirs de type humain. S'il existe des humains diaboliques qui tuent pour le plaisir, il n'y a aucune raison de croire qu'une IA serait sensible à ce type de comportement. Il est inconcevable pour les humains de ne serait-ce que considérer comment une IA verrait le monde.

Au lieu de cela, ce que nous devons faire, c'est apprendre à l'IA à toujours faire preuve de déférence envers un humain. L'IA doit toujours demander à un humain de confirmer toute modification des paramètres, et il doit toujours y avoir un mécanisme de sécurité. Là encore, il a été avancé que l'IA se reproduirait simplement dans le cloud, et au moment où nous réalisons qu'elle est consciente d'elle-même, il sera peut-être trop tard.

C'est pourquoi il est si important d'ouvrir autant d'IA que possible et d'avoir des discussions rationnelles sur ces questions.

Résumé

L'IA est confrontée à de nombreux défis, heureusement, nous avons encore de nombreuses années pour déterminer collectivement la voie future que nous voulons qu'AGI prenne. Nous devrions à court terme nous concentrer sur la création d'une main-d'œuvre diversifiée en IA, qui comprend autant de femmes que d'hommes et autant de groupes ethniques ayant des points de vue divers que possible.

Nous devrions également créer des protections contre les lanceurs d'alerte pour les chercheurs qui travaillent sur l'IA, et nous devrions adopter des lois et des réglementations qui empêchent les abus généralisés de la surveillance à l'échelle de l'État ou de l'entreprise. Les humains ont une occasion unique d'améliorer la condition humaine avec l'aide de l'IA, nous devons simplement nous assurer que nous créons soigneusement un cadre sociétal qui permet le mieux les aspects positifs, tout en atténuant les aspects négatifs qui incluent les menaces existentielles.

Antoine est un leader visionnaire et partenaire fondateur d'Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et on le surprend souvent en train de s'extasier sur le potentiel des technologies disruptives et de l'AGI.

En futuriste, il se consacre à l'exploration de la manière dont ces innovations façonneront notre monde. En outre, il est le fondateur de Titres.io, une plateforme axée sur l’investissement dans les technologies de pointe qui redéfinissent l’avenir et remodèlent des secteurs entiers.