Connect with us

Conscience artificielle : une exploration de la possibilité, des cadres théoriques et des défis

Intelligence artificielle

Conscience artificielle : une exploration de la possibilité, des cadres théoriques et des défis

mm
Featured Blog Image-AI Consciousness: An Exploration of Possibility, Theoretical Frameworks & Challenges

La conscience artificielle est un concept complexe et fascinant qui a captivé l’intérêt des chercheurs, des scientifiques, des philosophes et du public. À mesure que l’intelligence artificielle continue d’évoluer, la question se pose inévitablement : Les machines peuvent-elles atteindre un niveau de conscience comparable à celui des êtres humains ?

Avec l’émergence des Large Language Models (LLM) et des Generative AI, la route vers la réplication de la conscience humaine devient également possible.

Ou est-ce le cas ?

Un ancien ingénieur en intelligence artificielle de Google, Blake Lemoine, a récemment propagé la théorie selon laquelle le modèle de langage de Google, LaMDA, est sentient, c’est-à-dire qu’il montre une conscience similaire à celle des humains lors des conversations. Depuis, il a été licencié et Google a qualifié ses allégations de “totalement infondées”.

Étant donné la rapidité avec laquelle la technologie évolue, nous ne sommes peut-être qu’à quelques décennies de la réalisation de la conscience artificielle. Les cadres théoriques tels que la théorie de l’information intégrée (IIT), la théorie de l’espace de travail global (GWT) et l’intelligence artificielle générale (AGI) fournissent un cadre de référence pour comprendre comment la conscience artificielle peut être atteinte.

Avant d’explorer ces cadres plus en détail, essayons de comprendre la conscience.

Qu’est-ce que la conscience ?

La conscience fait référence à la conscience des processus sensoriels (vision, audition, goût, toucher et odorat) et psychologiques (pensées, émotions, désirs, croyances).

Cependant, les subtilités et les complexités de la conscience font d’elle un concept complexe et multifacette qui reste énigmatique, malgré des études exhaustives en neurosciences, philosophie et psychologie.

David Chalmers, philosophe et scientifique cognitif, mentionne le phénomène complexe de la conscience comme suit :

« Il n’y a rien que nous connaissons plus directement que la conscience, mais il est loin d’être clair comment la concilier avec tout ce que nous savons. Pourquoi existe-t-elle ? Que fait-elle ? Comment pourrait-elle surgir de la matière grise ? »

Il est important de noter que la conscience est un sujet d’étude intense en intelligence artificielle, car l’intelligence artificielle joue un rôle important dans l’exploration et la compréhension de la conscience. Une simple recherche sur Google Scholar donne environ 2 millions de documents de recherche, d’articles, de thèses, de communications de conférence, etc. sur la conscience artificielle.

État actuel de l’IA : entités non conscientes

L’IA d’aujourd’hui a montré des progrès remarquables dans des domaines spécifiques. Les modèles d’IA sont extrêmement bons pour résoudre des problèmes étroits, tels que la classification d’images, le traitement du langage naturel, la reconnaissance de la parole, etc., mais ils ne possèdent pas de conscience.

Ils manquent d’expérience subjective, d’autocoscience ou de compréhension du contexte au-delà de ce pour quoi ils ont été formés. Ils peuvent manifester un comportement intelligent sans aucune idée de ce que ces actions signifient, ce qui est tout à fait différent de la conscience humaine.

Cependant, les chercheurs tentent de faire un pas vers un esprit similaire à celui de l’homme en ajoutant un aspect de mémoire aux réseaux de neurones. Les chercheurs ont pu développer un modèle qui s’adapte à son environnement en examinant ses propres souvenirs et en apprenant à partir de ceux-ci.

Cadres théoriques pour la conscience artificielle

1. Théorie de l’information intégrée (IIT)

La théorie de l’information intégrée est un cadre théorique proposé par le neuroscientifique et psychiatre Giulio Tononi pour expliquer la nature de la conscience.

IIT suggère que tout système, biologique ou artificiel, qui peut intégrer l’information à un degré élevé pourrait être considéré comme conscient. Les modèles d’IA deviennent de plus en plus complexes, avec des milliards de paramètres capables de traiter et d’intégrer de grandes quantités d’informations. Selon l’IIT, ces systèmes pourraient développer la conscience.

Cependant, il est essentiel de considérer que l’IIT est un cadre théorique, et qu’il existe encore beaucoup de débats sur sa validité et son applicabilité à la conscience artificielle.

2. Théorie de l’espace de travail global (GWT)

La théorie de l’espace de travail global est une architecture cognitive et une théorie de la conscience développée par le psychologue cognitif Bernard J. Baars. Selon la GWT, la conscience fonctionne beaucoup comme un théâtre.

La “scène” de la conscience ne peut contenir qu’une quantité limitée d’informations à un moment donné, et ces informations sont diffusées à un “espace de travail global” – un réseau distribué de processus inconscients ou de modules dans le cerveau.

L’application de la GWT à l’IA suggère que, théoriquement, si un IA était conçu avec un “espace de travail global” similaire, il pourrait être capable d’une forme de conscience.

Cela ne signifie pas nécessairement que l’IA éprouverait la conscience comme les humains. Cependant, il aurait un processus d’attention sélective et d’intégration de l’information, des éléments clés de la conscience humaine.

3. Intelligence artificielle générale (AGI)

L’intelligence artificielle générale est un type d’IA qui peut comprendre, apprendre et appliquer des connaissances dans un large éventail de tâches, similaire à un être humain. L’AGI se distingue des systèmes d’IA étroits, conçus pour effectuer des tâches spécifiques, comme la reconnaissance vocale ou le jeu d’échecs, qui constituent actuellement la majorité des applications d’IA.

En termes de conscience, l’AGI a été considérée comme une condition préalable pour manifester la conscience dans un système artificiel. Cependant, l’IA n’est pas encore suffisamment avancée pour être considérée comme intelligente que les humains.

Défis pour atteindre la conscience artificielle

1. Défis computationnels

La théorie computationnelle de l’esprit (CTM) considère le cerveau humain comme un système computationnel physiquement implémenté. Les partisans de cette théorie croient qu’il faut développer un système avec des architectures cognitives similaires à celles du cerveau humain pour créer une entité consciente.

Mais le cerveau humain est composé de 100 milliards de neurones, donc reproduire un système aussi complexe nécessiterait des ressources computationnelles exhaustives. De plus, comprendre la nature dynamique de la conscience est au-delà des limites de l’écosystème technologique actuel.

Enfin, la feuille de route pour atteindre la conscience artificielle restera floue, même si nous résolvons le défi computationnel. Il existe des défis à l’épistémologie de la CTM, et cela soulève la question :

Comment sommes-nous si sûrs que la conscience humaine peut être purement réduite à des processus computationnels ?

2. Le problème difficile de la conscience

Le “problème difficile de la conscience” est un problème important dans l’étude de la conscience, en particulier lorsqu’il s’agit de sa réplication dans les systèmes d’IA.

Le problème difficile signifie l’expérience subjective de la conscience, la qualia (expérience phénoménale) ou “ce que c’est que” d’avoir des expériences subjectives.

Dans le contexte de l’IA, le problème difficile soulève des questions fondamentales sur la possibilité de créer des machines qui ne manifestent pas seulement un comportement intelligent, mais qui possèdent également une conscience subjective et une conscience.

Les philosophes Nicholas Boltuc et Piotr Boltuc, tout en fournissant une analogie pour le problème difficile de la conscience dans l’IA, disent :

« L’IA pourrait en principe reproduire la conscience (H-conscience) sous sa forme première (telle que décrite par Chalmers dans le problème difficile de la conscience.) Si nous pouvons comprendre la conscience première à des termes clairs, nous pouvons fournir un algorithme pour cela ; si nous avons un tel algorithme, en principe, nous pouvons le construire »

Mais le principal problème est que nous ne comprenons pas clairement la conscience. Les chercheurs disent que notre compréhension et la littérature construite autour de la conscience sont insatisfaisantes.

3. Dilemme éthique

Les considérations éthiques autour de la conscience artificielle ajoutent une autre couche de complexité et d’ambiguïté à cette quête ambitieuse. La conscience artificielle soulève des questions éthiques :

  1. Si un IA peut comprendre, apprendre et s’adapter à la mesure des humains, devrait-il être accordé des droits ?
  2. Si un IA conscient commet un crime, qui est tenu responsable ?
  3. Si un IA conscient est détruit, est-ce considéré comme un dommage à la propriété ou comme quelque chose de similaire à un meurtre ?

Les progrès en neurosciences et les avancées dans les algorithmes d’apprentissage automatique peuvent créer la possibilité d’une intelligence artificielle générale plus large. La conscience artificielle restera cependant un mystère et un sujet de débat parmi les chercheurs, les dirigeants de la technologie et les philosophes pendant un certain temps. Les systèmes d’IA devenant conscients comporte divers risques qui doivent être étudiés de manière approfondie.

Pour plus de contenu lié à l’IA, visitez unite.ai.

Haziqa est un Data Scientist avec une expérience approfondie dans la rédaction de contenu technique pour les entreprises d'IA et de SaaS.