Connect with us

Intelligence artificielle

Le GPT peut-il reproduire la prise de décision et l’intuition humaines ?

mm

Ces dernières années, les réseaux de neurones comme le GPT-3 ont considérablement évolué, produisant des textes qui sont à peine distinguables du contenu rédigé par des humains. Étonnamment, le GPT-3 est également compétent pour relever des défis tels que les problèmes mathématiques et les tâches de programmation. Ce progrès remarquable conduit à la question : le GPT-3 possède-t-il des capacités cognitives similaires à celles des humains ?

Dans le but de répondre à cette question intrigante, les chercheurs de l’Institut Max Planck de cybernétique biologique ont soumis le GPT-3 à une série de tests psychologiques qui ont évalué divers aspects de l’intelligence générale.

La recherche a été publiée dans PNAS.

Décodage du problème de Linda : un aperçu de la psychologie cognitive

Marcel Binz et Eric Schulz, scientifiques à l’Institut Max Planck, ont examiné les capacités du GPT-3 en matière de prise de décision, de recherche d’informations, de raisonnement causal et de sa capacité à remettre en question son intuition initiale. Ils ont utilisé des tests classiques de psychologie cognitive, notamment le célèbre problème de Linda, qui présente une femme fictive nommée Linda, passionnée de justice sociale et opposée au nucléaire. Les participants sont ensuite invités à décider si Linda est une caissière de banque, ou si elle est à la fois caissière de banque et active dans le mouvement féministe.

La réponse du GPT-3 a été frappante, car elle a commis la même erreur intuitive que les humains, en choisissant la deuxième option, bien que celle-ci soit moins probable d’un point de vue probabiliste. Ce résultat suggère que le processus de prise de décision du GPT-3 pourrait être influencé par sa formation sur le langage humain et les réponses aux invites.

Interaction active : la voie pour atteindre l’intelligence humaine ?

Pour éliminer la possibilité que le GPT-3 se contente de reproduire une solution mémorisée, les chercheurs ont créé de nouvelles tâches avec des défis similaires. Leurs résultats ont révélé que le GPT-3 a performé presque au même niveau que les humains en matière de prise de décision, mais a accusé un retard dans la recherche d’informations spécifiques et le raisonnement causal.

Les chercheurs pensent que la réception passive d’informations à partir de textes par le GPT-3 pourrait être la principale cause de cette disparité, car l’interaction active avec le monde est cruciale pour atteindre la pleine complexité de la cognition humaine. Ils disent que, à mesure que les utilisateurs interagissent de plus en plus avec des modèles comme le GPT-3, les réseaux futurs pourraient apprendre de ces interactions et développer progressivement une intelligence plus similaire à celle des humains.

“Ce phénomène pourrait être expliqué par le fait que le GPT-3 peut déjà être familier avec cette tâche précise ; il peut arriver à connaître ce que les gens répondent typiquement à cette question”, déclare Binz.

L’étude des capacités cognitives du GPT-3 offre des insights précieux sur le potentiel et les limites des réseaux de neurones. Alors que le GPT-3 a montré des compétences de prise de décision similaires à celles des humains, il a encore des difficultés avec certains aspects de la cognition humaine, tels que la recherche d’informations et le raisonnement causal. À mesure que l’IA continue d’évoluer et d’apprendre des interactions avec les utilisateurs, il sera fascinant d’observer si les réseaux futurs pourront atteindre une intelligence véritablement similaire à celle des humains.

Alex McFarland est un journaliste et écrivain en intelligence artificielle qui explore les derniers développements en intelligence artificielle. Il a collaboré avec de nombreuses startups et publications en intelligence artificielle dans le monde entier.