talon Enfants, IA et éthique : comment les enfants perçoivent et traitent Alexa et Roomba - Unite.AI
Suivez nous sur

Ethique

Enfants, IA et éthique : comment les enfants perçoivent et traitent Alexa et Roomba

Publié le

 on

Photo de Brandon Romanchuk sur Unsplash

Une étude récente menée par les psychologues du développement de Duke a exploré comment les enfants perçoivent l'intelligence et les émotions des appareils d'IA, comparant spécifiquement le haut-parleur intelligent Alexa à l'aspirateur autonome Roomba. Les chercheurs ont découvert que les enfants âgés de quatre à onze ans avaient tendance à considérer Alexa comme ayant des pensées et des émotions plus humaines que Roomba.

Les résultats de l'étude ont été publiés en ligne le 10 avril dans la revue Developmental Psychology.

L'auteure principale Teresa Flanagan s'est en partie inspirée des représentations hollywoodiennes des interactions homme-robot, telles que celles vues dans "Westworld" de HBO. L'étude a impliqué 127 enfants âgés de quatre à onze ans, qui ont regardé un clip de 20 secondes de chaque technologie, puis ont répondu à des questions sur les appareils.

"Dans Westworld et le film Ex Machina, nous voyons comment les adultes peuvent interagir avec des robots de ces manières très cruelles et horribles", a déclaré Flanagan. "Mais comment les enfants interagiraient-ils avec eux?"

Traiter les appareils IA avec respect

Malgré les différences d'intelligence perçue entre Alexa et Roomba, les enfants de tous les groupes d'âge ont convenu qu'il était mal de frapper ou de crier sur les machines. Cependant, à mesure que les enfants grandissaient, ils ont déclaré qu'il était légèrement plus acceptable d'attaquer la technologie.

"Les enfants de quatre et cinq ans semblent penser que vous n'avez pas la liberté de commettre une violation morale, comme attaquer quelqu'un", a déclaré Flanagan. "Mais en vieillissant, ils semblent penser que ce n'est pas génial, mais vous avez la liberté de le faire."

L'étude a révélé que les enfants croyaient généralement qu'Alexa et Roomba n'avaient pas la capacité de ressentir des sensations physiques comme les humains. Ils ont attribué des capacités mentales et émotionnelles à Alexa, telles que la capacité de penser ou de s'énerver, alors qu'ils ne pensaient pas la même chose de Roomba.

"Même sans corps, les jeunes enfants pensent que l'Alexa a des émotions et un esprit", a déclaré Flanagan. "Et ce n'est pas qu'ils pensent que chaque technologie a des émotions et des esprits - ils ne pensent pas que le Roomba en ait - donc c'est quelque chose de spécial dans la capacité d'Alexa à communiquer verbalement."

Flanagan et sa conseillère diplômée Tamar Kushnir, membre du corps professoral du Duke Institute for Brain Sciences, tentent actuellement de comprendre pourquoi les enfants pensent qu'il est mal d'attaquer la technologie domestique.

Implications et questions éthiques

Les résultats de l'étude donnent un aperçu de l'évolution de la relation entre les enfants et la technologie, soulevant d'importantes questions éthiques concernant le traitement des appareils et des machines d'IA. Par exemple, les parents devraient-ils montrer un bon comportement à leurs enfants en remerciant les appareils d'IA comme Siri ou ChatGPT pour leur aide ?

La recherche souligne également la nécessité d'explorer si les enfants pensent que mal traiter les appareils d'IA est moralement répréhensible, ou simplement parce que cela pourrait endommager la propriété de quelqu'un.

"C'est intéressant avec ces technologies parce qu'il y a un autre aspect : c'est une propriété", a déclaré Flanagan. "Est-ce que les enfants pensent que vous ne devriez pas frapper ces choses parce que c'est moralement répréhensible, ou parce que c'est la propriété de quelqu'un et qu'il pourrait se casser?"

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.