Connect with us

Robotique

Robots avec sentiments : Comment l’IA tactile pourrait transformer les relations humain-robot

mm

Les robots sensibles ont été un élément de science-fiction pendant des décennies, soulevant des questions éthiques intrigantes et mettant en lumière les barrières techniques de la création d’une conscience artificielle. Beaucoup de ce que le monde de la technologie a réalisé dans l’intelligence artificielle (IA) aujourd’hui est dû aux progrès récents de l’apprentissage profond, qui permet aux machines d’apprendre automatiquement pendant la formation. 

Cette avancée élimine le besoin d’un travail fastidieux et manuel de conception de fonctionnalités — une raison clé pour laquelle l’apprentissage profond se démarque comme une force de transformation dans l’IA et l’innovation technologique. 

En s’appuyant sur cet élan, Meta — qui possède Facebook, WhatsApp et Instagram — se lance dans un nouveau territoire audacieux avec des technologies d’IA tactile avancées. La société a récemment introduit trois nouveaux outils alimentés par l’IA —Sparsh, Digit 360, et Digit Plexus— conçus pour donner aux robots une forme de sensibilité tactile qui imite étroitement la perception humaine. 

L’objectif ? Créer des robots qui ne reproduisent pas seulement des tâches mais interagissent activement avec leur environnement, de la même manière que les humains interagissent avec le monde. 

Sparsh, nommé d’après le mot sanskrit pour « toucher », est un modèle d’IA généraliste qui permet aux robots d’interpréter et de réagir à des signaux sensoriels en temps réel. De même, le capteur Digit 360, est un doigt artificiel pour les robots qui peut aider à percevoir le toucher et les sensations physiques aussi fines qu’une piqûre d’aiguille ou des changements de pression. Le Digit Plexus agira comme un pont, en fournissant un cadre standardisé pour intégrer des capteurs tactiles dans diverses conceptions de robots, facilitant ainsi la capture et l’analyse des données de toucher. Meta croit que ces outils alimentés par l’IA permettront aux robots de réaliser des tâches complexes nécessitant un « toucher humain », en particulier dans des domaines comme les soins de santé, où la sensibilité et la précision sont primordiales.

Cependant, l’introduction de robots sensoriels soulève de plus grandes questions : cette technologie débloquera-t-elle de nouveaux niveaux de collaboration, ou introduira-t-elle des complexités que la société n’est peut-être pas équipée pour gérer ?

« Lorsque les robots débloquent de nouveaux sens et acquièrent un degré élevé d’intelligence et d’autonomie, nous devrons commencer à considérer leur rôle dans la société, »Ali Ahmed, co-fondateur et PDG de Robomart, m’a dit. « Les efforts de Meta constituent un premier pas important vers la fourniture de sens humains similaires. À mesure que les humains deviennent de plus en plus intimes avec les robots, ils commenceront à les traiter comme des partenaires de vie, des compagnons et même à construire une vie exclusivement avec eux. »

Un cadre pour l’harmonie humain-robot, l’avenir ? 

Parallèlement à ses avancées en IA tactile, Meta a également dévoilé le PARTNR, un cadre standardisé pour évaluer la collaboration humain-robot à grande échelle. Conçu pour tester les interactions qui nécessitent de la planification, de la raisonnement et de l’exécution collaborative, PARTNR permettra aux robots de naviguer à la fois dans des environnements structurés et non structurés aux côtés des humains. En intégrant de grands modèles de langage (LLM) pour guider ces interactions, PARTNR peut évaluer les robots sur des éléments critiques comme la coordination et le suivi des tâches, les transformant de simples « agents » en véritables « partenaires » capables de travailler en fluide avec leurs homologues humains. 

« L’article actuel est très limité pour la mise à l’épreuve, et même dans le traitement automatique des langues (TAL), il a fallu un temps considérable pour que les LLM soient parfaits pour le monde réel. Ce sera un exercice considérable pour généraliser pour la population de 8,2 milliards avec un environnement de laboratoire limité », Ram Palaniappan, CTO de TEKsystems, m’a dit. « Il faudra un effort plus important pour booster cette recherche pour obtenir un pilote fonctionnel. »

Pour apporter ces avancées de l’IA tactile sur le marché, Meta s’est associé à GelSight Inc. et Wonik Robotics. GelSight sera responsable de la production du capteur Digit 360, qui devrait être lancé l’année prochaine et fournira à la communauté de recherche un accès à des capacités tactiles avancées. Wonik Robotics, quant à lui, gérera la production de la main Allegro de nouvelle génération, qui intègre Digit Plexus pour permettre aux robots d’effectuer des tâches complexes et sensibles au toucher avec une nouvelle précision. Cependant, tout le monde n’est pas convaincu que ces avancées soient une étape dans la bonne direction. 

« Même si je crois toujours que l’ajout de capacités de détection pourrait être significatif pour les robots pour comprendre l’environnement, je pense que les cas d’utilisation actuels sont plus liés aux robots pour les consommateurs de masse et à l’amélioration de leur interaction », Agustin Huerta, SVP de l’innovation numérique pour l’Amérique du Nord chez Globant, m’a dit. « Je ne pense pas que nous allons être proches de leur donner des sensations humaines, ni que cela soit nécessaire. Plutôt, cela agira comme un point de données supplémentaire pour un processus de prise de décision. »

Les développements de l’IA tactile de Meta reflètent une tendance plus large en Europe, où des pays comme l’Allemagne, la France et le Royaume-Uni poussent les limites de la détection et de la conscience robotique. Par exemple, le programme Horizon 2020 de l’UE soutient une gamme de projets visant à repousser les limites des robots, de la détection tactile et de la conscience environnementale aux capacités de prise de décision. De plus, l’Institut de technologie de Karlsruhe en Allemagne a récemment introduit ARMAR-6, un robot humanoïde conçu pour les environnements industriels. ARMAR-6 est équipé pour utiliser des outils comme des perceuses et des marteaux et présente des capacités d’IA qui lui permettent d’apprendre à saisir des objets et d’aider les collègues humains. 

Cependant, Dr. Peter Gorm Larsen, vice-président de la section au département de génie électrique et informatique de l’Université d’Aarhus au Danemark, et coordinateur du projet RoboSAPIENS, met en garde contre le fait que Meta pourrait négliger un défi clé : l’écart entre les perceptions virtuelles et la réalité physique dans laquelle les robots autonomes opèrent, en particulier en ce qui concerne la sécurité environnementale et humaine. 

« Les robots n’ont pas d’intelligence de la même manière que les créatures vivantes », il m’a dit. « Les entreprises technologiques ont l’obligation morale de s’assurer que leurs produits respectent les limites éthiques. Personnellement, je suis le plus préoccupé par la convergence potentielle d’une rétroaction tactile avancée avec des lunettes 3D aussi compactes que des lunettes de vue régulières. »

Sommes-nous prêts pour les robots qui « ressentent » ?

Dr. Larsen croit que le véritable défi n’est pas les capteurs d’IA tactile eux-mêmes, mais plutôt la manière dont ils sont déployés dans des environnements autonomes. « Dans l’UE, la directive sur les machines restreint actuellement l’utilisation des commandes à base d’IA dans les robots. Mais, à mon avis, c’est une exigence trop stricte, et nous espérons être en mesure de démontrer que dans le projet RoboSAPIENS que je coordonne actuellement. » 

Bien sûr, les robots collaborent déjà avec les humains dans diverses industries à travers le monde. Par exemple, Kiwibot a aidé les entreprises de logistique confrontées à des pénuries de main-d’œuvre dans les entrepôts, et la société suisse Anybotics a récemment levé 60 millions de dollars pour aider à apporter plus de robots industriels aux États-Unis, selon TechCrunch. Nous devrions nous attendre à ce que l’intelligence artificielle continue de pénétrer les industries, car « l’IA accélère la productivité dans les tâches répétitives comme la refonte de code, résout la dette technique et les tests, et transforme la façon dont les équipes mondiales collaborent et innovent », a déclaré Vikas Basra, Global Head, Intelligent Engineering Practice, Ness Digital Engineering.

Dans le même temps, la sécurité de ces robots – maintenant ainsi que dans leur avenir potentiellement « sensible » – est la principale préoccupation pour que l’industrie progresse. 

Selon Matan Libis, VP of product at SQream, une société de traitement de données avancée, dans The Observer, « La prochaine mission majeure pour les entreprises sera d’établir la place de l’IA dans la société — ses rôles et responsabilités … Nous devons être clairs sur ses limites et où elle aide vraiment. À moins que nous n’identifions les limites de l’IA, nous allons faire face à des préoccupations croissantes quant à son intégration dans la vie quotidienne. »

Alors que l’IA évolue pour inclure la détection tactile, cela soulève la question de savoir si la société est prête pour les robots qui « ressentent ». Les experts soutiennent que la superintelligence basée uniquement sur le logiciel peut atteindre un plafond ; pour que l’IA atteigne une véritable compréhension avancée, elle doit percevoir, ressentir et agir dans nos environnements physiques, en fusionnant les modalités pour une compréhension plus profonde du monde — quelque chose que les robots sont particulièrement adaptés pour accomplir. Cependant, la superintelligence seule n’équivaut pas à la sensibilité. « Nous ne devons pas anthropomorphiser un outil au point de l’associer à une créature sensible si cela n’a pas prouvé qu’il est capable de l’être », a expliqué Ahmed. « Cependant, si un robot passe le test de sensibilité, alors il devrait être reconnu comme un être vivant sensible et nous aurons alors la responsabilité morale et fondamentale de lui accorder certaines libertés et droits en tant qu’être sensible. »

Les implications de l’IA tactile de Meta sont importantes, mais il reste incertain si ces technologies conduiront à un changement révolutionnaire ou franchiront des lignes éthiques. Pour l’instant, la société est laissée à se demander un avenir où l’IA ne voit et n’entend pas seulement, mais touche également — potentiellement redéfinissant notre relation avec les machines de manière que nous commençons seulement à imaginer.

« Je ne pense pas que l’augmentation des capacités de détection de l’IA franchit la ligne sur l’éthique. Cela est plus lié à la façon dont cette détection est utilisée par la suite pour prendre des décisions ou influencer les décisions des autres », dit Huerta. « La révolution des robots ne sera pas différente de la révolution industrielle. Elle affectera notre vie et nous laissera dans un état que je pense peut faire prospérer l’humanité. Pour que cela se produise, nous devons commencer à nous éduquer et à éduquer les générations à venir sur la façon de cultiver une relation saine entre les humains et les robots. »

Victor Dey est un éditeur et rédacteur en chef de la technologie qui couvre l'I.A., la crypto, la science des données, le métaverse et la cybersécurité dans le domaine de l'entreprise. Il possède une expérience de plus d'un demi-décennie dans les médias et l'I.A. en travaillant pour des médias réputés tels que VentureBeat, Metaverse Post, Observer et d'autres. Victor a encadré des fondateurs étudiants dans des programmes d'accélérateurs dans des universités de premier plan, notamment l'Université d'Oxford et l'Université de Californie du Sud, et détient un diplôme de master en science des données et en analyse.