Connect with us

Lama Nachman, Intel Fellow & Directeur du Lab d’Informatique Prévisionnelle – Série d’entretiens

Interface cerveau-machine

Lama Nachman, Intel Fellow & Directeur du Lab d’Informatique Prévisionnelle – Série d’entretiens

mm

Lama Nachman, est un Intel Fellow & Directeur du Lab d’Informatique Prévisionnelle. Lama est surtout connue pour son travail avec le professeur Stephen Hawking, elle a joué un rôle déterminant dans la création d’un système informatique d’assistance pour aider le professeur Stephen Hawking à communiquer. Aujourd’hui, elle aide le roboticiste britannique Dr. Peter Scott-Morgan à communiquer. En 2017, le Dr Peter Scott-Morgan a reçu un diagnostic de maladie des neurones moteurs (MND), également connue sous le nom de maladie de Lou Gehrig ou de sclérose latérale amyotrophique. La MND attaque le cerveau et les nerfs et paralyse finalement tous les muscles, même ceux qui permettent de respirer et d’avaler.

Le Dr Peter Scott-Morgan a déclaré un jour : « Je vais continuer à évoluer, mourir en tant qu’humain, vivre en tant que cyborg » .

Qu’est-ce qui vous a attiré vers l’IA ?

J’ai toujours été attirée par l’idée que la technologie peut être le grand égalisateur. Lorsqu’elle est développée de manière responsable, elle a le potentiel de nivellement du champ de jeu, de résoudre les inégalités sociales et d’amplifier le potentiel humain. Nulle part cela n’est plus vrai qu’avec l’IA. Alors que beaucoup de conversations dans l’industrie autour de l’IA et des humains positionnent la relation entre les deux comme adversaire, je crois qu’il y a des choses uniques que les machines et les personnes sont capables de faire, donc je préfère voir l’avenir à travers le prisme de la collaboration Humain-IA plutôt que la concurrence humain-IA. Je dirige le Lab d’Informatique Prévisionnelle chez Intel Labs où, à travers tous nos efforts de recherche, nous avons un objectif unique de fournir une innovation informatique qui ait un impact sociétal large. Compte tenu de la façon dont l’IA est déjà omniprésente et de son empreinte croissante dans tous les aspects de notre vie, je vois un énorme potentiel dans la recherche que mon équipe mène pour rendre l’IA plus accessible, plus consciente du contexte, plus responsable et, en fin de compte, apporter des solutions technologiques à grande échelle pour aider les gens dans le monde réel.

Vous avez travaillé en étroite collaboration avec le physicien légendaire Prof. Stephen Hawking pour créer un système d’IA qui l’a aidé à communiquer et à effectuer des tâches que la plupart d’entre nous considéreraient comme routinières. Quelles étaient certaines de ces tâches routinières ?

Travailler avec le professeur Stephen Hawking a été l’entreprise la plus significative et la plus difficile de ma vie. Cela a nourri mon âme et a vraiment montré comment la technologie peut améliorer profondément la vie des gens. Il vivait avec la sclérose latérale amyotrophique, une maladie neurologique dégénérative qui, avec le temps, enlève au patient la capacité d’effectuer les activités les plus simples. En 2011, nous avons commencé à travailler avec lui pour explorer comment améliorer le système informatique d’assistance qui lui permettait d’interagir avec le monde. En plus d’utiliser son ordinateur pour parler aux gens, Stephen utilisait son ordinateur comme nous le faisons tous, en éditant des documents, en naviguant sur le web, en donnant des conférences, en lisant / écrivant des e-mails, etc. La technologie a permis à Stephen de continuer à participer activement au monde et à l’inspirer pendant des années après que ses capacités physiques se soient rapidement détériorées. C’est, pour moi, ce que signifie l’impact significatif de la technologie sur la vie de quelqu’un !

Quelles sont certaines des principales conclusions que vous avez tirées de votre travail avec le professeur Stephen Hawking ?

Notre écran d’ordinateur est vraiment notre porte d’entrée dans le monde. Si les gens peuvent contrôler leur PC, ils peuvent contrôler tous les aspects de leur vie (consommer du contenu, accéder au monde numérique, contrôler leur environnement physique, naviguer dans leur fauteuil roulant, etc.). Pour les personnes handicapées qui peuvent encore parler, les progrès de la reconnaissance vocale leur permettent d’avoir un contrôle total de leurs appareils (et dans une large mesure, de leur environnement physique). Cependant, ceux qui ne peuvent pas parler et sont incapables de bouger sont vraiment handicapés dans leur capacité à exercer une grande indépendance. Ce que l’expérience avec le professeur Hawking m’a enseigné, c’est que les plates-formes de technologie d’assistance doivent être adaptées aux besoins spécifiques de l’utilisateur. Par exemple, nous ne pouvons pas supposer qu’une seule solution fonctionnera pour les personnes atteintes de la sclérose latérale amyotrophique, car la maladie affecte différentes capacités chez les patients. Nous devons donc avoir des technologies qui peuvent être facilement configurées et adaptées aux besoins de l’individu. C’est pourquoi nous avons construit ACAT (Assistive Context Aware Toolkit), une plate-forme logicielle modulaire et open source qui peut permettre aux développeurs d’innover et de construire différentes capacités à partir de celle-ci.

J’ai également appris qu’il est important de comprendre le seuil de confort de chaque utilisateur pour abandonner le contrôle en échange d’une plus grande efficacité (ce qui n’est pas limité aux personnes handicapées). Par exemple, l’IA peut être capable de prendre plus de contrôle de l’utilisateur pour effectuer une tâche plus rapidement ou de manière plus efficace, mais chaque utilisateur a un niveau de risque différent. Certains sont prêts à abandonner plus de contrôle, tandis que d’autres utilisateurs veulent en conserver davantage. Comprendre ces seuils et jusqu’où les gens sont prêts à aller a un impact important sur la façon dont ces systèmes peuvent être conçus. Nous devons repenser la conception de systèmes en termes de niveau de confort de l’utilisateur plutôt que uniquement en termes de mesures objectives d’efficacité et de précision.

Plus récemment, vous avez travaillé avec un célèbre scientifique britannique, Peter Scott Morgan, qui souffre de maladie des neurones moteurs et qui a pour objectif de devenir le premier cyborg au monde. Quels sont certains des objectifs ambitieux que Peter a ?

L’un des problèmes de la communication auxiliaire et supplétive (AAC) est le « silence gap ». De nombreuses personnes atteintes de la sclérose latérale amyotrophique (y compris Peter) utilisent le contrôle du regard pour choisir des lettres / des mots sur l’écran pour parler aux autres. Cela entraîne un long silence après que quelqu’un a terminé sa phrase pendant que la personne regarde son ordinateur et commence à formuler ses lettres et ses mots pour répondre. Peter voulait réduire cet espace de silence autant que possible pour ramener la spontanéité verbale à la communication. Il voulait également préserver sa voix et sa personnalité et utiliser un système de synthèse vocale qui exprime son style de communication unique (par exemple, ses traits d’esprit, son sarcasme spirituel, ses émotions).

Le roboticiste britannique Dr. Peter Scott-Morgan, qui souffre de maladie des neurones moteurs, a subi en 2019 une série d’opérations pour prolonger sa vie à l’aide de la technologie. (Crédit : Cardiff Productions)

Pouvez-vous discuter des technologies actuellement utilisées pour aider le Dr Peter Scott-Morgan ?

Peter utilise ACAT (Assistive Context Aware Toolkit), la plate-forme que nous avons construite lors de notre travail avec Dr. Hawking et que nous avons ensuite rendue open source. Contrairement au Dr Hawking qui utilisait les muscles de sa joue comme « déclencheur d’entrée » pour contrôler les lettres sur son écran, Peter utilise le contrôle du regard (une fonctionnalité que nous avons ajoutée à l’ACAT existant) pour parler et contrôler son PC, qui interface avec une solution de synthèse vocale de la société CereProc qui a été personnalisée pour lui et lui permet d’exprimer différentes émotions / accentuations. Le système contrôle également un avatar qui a été personnalisé pour lui.

Nous travaillons actuellement sur un système de génération de réponses pour ACAT qui permettra à Peter d’interagir avec le système à un niveau plus élevé en utilisant les capacités de l’IA. Ce système écoutera les conversations de Peter au fil du temps et suggérera des réponses pour que Peter puisse les choisir sur l’écran. L’objectif est que, avec le temps, le système d’IA apprenne à partir des données de Peter et lui permette de « pousser » le système pour fournir les meilleures réponses en utilisant uniquement quelques mots clés (semblable à la façon dont les recherches fonctionnent sur le web aujourd’hui). Notre objectif avec le système de génération de réponses est de réduire l’espace de silence dans la communication mentionné ci-dessus et de permettre à Peter et aux futurs utilisateurs d’ACAT de communiquer à un rythme qui se sent plus « naturel ».

Vous avez également parlé de l’importance de la transparence dans l’IA, quelle est l’ampleur de ce problème ?

C’est un problème important, surtout lorsqu’il est déployé dans des systèmes de prise de décision ou des systèmes de collaboration humain-IA. Par exemple, dans le cas du système d’assistance de Peter, nous devons comprendre ce qui fait que le système prend ces recommandations et comment impacte l’apprentissage de ce système pour exprimer plus fidèlement ses idées.

Dans le contexte plus large des systèmes de prise de décision, que ce soit pour aider au diagnostic basé sur l’imagerie médicale ou pour faire des recommandations sur l’octroi de prêts, les systèmes d’IA doivent fournir des informations interprétables par les humains sur la façon dont ils sont arrivés à ces décisions, quels attributs ou fonctionnalités ont eu le plus d’impact sur cette décision, quel est le niveau de confiance que le système a dans l’inférence faite, etc. Cela augmente la confiance dans les systèmes d’IA et permet une meilleure collaboration entre les humains et l’IA dans des scénarios de prise de décision mixte.

Les préjugés de l’IA, en particulier en ce qui concerne le racisme et le sexisme, sont un problème énorme, mais comment identifiez-vous d’autres types de préjugés lorsque vous ne savez pas quels préjugés vous recherchez ?

C’est un problème très difficile et qui ne peut pas être résolu avec la technologie seule. Nous devons apporter plus de diversité dans le développement des systèmes d’IA (raciale, de genre, culturelle, de capacité physique, etc.). C’est clairement un énorme fossé dans la population qui construit ces systèmes d’IA aujourd’hui. De plus, il est essentiel d’avoir des équipes multidisciplinaires impliquées dans la définition et le développement de ces systèmes, en apportant des sciences sociales, de la philosophie, de la psychologie, de l’éthique et de la politique (et non seulement l’informatique), et en s’engageant dans le processus d’enquête dans le contexte des projets et des problèmes spécifiques.

Vous avez parlé auparavant de l’utilisation de l’IA pour amplifier le potentiel humain. Quels sont certains des domaines qui montrent le plus de promesses pour cette amplification du potentiel humain ?

Un domaine évident est celui de permettre aux personnes handicapées de vivre de manière plus indépendante, de communiquer avec leurs proches et de continuer à créer et à contribuer à la société. Je vois un grand potentiel dans l’éducation, dans la compréhension de l’engagement des étudiants et la personnalisation de l’expérience d’apprentissage en fonction des besoins et des capacités individuels de l’étudiant pour améliorer l’engagement, habiliter les enseignants avec ces connaissances et améliorer les résultats d’apprentissage. L’inégalité dans l’éducation aujourd’hui est si profonde et il y a une place pour l’IA pour aider à réduire certaines de ces inégalités si nous le faisons correctement. Il y a des opportunités infinies pour l’IA d’apporter une grande valeur en créant des systèmes de collaboration humain-IA dans de nombreux secteurs (santé, fabrication, etc.) car ce que les humains et l’IA apportent à la table sont très complémentaires. Pour que cela se produise, nous devons innover à l’intersection des sciences sociales, de l’interaction homme-ordinateur et de l’IA. La perception multi-modale robuste, la conscience du contexte, l’apprentissage à partir de données limitées, l’interaction homme-ordinateur physiquement située et l’interprétabilité sont certains des défis clés sur lesquels nous devons nous concentrer pour concrétiser cette vision.

Vous avez également parlé de l’importance de la reconnaissance des émotions pour l’avenir de l’IA ? Pourquoi l’industrie de l’IA devrait-elle se concentrer davantage sur ce domaine de recherche ?

La reconnaissance des émotions est une capacité clé des systèmes humain-IA pour plusieurs raisons. Un aspect est que l’émotion humaine offre un contexte humain clé pour tout système proactif pour comprendre avant d’agir.

Plus important encore, ces types de systèmes doivent continuer à apprendre dans la nature et s’adapter en fonction des interactions avec les utilisateurs, et tandis que les commentaires directs sont un signal clé pour l’apprentissage, les signaux indirects sont très importants et ils sont gratuits (moins de travail pour l’utilisateur). Par exemple, un assistant numérique peut apprendre beaucoup de la frustration dans la voix d’un utilisateur et utiliser cela comme signal de rétroaction pour apprendre ce qu’il faut faire à l’avenir, au lieu de demander à l’utilisateur de fournir des commentaires chaque fois. Ces informations peuvent être utilisées pour les systèmes d’IA d’apprentissage actif pour continuer à s’améliorer avec le temps.

Y a-t-il autre chose que vous aimeriez partager sur ce que vous travaillez au Lab d’Informatique Prévisionnelle ou sur d’autres questions que nous avons abordées ?

Lorsque nous construisons des systèmes d’assistance, nous devons vraiment réfléchir à la façon de construire ces systèmes de manière responsable et à la façon de permettre aux gens de comprendre quelles informations sont collectées et comment contrôler ces systèmes de manière pratique. En tant que chercheurs en IA, nous sommes souvent fascinés par les données et nous voulons avoir autant de données que possible pour améliorer ces systèmes, cependant, il y a un compromis entre le type et la quantité de données que nous voulons et la vie privée de l’utilisateur. Nous devons vraiment limiter les données que nous collectons à ce qui est absolument nécessaire pour effectuer la tâche d’inférence, rendre les utilisateurs conscients de exactement quelles données nous collectons et leur permettre de régler ce compromis de manière significative et utilisable.

Merci pour cette fantastique interview, les lecteurs qui souhaitent en savoir plus sur ce projet devraient lire l’article Intel’s Lama Nachman et Peter Scott-Morgan : deux scientifiques, l’un un « cyborg humain ».

L’équipe du Lab d’Informatique Prévisionnelle d’Intel qui a développé Assistive Context-Aware Toolkit comprend (de gauche à droite) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman et Pete Denman. Ne sont pas représentés Bruna Girvent, Saurav Sahay et Shachi Kumar. (Crédit : Lama Nachman)

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.