talon Lama Nachman, Intel Fellow et directeur du laboratoire d'informatique anticipative - Série d'interviews - Unite.AI
Suivez nous sur

Interviews

Lama Nachman, Intel Fellow et directeur du laboratoire d'informatique anticipative - Série d'interviews

mm
Le kit de préparation mis à jour on

Lama Na'hman, est membre Intel et directeur du laboratoire d'informatique anticipative. Lama est surtout connue pour son travail avec le professeur Stephen Hawking. Elle a joué un rôle déterminant dans la construction d'un système informatique d'assistance pour aider le professeur Stephen Hawking à communiquer. Aujourd'hui, elle aide le roboticien britannique Dr. Peter Scott-Morgan à communiquer. En 2017, le Dr Peter Scott-Morgan a reçu un diagnostic de maladie du motoneurone (MND), également connue sous le nom de SLA ou maladie de Lou Gehrig. La MND attaque le cerveau et les nerfs et finit par paralyser tous les muscles, même ceux qui permettent de respirer et de déglutir.

Le Dr Peter Scott-Morgan a déclaré un jour : "Je continuerai d'évoluer, de mourir en tant qu'humain, de vivre en tant que cyborg."

Qu'est-ce qui vous a attiré vers l'IA ?

J'ai toujours été attiré par l'idée que la technologie peut être le grand égalisateur. Lorsqu'il est développé de manière responsable, il a le potentiel d'uniformiser les règles du jeu, de remédier aux inégalités sociales et d'amplifier le potentiel humain. Cela n'est nulle part plus vrai qu'avec l'IA. Alors qu'une grande partie de la conversation de l'industrie autour de l'IA et des humains positionne la relation entre les deux comme contradictoire, je crois qu'il y a des choses uniques pour lesquelles les machines et les gens sont bons, donc je préfère voir l'avenir à travers le prisme de la collaboration homme-IA plutôt que compétition homme-IA. Je dirige le laboratoire d'informatique anticipative d'Intel Labs où, dans tous nos efforts de recherche, nous nous concentrons particulièrement sur la fourniture d'innovations informatiques qui évoluent pour un large impact sociétal. Compte tenu de l'omniprésence de l'IA et de son empreinte croissante dans tous les aspects de notre vie, je vois d'énormes promesses dans les recherches que mon équipe entreprend pour rendre l'IA plus accessible, plus sensible au contexte, plus responsable et, en fin de compte, apporter des solutions technologiques à grande échelle pour aider personnes dans le monde réel.

Vous avez travaillé en étroite collaboration avec le légendaire physicien, le professeur Stephen Hawking, pour créer un système d'IA qui l'a aidé à communiquer et à effectuer des tâches que la plupart d'entre nous considéreraient comme routinières. Quelles étaient certaines de ces tâches de routine ?

Travailler avec le professeur Stephen Hawking a été l'effort le plus significatif et le plus stimulant de ma vie. Cela a nourri mon âme et m'a vraiment fait comprendre à quel point la technologie peut profondément améliorer la vie des gens. Il vivait avec la SLA, une maladie neurologique dégénérative, qui dépouille au fil du temps la capacité du patient à effectuer les activités les plus simples. En 2011, nous avons commencé à travailler avec lui pour explorer comment améliorer le système informatique d'assistance qui lui permettait d'interagir avec le monde. En plus d'utiliser son ordinateur pour parler aux gens, Stephen utilisait son ordinateur comme nous le faisons tous, éditant des documents, surfant sur le Web, donnant des conférences, lisant/écrivant des e-mails, etc. La technologie a permis à Stephen de continuer à participer activement et à inspirer le monde pendant des années après que ses capacités physiques aient rapidement diminué. C'est - pour moi - à quoi ressemble l'impact significatif de la technologie sur la vie de quelqu'un !

Quelles sont certaines des idées clés que vous avez retirées de votre travail avec le professeur Stephen Hawking ?

Notre écran d'ordinateur est véritablement notre porte d'entrée sur le monde. Si les gens peuvent contrôler leur PC, ils peuvent contrôler tous les aspects de leur vie (consommation de contenu, accès au monde numérique, contrôle de leur environnement physique, navigation dans leur fauteuil roulant, etc.). Pour les personnes handicapées qui peuvent encore parler, les progrès de la reconnaissance vocale leur permettent de contrôler totalement leurs appareils (et dans une large mesure, leur environnement physique). Cependant, ceux qui ne peuvent pas parler et ne peuvent pas bouger sont vraiment affaiblis car ils ne peuvent pas exercer une grande indépendance. Ce que l'expérience avec le professeur Hawking m'a appris, c'est que les plates-formes de technologie d'assistance doivent être adaptées aux besoins spécifiques de l'utilisateur. Par exemple, nous ne pouvons pas simplement supposer qu'une seule solution fonctionnera pour les personnes atteintes de SLA, car la maladie a un impact sur les différentes capacités des patients. Nous avons donc besoin de technologies facilement configurables et adaptables aux besoins de chacun. C'est pourquoi nous avons créé ACAT (Assistive Context Aware Toolkit), une plate-forme logicielle modulaire et open source qui peut permettre aux développeurs d'innover et de développer différentes capacités.

J'ai également appris qu'il est important de comprendre le seuil de confort de chaque utilisateur concernant l'abandon du contrôle en échange d'une plus grande efficacité (cela ne se limite pas aux personnes handicapées). Par exemple, l'IA peut être capable de retirer plus de contrôle à l'utilisateur afin d'effectuer une tâche plus rapidement ou plus efficacement, mais chaque utilisateur a un niveau différent d'aversion au risque. Certains sont prêts à abandonner plus de contrôle, tandis que d'autres utilisateurs veulent en conserver davantage. Comprendre ces seuils et jusqu'où les gens sont prêts à aller a un impact important sur la façon dont ces systèmes peuvent être conçus. Nous devons repenser la conception du système en termes de niveau de confort de l'utilisateur plutôt qu'en termes de mesures objectives d'efficacité et de précision.

Plus récemment, vous avez travaillé avec un célèbre scientifique britannique, Peter Scott Morgan, qui souffre d'une maladie des motoneurones et qui a pour objectif de devenir le premier cyborg complet au monde. Quels sont certains des objectifs ambitieux de Peter ?

L'un des problèmes avec la CAA (communication assistée et augmentée) est le "trou de silence". De nombreuses personnes atteintes de SLA (y compris Peter) utilisent le contrôle du regard pour choisir des lettres / mots à l'écran pour parler aux autres. Cela se traduit par un long silence après que quelqu'un a terminé sa phrase pendant que la personne regarde son ordinateur et commence à formuler ses lettres et ses mots pour répondre. Peter a voulu réduire au maximum cet écart de silence pour redonner de la spontanéité verbale à la communication. Il souhaite également préserver sa voix et sa personnalité et utiliser un système de synthèse vocale qui exprime son style de communication unique (par exemple, ses plaisanteries, son sarcasme vif d'esprit, ses émotions).

Le roboticien britannique Dr Peter Scott-Morgan, atteint d'une maladie du motoneurone, a commencé en 2019 à subir une série d'opérations pour prolonger sa vie grâce à la technologie. (Crédit : Cardiff Productions)

Pourriez-vous discuter de certaines des technologies qui sont actuellement utilisées pour aider le Dr Peter Scott-Morgan?

Peter utilise ACAT (Assistive Context Aware Toolkit), la plate-forme que nous avons construite pendant notre travail avec le Dr Hawking et publiée plus tard en open source. Contrairement au Dr Hawking qui utilisait les muscles de sa joue comme "déclencheur d'entrée" pour contrôler les lettres sur son écran, Peter utilise le contrôle du regard (une capacité que nous avons ajoutée à l'ACAT existant) pour parler et contrôler son PC, qui s'interface avec une solution Text-to-Speech (TTS) d'une société appelée CereProc qui a été personnalisée pour lui et lui permet d'exprimer différentes émotions/emphases. Le système contrôle également un avatar qui a été personnalisé pour lui.

Nous travaillons actuellement sur un système de génération de réponse pour ACAT qui peut permettre à Peter d'interagir avec le système à un niveau supérieur en utilisant les capacités de l'IA. Ce système écoutera les conversations de Peter au fil du temps et suggérera des réponses à Peter à choisir sur l'écran. L'objectif est qu'au fil du temps, le système d'intelligence artificielle apprenne des données de Peter et lui permette de "pousser" le système pour lui fournir les meilleures réponses en utilisant seulement quelques mots-clés (similaire à la façon dont les recherches fonctionnent sur le Web aujourd'hui). Notre objectif avec le système de génération de réponse est de réduire l'écart de silence dans la communication référencé ci-dessus et de permettre à Peter et aux futurs utilisateurs d'ACAT de communiquer à un rythme qui semble plus "naturel".

Vous avez également parlé de l'importance de la transparence dans l'IA, à quel point est-ce un problème ?

C'est un gros problème, surtout lorsqu'il est déployé dans des systèmes de prise de décision ou des systèmes collaboratifs homme/IA. Par exemple, dans le cas du système d'assistance de Peter, nous devons comprendre ce qui pousse le système à faire ces recommandations et comment influer sur l'apprentissage de ce système pour exprimer plus précisément ses idées.

Dans le contexte plus large des systèmes de prise de décision, qu'il s'agisse d'aider au diagnostic basé sur l'imagerie médicale ou de faire des recommandations sur l'octroi de prêts, les systèmes d'IA doivent fournir des informations interprétables par l'homme sur la façon dont ils sont arrivés à la décision, quels attributs ou caractéristiques ont eu le plus d'impact sur celle-ci. décision, quelle confiance le système a-t-il dans l'inférence faite, etc. Cela augmente la confiance dans les systèmes d'IA et permet une meilleure collaboration entre les humains et l'IA dans des scénarios de prise de décision mixtes.

Les préjugés de l'IA, en particulier en ce qui concerne le racisme et le sexisme, sont un énorme problème, mais comment identifier d'autres types de préjugés lorsque vous n'avez aucune idée des préjugés que vous recherchez ?

C'est un problème très difficile et qui ne peut être résolu uniquement par la technologie. Nous devons apporter plus de diversité dans le développement des systèmes d'IA (racial, genre, culture, capacité physique, etc.). Il s'agit clairement d'une énorme lacune dans la population qui construit ces systèmes d'IA aujourd'hui. En outre, il est essentiel d'avoir des équipes multidisciplinaires engagées dans la définition et le développement de ces systèmes, réunissant les sciences sociales, la philosophie, la psychologie, l'éthique et la politique à la table (pas seulement l'informatique), et s'engageant dans le processus d'enquête dans le contexte des projets et des problèmes spécifiques.

Vous avez déjà parlé de l'utilisation de l'IA pour amplifier le potentiel humain. Quels sont les domaines les plus prometteurs pour cette amplification du potentiel humain ?

Un domaine évident est de permettre aux personnes handicapées de vivre de manière plus autonome, de communiquer avec leurs proches et de continuer à créer et à contribuer à la société. Je vois un grand potentiel dans l'éducation, dans la compréhension de l'engagement des élèves et la personnalisation de l'expérience d'apprentissage en fonction des besoins et des capacités individuels de l'élève pour améliorer l'engagement, donner aux enseignants ces connaissances et améliorer les résultats d'apprentissage. L'iniquité dans l'éducation est aujourd'hui si profonde et il y a une place pour l'IA pour aider à réduire une partie de cette iniquité si nous le faisons correctement. Il existe d'innombrables possibilités pour l'IA d'apporter beaucoup de valeur en créant des systèmes collaboratifs humain/IA dans tant de secteurs (santé, fabrication, etc.) car ce que les humains et l'IA apportent à la table est très complémentaire. Pour que cela se produise, nous avons besoin d'innovation à l'intersection des sciences sociales, de l'IHM et de l'IA. Une perception multimodale robuste, une connaissance du contexte, l'apprentissage à partir de données limitées, un HCI situé physiquement et l'interprétabilité sont quelques-uns des principaux défis sur lesquels nous devons nous concentrer pour concrétiser cette vision.

Vous avez également parlé de l'importance de la reconnaissance des émotions pour l'avenir de l'IA ? Pourquoi l'industrie de l'IA devrait-elle se concentrer davantage sur ce domaine de recherche ?

La reconnaissance des émotions est une capacité clé des systèmes humains/IA pour plusieurs raisons. L'un des aspects est que l'émotion humaine offre un contexte humain clé que tout système proactif doit comprendre avant de pouvoir agir.

Plus important encore, ces types de systèmes doivent continuer à apprendre dans la nature et s'adapter en fonction des interactions avec les utilisateurs, et bien que la rétroaction directe soit un signal clé pour l'apprentissage, les signaux indirects sont très importants et ils sont gratuits (moins de travail pour l'utilisateur ). Par exemple, un assistant numérique peut apprendre beaucoup de la frustration dans la voix d'un utilisateur et l'utiliser comme un signal de rétroaction pour savoir quoi faire à l'avenir, au lieu de demander à l'utilisateur des commentaires à chaque fois. Ces informations peuvent être utilisées pour les systèmes d'IA d'apprentissage actif afin de continuer à s'améliorer au fil du temps.

Y a-t-il autre chose que vous aimeriez partager sur ce sur quoi vous travaillez au laboratoire d'informatique anticipative ou sur d'autres questions dont nous avons discuté ?

Lors de la construction de systèmes d'assistance, nous devons vraiment réfléchir à la façon de construire ces systèmes de manière responsable et de permettre aux gens de comprendre quelles informations sont collectées et comment contrôler ces systèmes de manière pratique. En tant que chercheurs en intelligence artificielle, nous sommes souvent fascinés par les données et souhaitons disposer d'autant de données que possible pour améliorer ces systèmes. Cependant, il existe un compromis entre le type et la quantité de données que nous voulons et la confidentialité de l'utilisateur. Nous devons vraiment limiter les données que nous collectons à ce qui est absolument nécessaire pour effectuer la tâche d'inférence, informer les utilisateurs des données exactes que nous collectons et leur permettre d'ajuster ce compromis de manière significative et utilisable.

Merci pour la fantastique interview, les lecteurs qui souhaitent en savoir plus sur ce projet devraient lire l'article Lama Nachman et Peter Scott-Morgan d'Intel : deux scientifiques, l'un étant un "cyborg humain"".

L'équipe d'Intel Anticipatory Computing Lab qui a développé la boîte à outils contextuelle d'assistance comprend (de gauche à droite) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman et Pete Denman. Ne sont pas représentés Bruna Girvent, Saurav Sahay et Shachi Kumar. (Crédit : Lama Nachman)

Partenaire fondateur d'unite.AI et membre du Conseil technologique de Forbes, Antoine est un futuriste qui est passionné par l'avenir de l'IA et de la robotique.

Il est également le fondateur de Titres.io, un site Web axé sur l'investissement dans les technologies de rupture.