Entretiens
Afshin Mehin, Fondateur de Card79 – Série d’entretiens

Afshin Mehin est le fondateur de Card79 (anciennement connu sous le nom de WOKE), un studio de création spécialisé dans les expériences de produits qui effacent les frontières entre nos vies numériques et physiques. Card79 a eu le privilège de s’associer à Elon Musk pour concevoir Neuralink – le premier dispositif portable cérébral au monde. Le studio a conçu le Link qui faisait partie du système que une personne porterait quotidiennement.
Vous avez commencé vos études en tant qu’ingénieur, comment avez-vous pivoté votre carrière vers la conception pour les technologies futures ?
La conception a toujours été à l’ordre du jour. En tant qu’adolescent, j’ai découvert le domaine de la conception industrielle comme une carrière possible et j’ai pensé que cela pourrait être un bon choix pour moi, car j’aimais créer de nouveaux produits et des solutions pour les problèmes quotidiens. Mais comme c’est le cas avec de nombreuses familles d’immigrants de première génération, la conception n’était pas un parcours de carrière familier. Je me suis donc inscrit à l’université de Colombie-Britannique à Vancouver pour obtenir un diplôme en génie mécanique. Cette éducation s’est avérée être l’une des meilleures choses que j’aie faites, car elle m’a donné une appréciation des problèmes difficiles qui doivent être résolus pour que de nouvelles avancées techniques soient apportées au monde. Après avoir terminé mes études en génie, je me suis réorienté vers ma passion pour la conception et j’ai commencé à poursuivre des études supérieures en interaction homme-ordinateur et en génie de la conception industrielle, avec une composante qui m’intéressait davantage à l’expérience humaine de cette technologie, en obtenant un master au Royal College of Art de Londres et un stage au M.I.T. Media Lab Europe à Dublin. Après avoir terminé mes études, je me suis installé à San Francisco et j’ai commencé à travailler pour différentes sociétés de conception telles que IDEO et Whipsaw.
Vous avez été approché par l’équipe de Neuralink en 2019 pour présenter une conception pour leur interface cerveau-machine, pouvez-vous discuter de cet engagement initial ?
Nous avons reçu un appel du président de Neuralink. Nous avions travaillé sur des accessoires portables avant, nous étions donc à l’aise avec les défis de la conception de quelque chose qui pourrait être porté sur la tête. Ce que nous n’avions pas prévu, c’est que nous allions également concevoir quelque chose qui allait à l’intérieur de la tête. C’était la première fois que nous travaillions sur un projet où nous serions assis dans une salle avec un ingénieur électrique, des ingénieurs mécaniques ainsi que des neurochirurgiens et des ingénieurs neuronaux qui pourraient expliquer comment opérer et interfacer avec le cerveau. Nous n’avons pas seulement travaillé sur la définition de la forme – quelque chose de discret pour ne pas attirer l’attention indésirable – mais nous avons également discuté des emplacements possibles du portable et de l’implantable avec l’équipe de Neuralink. Nous avons finalement conçu un dispositif portable qui serait porté derrière l’oreille et transmettrait des données et de l’énergie à un récepteur sans fil qui serait implanté sous la peau derrière l’oreille. Le portable a été conçu pour être facilement interchangeable, car la durée de vie de la batterie pour la première génération était estimée à seulement quelques heures. Notre deuxième engagement a été d’aider à développer la conception de l’enceinte extérieure (la conception industrielle) pour le robot chirurgical qui le préparerait pour une utilisation dans les essais cliniques. Après ces deux engagements, notre curiosité a été piquée quant à ce que pourrait être l’expérience utilisateur d’une interface cerveau-machine. L’idée d’utiliser nos pensées pour contrôler les choses était un concept si nouveau et excitant que nous voulions l’explorer plus en profondeur.
Quels sont les différents composants de Neuralink conçus par Card79 ?
À notre core, nous sommes un studio de conception et notre expertise et notre valeur résident dans la compréhension de la manière de créer quelque chose de désirable et d’attrayant. Cela peut être réalisé en rendant un produit plus visuellement attrayant, parfois en le rendant plus facile à utiliser, et parfois en révélant davantage de capacités. Avec notre travail pour Neuralink, nous sommes venus pour aider à deux des principaux appareils, le Link portable de première génération ainsi que le robot chirurgical Neuralink R1. Notre contribution sur les deux projets a été de comprendre comment rendre le produit le plus adapté possible à son contexte humain. Pour le Link, il était important de résoudre les problèmes d’ergonomie pour nous assurer que l’appareil s’adapte aux différentes tailles de tête des personnes et qu’il soit confortable et discret à porter. Pour le robot R1, il était crucial que le robot soit capable d’être facilement entretenu dans la salle d’opération et qu’il soit sûr pour le personnel et les chirurgiens qui y travaillent.
Pouvez-vous décrire l’approche de la conception d’une expérience utilisateur pour une interface cerveau-ordinateur ?
Il y a deux expériences utilisateur qui seront importantes à considérer. Premièrement, il y a l’expérience utilisateur physique – comment la technologie peut être facilement maintenue, rechargée, mise à niveau comme une augmentation de notre corps.
Ensuite, il y a l’expérience utilisateur numérique et nous la divisons en deux camps différents.
Le premier camp est l’UX qui est pilotée par l’état actuel de l’art. Cela implique de comprendre les capacités techniques de la technologie de détection, de la formation de modèles, de la variation en neuroanatomie et en psychologie qui impacte la robustesse de l’expérience BMI et de la fonction ou du cas d’utilisation prévu. Selon que l’UX est destinée à des fins de recherche ou à un produit expédié, les priorités seront différentes. Si c’est une interface cerveau-machine invasive, le niveau de complexité de la chirurgie et l’accès à ces patients deviennent plus difficiles à réaliser pour valider l’UX proposée.
Le deuxième camp de la conception d’expériences utilisateur est pour les interfaces cerveau-machine qui ne sont pas encore techniquement possibles mais qui pourraient avoir d’énormes implications sociétales si elles étaient réalisées. Nous essayons de suivre la science jusqu’à ce que nous soyons et puis commençons à faire des suppositions éduquées sur ce qui pourrait être un application incroyable ou désastreuse si le scénario futur à haute vitesse / haute bande passante se réalise. Nous espérons qu’en continuant à travailler sur ces scénarios UX futurs, nous serons armés de propositions de conception si et quand ce futur arrivera.
Quels sont les défis techniques derrière la conception d’une interface cerveau-machine ?
Il y a beaucoup de défis. Obtenir un bon signal est l’une des choses les plus difficiles. Pour obtenir un signal faible à bruit, il faut être invasif avec les technologies de détection. Il y a de nombreuses technologies non invasives excellentes qui sont plus sûres et moins risquées à utiliser, mais qui souffrent du même manque de signal de qualité. Sans un bon signal, c’est comme parler à Alexa à travers un microphone étouffé ou essayer d’utiliser une souris avec un laser cassé qui saute erratiquement lorsque vous essayez de l’utiliser, ce n’est tout simplement pas à la hauteur du niveau de détail que vous voulez.
L’autre défi du point de vue UX est la variation neuroanatomique et psychologique dans le temps au sein d’un individu et entre les individus. Cela signifie essentiellement que chaque fois qu’un utilisateur ou un nouvel utilisateur veut commencer à utiliser une interface cerveau-machine, il doit passer par une session de calibration qui est souvent frustrante et démotive l’utilisateur. Il y a des opportunités UX pour simplifier et rationaliser ce processus de calibration, mais l’espoir à long terme est que la fréquence et la nécessité de calibrer un système puissent être réduites.
Aussi, avec les systèmes d’interface cerveau-ordinateur pilotés par l’imagerie motrice intentionnelle (MI) de l’utilisateur, la façon dont vous pouvez inciter un utilisateur à imaginer le mouvement peut avoir un impact sur la capacité du modèle d’apprentissage automatique à déchiffrer efficacement le mouvement prévu. Une excellente recherche publiée en 2021 par Frank Willets et al. a incité des patients paralysés à imaginer qu’ils écrivaient (plutôt que de déplacer un curseur ou de taper des touches sur un clavier). Cette technique d’entrée a été en mesure de surpasser d’autres techniques testées précédemment, en partie parce que la tâche d’écriture était une tâche facile pour les utilisateurs à imaginer, et en partie parce que le ML pouvait déchiffrer efficacement entre les différents caractères manuscrits – très similaire à lorsque Palm Pilot a introduit leur langage d’écriture “graffiti” au début des années 2000.
Pouvez-vous décrire comment les interfaces cerveau-machine seront en mesure d’utiliser des modalités de réflexion visuelles ou autres types de modalités de réflexion en dehors de la simple réflexion en mots ?
En tant que concepteurs UX travaillant dans ce domaine en évolution rapide, nous essayons de suivre la science de près pour voir où elle nous mène. Lorsque nous avons imaginé certains de nos scénarios futurs, nous avons essayé de nous appuyer sur la recherche qui est à la fois à court et à long terme. À court terme, il y a eu beaucoup de progrès dans le développement d’interfaces cerveau-machine qui utilisent l’imagerie motrice intentionnelle, où quelqu’un imagine qu’il déplace un objet pour manipuler une forme de technologie. Cette modalité permet une manipulation directe d’objets avec des pensées.
À un niveau plus ambitieux, la capacité à contrôler la voix et à créer des mots qui symbolisent un objet est un niveau de contrôle plus avancé. Cette recherche est issue du laboratoire d’Edward Chang à l’UCSF et a commencé à inspirer beaucoup des types d’interactions que nous imaginions, que ce soit une personne capable de demander à son assistant IA quelque chose via ses pensées ou deux personnes capables de converser avec leurs pensées.
Le cortex visuel est un système plus avancé que la voix ou le mouvement. Des recherches préliminaires indiquent qu’il y a un niveau élevé de cohérence dans la façon dont le cortex visuel fonctionne entre les individus. Un article publié en 2004 indique que lorsque les chercheurs ont présenté la même entrée visuelle à différentes personnes, il y avait un “niveau de synchronisation voxel-par-voxel frappant entre les individus”. Il y a également eu un autre projet publié par des chercheurs de l’Université de Kyoto où les chercheurs ont découvert que l’activité dans les régions cérébrales de haut niveau pouvait prédire avec précision le contenu des rêves des participants. Le soutien à la réflexion visuelle a un potentiel énorme, permettant aux gens d’augmenter leur pouvoir d’imagination.
À la fin de la journée, beaucoup de cela dépendra de la facilité avec laquelle ces nouvelles entrées peuvent être apprises, de la façon dont elles fonctionnent de manière robuste et des avantages qu’elles offrent à l’utilisateur final, que ce soit en leur permettant de faire des choses qu’ils n’ont jamais pu faire auparavant ou de faire des choses plus rapidement qu’ils n’ont jamais pu le faire.
Pouvez-vous discuter de la façon dont les interfaces cerveau-machine seront en mesure de comprendre l’état émotionnel d’une personne ?
Les émotions peuvent actuellement être capturées avec des EEG à un niveau macroscopique et catégorisées en grandes catégories émotionnelles telles que la colère, la tristesse, le bonheur, le dégoût et la peur. Il y a deux façons dont nous pourrions voir l’état émotionnel d’une personne avoir un impact sur les interfaces cerveau-machine futures. Ils pourraient d’abord inspirer des fonctionnalités réelles, informant une application de méditation ou informant un thérapeute de l’historique émotionnel de son client depuis leur dernière séance. Alternativement, parce que ces informations sont plus macroscopiques et qualitatives que les autres contrôles d’interface cerveau-machine qui capturent le mouvement, le langage ou les visuels, il serait logique d’utiliser ces données pour modifier la “saveur” d’une interface, en ajustant une interface cerveau-machine spécifique pour tenir compte de l’état émotionnel de la personne, similaire à la façon dont le “Mode Nuit” peut ajuster la luminosité d’un écran en fonction de l’heure de la journée.
Quels sont les cas d’utilisation pour les interfaces cerveau-machine qui vous excitent le plus ?
Je suis avant tout fasciné par l’apprentissage de la façon dont le cerveau fonctionne réellement. Cela ressemble à ce que nous avons de nombreux efforts pour essayer de comprendre les mécanismes internes du cerveau, mais pas de modèle holistique. C’est pourquoi l’application de principes UX à ce sujet est si excitante pour moi ! Ce qui en résulte idéalement sera quelque chose qui améliorera réellement la vie des gens. L’idée d’accélérer ce que nous faisons en tant qu’espèce semble incroyable et c’est ce qui me rend super excité à propos de ce sujet. En revanche, avoir notre humanité et notre indépendance remises en question est effrayant et doit être abordé avec la plus grande vigilance.
Quelle est votre vision pour l’avenir des interfaces cerveau-machine ?
Une où les gens bénéficient de la technologie, en contrôlant, mais en même temps capable de se connecter aux autres et à l’information de manière que nous ne pouvons actuellement pas imaginer. L’idée d’être connecté de manière qui donne la priorité à notre humanité. L’un des risques dont nous sommes tous conscients est que nous craignons que nos pensées ne soient plus privées ou que nous devenions tous des zombies avec un contrôle mental. Avec la façon dont Web 2.0 a dû compromettre la vie privée des gens pour se maintenir, il n’est pas étonnant que les gens soient sceptiques ! Malgré le fait que la science est très loin de rendre cela une réalité, je veux jouer un rôle actif pour m’assurer qu’elle ne s’oriente jamais dans cette direction. Sachant qu’il y a de nombreux intervenants, des gouvernements aux capitalistes de risque, il n’y a aucune garantie qu’elle ne s’oriente pas dans une direction sombre. C’est pourquoi, en tant que concepteur UX, je pense qu’il est SO critique de se positionner tôt et de commencer à établir des repères sur ce qui est dans le meilleur intérêt des personnes qui utiliseront réellement cette technologie.
Merci pour cette grande interview, les lecteurs qui souhaitent en savoir plus devraient visiter Card79 ou Neuralink.












