Entrevistas
Afshin Mehin, Fundador de Card79 – Serie de Entrevistas

Afshin Mehin es el fundador de Card79 (anteriormente conocido como WOKE), un estudio de creativos especializado en experiencias de productos que borran los límites entre nuestras vidas digitales y físicas. Card79 tuvo el privilegio de asociarse con Elon Musk para diseñar Neuralink – el primer dispositivo wearable de cerebro del mundo. El estudio diseñó el Link, que fue parte del sistema que una persona usaría a diario.
Usted comenzó sus estudios como ingeniero, ¿cómo cambió su carrera hacia el diseño para la tecnología del futuro?
El diseño siempre estuvo en mi radar. Como adolescente, descubrí el campo del diseño industrial como una posible carrera y pensé que podría ser un buen ajuste para mí, ya que me gustaba crear nuevos productos y soluciones para problemas cotidianos. Pero, como es el caso de muchas familias de inmigrantes de primera generación, el diseño no era una carrera familiar. Así que hice lo mejor que pude y completé mi licenciatura en Ingeniería Mecánica en la Universidad de Columbia Británica en Vancouver. Esa educación resultó ser una de las mejores cosas que hice, ya que me dio una apreciación de los problemas difíciles que necesitan resolverse para que los nuevos avances técnicos se lleven a cabo en el mundo. Después de completar mis estudios de ingeniería, me reorienté hacia mi pasión por el diseño y comencé a buscar una educación adicional en Interacción Humano-Computadora y Diseño de Ingeniería Industrial, que tenía un lado que estaba más interesado en la experiencia humana de esa tecnología, completando una maestría en el Royal College of Art en Londres y una pasantía en M.I.T. Media Lab Europe en Dublín. Después de que mi educación estuvo completa, me mudé a San Francisco y comencé a trabajar para diferentes compañías de diseño como IDEO y Whipsaw.
Usted fue abordado por el equipo de Neuralink en 2019 para presentar un diseño para su interfaz de cerebro-máquina, ¿podría discutir este compromiso inicial?
Recibimos una llamada del presidente de Neuralink. Habíamos trabajado en dispositivos wearables para la cabeza antes, así que estábamos cómodos con los desafíos de diseñar algo que podría usarse en la cabeza. Lo que no esperábamos era que también estaríamos diseñando algo que se insertaría en la cabeza. Esta fue la primera vez que habíamos trabajado en un proyecto en el que nos sentaríamos en una habitación con un ingeniero eléctrico, ingenieros mecánicos junto con neurocirujanos e ingenieros neurales que podrían explicar cómo operar y hacer interfaz con el cerebro. No solo trabajamos en definir el factor de forma – algo discreto para no atraer atención no deseada – sino que también discutimos posibles ubicaciones del dispositivo wearable e implantable con el equipo de Neuralink. Finalmente, diseñamos un dispositivo wearable que se usaría detrás de la oreja y transferiría datos y energía a un receptor inalámbrico que se implantaría debajo del cuero cabelludo detrás de la oreja. El dispositivo wearable se diseñó para ser fácilmente intercambiable, ya que la vida útil de la batería para la primera generación se estimó en no más de un par de horas. Nuestro segundo compromiso fue ayudar a desarrollar el diseño de la carcasa exterior (el Diseño Industrial) para el robot quirúrgico que lo prepararía para su uso en ensayos clínicos. Después de estos dos compromisos, nuestra curiosidad se despertó sobre qué podría ser la experiencia del usuario de una BMI. La idea de usar nuestros pensamientos para controlar cosas era un concepto tan nuevo y emocionante que queríamos explorarlo más a fondo.
¿Cuáles son los diferentes componentes de Neuralink que diseñó Card79?
En nuestro núcleo, somos un estudio de diseño y nuestra experiencia y valor radican en entender cómo crear algo deseable y atractivo. Esto se logra a veces haciendo que un producto sea más visualmente atractivo, otras veces haciendo que un producto sea más fácil de usar, y otras veces exponiendo más capacidades. Con nuestro trabajo para Neuralink, vinimos a ayudar con dos de los dispositivos principales, el Link wearable de primera generación y el robot quirúrgico Neuralink R1. Nuestra contribución en ambos proyectos fue entender cómo hacer que el producto sea lo más adecuado para su contexto humano posible. Para el Link, era importante resolver problemas de ergonomía para asegurarnos de que el dispositivo se ajustara a las diferentes cabezas de las personas y fuera cómodo y discreto de usar. Para el robot R1, era fundamental que el robot fuera capaz de ser fácilmente mantenido en la sala de operaciones y fuera seguro para el personal y los cirujanos que trabajaran con él.
¿Podría describir el enfoque de diseñar una experiencia de usuario para una Interfaz de Cerebro-Computadora?
Hay dos experiencias de usuario que serán importantes de considerar. Primero, está la experiencia de usuario física – cómo se puede mantener, recargar, actualizar la tecnología como una extensión de nuestros cuerpos.
Luego está la experiencia de usuario digital y la dividimos en dos campos diferentes.
El primer campo es la UX que se impulsa por el estado actual de la técnica. Esto implica entender las capacidades técnicas de la tecnología de detección, el entrenamiento de modelos, la variación en neuroanatomía y psicología que impacta la robustez de la experiencia de BMI y la función o caso de uso previsto que se pretende abordar. Dependiendo de si la UX es para fines de investigación o para un producto que se envía, las prioridades cambiarían. También, si es una BMI invasiva, el nivel de complejidad de la cirugía y el acceso a esos pacientes se vuelve más difícil de realizar pruebas de usuario para validar la UX propuesta.
El segundo campo de diseñar experiencias de usuario es para BMI que no son técnicamente posibles todavía, pero que podrían tener un gran impacto social si se lograran. Intentamos seguir la ciencia hasta donde estamos y luego comenzar a hacer conjeturas educadas sobre qué podría parecer una aplicación increíble o desastrosa que podría surgir si el escenario de futuro de alta velocidad/alta banda se hace realidad. Esperamos que, al seguir trabajando en estos escenarios de UX futuros, estaremos armados con propuestas de diseño si y cuando ese futuro llegue.
¿Cuáles son algunos de los desafíos técnicos detrás del diseño para una interfaz de cerebro-máquina?
Así que, hay muchos desafíos. Obtener una buena señal es una de las cosas más difíciles. Para obtener una señal de baja relación señal ruido, es necesario ser invasivo con las tecnologías de detección. Hay muchas tecnologías no invasivas excelentes que son más seguras y menos riesgosas de usar, pero sufren de la misma falta de calidad de señal. Sin una buena señal, es como hablar con Alexa a través de un micrófono amortiguado o intentar usar un mouse con un láser roto que salta erráticamente cuando se intenta usar, simplemente no está leyendo a nivel de detalle que se desea.
El otro desafío desde el punto de vista de la UX es la variación neuroanatómica y psicológica en el tiempo dentro de un individuo y entre individuos. Eso básicamente significa que cada vez que el mismo usuario o un nuevo usuario quiere comenzar a usar una BMI, necesita pasar por una sesión de calibración, que en sí misma es a menudo frustrante y desmotivadora para los usuarios. Hay oportunidades de UX para simplificar y agilizar ese proceso de calibración, pero la esperanza a largo plazo es que la cantidad y frecuencia de tener que calibrar un sistema se puedan reducir.
También, con los sistemas de BCI impulsados por la imaginación motora intencional (MI) del usuario, la forma en que se puede promptar a un usuario para que imagine el movimiento puede impactar la capacidad del modelo de aprendizaje automático para descifrar efectivamente el movimiento previsto. Una gran investigación publicada en 2021 por Frank Willets et al promptó a pacientes con parálisis para que imaginaran que estaban escribiendo a mano (en lugar de mover un cursor o presionar teclas en un teclado). Esa técnica de entrada fue capaz de superar a otras técnicas previamente probadas, en parte porque la tarea de escribir a mano era fácil para los usuarios imaginar, y en parte porque el ML podía descifrar efectivamente entre diferentes caracteres escritos a mano – muy similar a cuando Palm Pilot introdujo su lenguaje de “grafiti” de escritura a mano a principios de la década de 2000.
¿Podría describir cómo las interfaces de cerebro-máquina podrán utilizar modalidades de pensamiento visuales u otros tipos fuera de simplemente pensar en palabras?
Como diseñadores de UX que trabajan en este campo en rápida evolución, estamos tratando de seguir la ciencia de cerca para ver adónde nos lleva. Cuando hemos imaginado algunos de nuestros escenarios futuros, hemos intentado apoyarnos en la investigación que es tanto a corto como a largo plazo. A corto plazo, ha habido mucho progreso en el desarrollo de BMI que aprovechan la Imaginación Motora Intencional, donde alguien imagina que está moviendo un objeto para manipular alguna forma de tecnología. Esta modalidad permite la manipulación directa de objetos con pensamientos.
En un nivel más ambicioso, la capacidad de controlar la voz y crear palabras que simbolizan un objeto es un nivel de control más avanzado. Esta investigación ha salido del laboratorio de Edward Chang en la UCSF y ha comenzado a inspirar muchos de los tipos de interacciones que estábamos imaginando, ya sea que una persona pueda pedirle algo a su asistente de IA a través de sus pensamientos o que dos personas puedan conversar entre sí con sus pensamientos.
La corteza visual es un sistema más avanzado que la voz o el movimiento. La investigación temprana indica que hay un alto nivel de consistencia en la forma en que la corteza visual funciona entre individuos. Un artículo publicado en 2004 indica que cuando los investigadores muestran la misma entrada visual a diferentes personas, hay una “sorprendente nivel de sincronización voxel por voxel entre individuos”. También hubo otro proyecto publicado por investigadores de la Universidad de Kioto donde los investigadores encontraron que la actividad en las regiones cerebrales de alto nivel podría predecir con precisión el contenido de los sueños de los participantes. Apoyar el pensamiento visual tiene un gran potencial, permitiendo a las personas aumentar su poder de imaginación.
Al final del día, mucho de esto dependerá de cuáles de estas nuevas entradas tengan éxito, lo que dependerá de la facilidad con la que se puedan aprender, de cómo funcionen de manera robusta y de cuánto beneficien al usuario final, ya sea permitiéndoles hacer cosas que no han podido hacer antes o hacer cosas más rápido de lo que han podido hacer antes.
¿Podría discutir cómo las interfaces de cerebro-máquina podrán entender el estado emocional de una persona?
Las emociones pueden capturarse actualmente con EEG a nivel macroscópico y categorizarse en los grandes cubos emocionales, como la ira, la tristeza, la felicidad, el desdén y el miedo. Hay dos formas en que podríamos ver que el estado emocional de una persona impacta las futuras BMI. Podrían inspirar características reales, informando una aplicación de meditación o informando a un terapeuta sobre la historia emocional de su cliente desde su última cita. Alternativamente, porque esta información es más macroscópica y cualitativa que otros controles de BMI que capturan el movimiento, el lenguaje o las visualizaciones, tendría sentido usar esos datos para cambiar el “sabor” de una interfaz, ajustando una BMI específica para tener en cuenta las emociones de la persona, similar a cómo el “Modo Noche” puede ajustar el brillo de una pantalla dependiendo de la hora del día.
¿Cuáles son algunos de los casos de uso para las interfaces de cerebro-máquina que más lo emocionan?
Me fascina aprender más sobre cómo funciona el cerebro en realidad. Parece que tenemos muchos esfuerzos para tratar de entender los mecanismos internos del cerebro, pero no hay un modelo holístico. Es por eso que aplicar principios de UX a este tema es tan emocionante para mí. Lo que resulte de eso idealmente será algo que realmente será una UX de alta velocidad/alta banda que mejore la vida de las personas. La idea de acelerar lo que hacemos como especie suena increíble y es lo que me emociona sobre este tema. Por otro lado, tener nuestra humanidad y nuestra independencia desafiadas es aterrador y necesita ser abordado con la máxima vigilancia.
¿Cuál es su visión para el futuro de las interfaces de cerebro-máquina?
Una en la que las personas se beneficien de la tecnología, estén en control de ella, pero al mismo tiempo puedan conectarse con otros y con la información de maneras que actualmente no podemos imaginar. La idea de estar conectados de una manera que priorice nuestra humanidad. Uno de los riesgos que todos somos conscientes es que tememos que nuestros pensamientos ya no serán privados o que todos nos convertiremos en zombis con control mental. Con la forma en que Web 2.0 ha tenido que comprometer la privacidad de las personas para sostenerse, no es de extrañar que la gente sea escéptica. A pesar de que la ciencia está muy lejos de hacer que eso sea una realidad, quiero desempeñar un papel activo para asegurarme de que nunca se dirija en esa dirección. Sabiendo que hay muchos interesados, desde gobiernos hasta capitalistas de riesgo, no hay garantía de que no se dirija hacia una dirección oscura. Es por eso que, como diseñador de UX, siento que es tan crítico entrar temprano y comenzar a establecer algunos límites sobre qué está en el mejor interés de las personas que realmente usarán esta tecnología.
Gracias por la gran entrevista, los lectores que deseen aprender más pueden visitar Card79 o Neuralink.












