Connect with us

Lama Nachman, Intel Fellow y Directora del Laboratorio de Computación Anticipatoria – Serie de Entrevistas

Interfaz cerebro-máquina

Lama Nachman, Intel Fellow y Directora del Laboratorio de Computación Anticipatoria – Serie de Entrevistas

mm

Lama Nachman, es una Intel Fellow y Directora del Laboratorio de Computación Anticipatoria. Lama es más conocida por su trabajo con el Prof. Stephen Hawking, fue instrumental en la creación de un sistema de computadora asistida para ayudar al Prof. Stephen Hawking a comunicarse. Hoy en día está ayudando al roboticista británico Dr. Peter Scott-Morgan a comunicarse. En 2017, el Dr. Peter Scott-Morgan recibió un diagnóstico de enfermedad de neurona motora (MND), también conocida como ALS o enfermedad de Lou Gehrig. La MND ataca el cerebro y los nervios y eventualmente paraliza todos los músculos, incluso aquellos que permiten la respiración y la deglución.

El Dr. Peter Scott-Morgan dijo una vez: “Seguiré evolucionando, muriendo como humano, viviendo como cyborg”.

¿Qué te atrajo a la IA?

Siempre me ha atraído la idea de que la tecnología puede ser el gran igualador. Cuando se desarrolla de manera responsable, tiene el potencial de nivelar el campo de juego, abordar las inequidades sociales y amplificar el potencial humano. En ningún lugar es esto más cierto que con la IA. Mientras que gran parte de la conversación de la industria sobre la IA y los humanos posiciona la relación entre los dos como adversarial, creo que hay cosas únicas que las máquinas y las personas son buenas en hacer, así que prefiero ver el futuro a través de la lente de la colaboración Humano-IA en lugar de la competencia Humano-IA. Lidero el Laboratorio de Computación Anticipatoria en Intel Labs, donde, en todos nuestros esfuerzos de investigación, tenemos un enfoque singular en entregar innovaciones en computación que tengan un impacto social amplio. Dada la forma en que la IA ya es omnipresente y su huella creciente en todos los aspectos de nuestra vida, veo un gran potencial en la investigación que mi equipo está llevando a cabo para hacer que la IA sea más accesible, más consciente del contexto, más responsable y, en última instancia, para traer soluciones tecnológicas a escala para ayudar a las personas en el mundo real.

Has trabajado estrechamente con el legendario físico Prof. Stephen Hawking para crear un sistema de IA que lo ayudara con la comunicación y con tareas que la mayoría de nosotros consideraríamos rutinarias. ¿Cuáles fueron algunas de estas tareas rutinarias?

Trabajar con el Prof. Stephen Hawking fue la empresa más significativa y desafiante de mi vida. Me alimentó el alma y realmente me hizo entender cómo la tecnología puede mejorar profundamente la vida de las personas. Vivía con ALS, una enfermedad neurológica degenerativa, que quita con el tiempo la capacidad del paciente de realizar las actividades más simples. En 2011, comenzamos a trabajar con él para explorar cómo mejorar el sistema de computadora asistida que le permitía interactuar con el mundo. Además de usar su computadora para hablar con la gente, Stephen usaba su computadora como todos nosotros, editando documentos, navegando por la web, dando conferencias, leyendo / escribiendo correos electrónicos, etc. La tecnología permitió que Stephen continuara participando activamente en el mundo y lo inspirara durante años después de que sus habilidades físicas disminuyeran rápidamente. ¡Eso, para mí, es lo que el impacto significativo de la tecnología en la vida de alguien se ve como!

¿Cuáles son algunas de las ideas clave que sacaste de trabajar con el Prof. Stephen Hawking?

Nuestra pantalla de computadora es realmente nuestra puerta de entrada al mundo. Si las personas pueden controlar su PC, pueden controlar todos los aspectos de sus vidas (consumir contenido, acceder al mundo digital, controlar su entorno físico, navegar en su silla de ruedas, etc.). Para las personas con discapacidades que aún pueden hablar, los avances en el reconocimiento de voz les permiten tener el control total de sus dispositivos (y en gran medida, su entorno físico). Sin embargo, aquellos que no pueden hablar y no pueden moverse están verdaderamente impedidos para ejercer mucha independencia. Lo que la experiencia con el Prof. Hawking me enseñó es que las plataformas de tecnología asistida necesitan estar adaptadas a las necesidades específicas del usuario. Por ejemplo, no podemos simplemente asumir que una sola solución funcionará para las personas con ALS, porque la enfermedad afecta diferentes habilidades en los pacientes. Así que necesitamos tecnologías que puedan ser configuradas y adaptadas fácilmente a las necesidades del individuo. Es por eso que construimos ACAT (Herramienta de contexto asistida y consciente), una plataforma de software de código abierto y modular que puede permitir a los desarrolladores innovar y construir diferentes capacidades sobre ella.

También aprendí que es importante entender el umbral de comodidad de cada usuario al renunciar al control a cambio de más eficiencia (esto no se limita a las personas con discapacidades). Por ejemplo, la IA puede ser capaz de quitar más control al usuario para realizar una tarea más rápido o de manera más eficiente, pero cada usuario tiene un nivel diferente de aversión al riesgo. Algunos están dispuestos a renunciar a más control, mientras que otros usuarios quieren mantener más de él. Entender esos umbrales y cómo afectan a las personas tiene un gran impacto en cómo se pueden diseñar estos sistemas. Necesitamos replantear el diseño del sistema en términos del nivel de comodidad del usuario en lugar de solo medidas objetivas de eficiencia y precisión.

Más recientemente, has estado trabajando con un famoso científico del Reino Unido, Peter Scott Morgan, que sufre de enfermedad de neurona motora y tiene como objetivo convertirse en el primer cyborg completo del mundo. ¿Cuáles son algunos de los objetivos ambiciosos que Peter tiene?

Uno de los problemas con la AAC (Comunicación Asistida y Aumentativa) es el “silencio gap”. Muchas personas con ALS (incluido Peter) usan el control de la mirada para elegir letras / palabras en la pantalla para hablar con los demás. Esto resulta en un largo silencio después de que alguien termina su oración mientras la persona mira su computadora y comienza a formular sus letras y palabras para responder. Peter quería reducir este silencio gap tanto como fuera posible para devolver la espontaneidad verbal a la comunicación. También quiere preservar su voz y personalidad y usar un sistema de texto a voz que exprese su estilo único de comunicación (por ejemplo, sus ocurrencias, su sarcasmo rápido, sus emociones).

El roboticista británico Dr. Peter Scott-Morgan, que tiene enfermedad de neurona motora, comenzó en 2019 a someterse a una serie de operaciones para prolongar su vida utilizando tecnología. (Crédito: Cardiff Productions)

¿Podrías discutir algunas de las tecnologías que actualmente se están utilizando para ayudar al Dr. Peter Scott-Morgan?

Peter está utilizando ACAT (Herramienta de contexto asistida y consciente), la plataforma que construimos durante nuestro trabajo con el Dr. Hawking y que más tarde se lanzó como código abierto. A diferencia del Dr. Hawking, que usaba los músculos de su mejilla como un “disparador de entrada” para controlar las letras en su pantalla, Peter está usando el control de la mirada (una capacidad que agregamos a la plataforma ACAT existente) para hablar y controlar su PC, que se conecta a una solución de texto a voz de una empresa llamada CereProc que se personalizó para él y le permite expresar diferentes emociones / énfasis. El sistema también controla un avatar que se personalizó para él.

Actualmente estamos trabajando en un sistema de generación de respuestas para ACAT que pueda permitir que Peter interactúe con el sistema a un nivel más alto utilizando capacidades de IA. Este sistema escuchará las conversaciones de Peter con el tiempo y sugerirá respuestas para que Peter elija en la pantalla. El objetivo es que, con el tiempo, el sistema de IA aprenda de los datos de Peter y le permita “empujar” al sistema para proporcionarle las mejores respuestas utilizando solo algunas palabras clave (similar a cómo funcionan las búsquedas en la web hoy en día). Nuestro objetivo con el sistema de generación de respuestas es reducir el silencio gap en la comunicación mencionado anteriormente y permitir que Peter y los futuros usuarios de ACAT se comuniquen a un ritmo que se sienta más “natural”.

¿También has hablado sobre la importancia de la transparencia en la IA, qué tan grande es este problema?

Es un gran problema, especialmente cuando se despliega en sistemas de toma de decisiones o sistemas de colaboración Humano-IA. Por ejemplo, en el caso del sistema asistivo de Peter, necesitamos entender qué hace que el sistema tome estas recomendaciones y cómo impactar el aprendizaje de este sistema para expresar mejor sus ideas.

En el contexto más amplio de los sistemas de toma de decisiones, ya sea que ayuden con el diagnóstico basado en imágenes médicas o que hagan recomendaciones sobre la concesión de préstamos, los sistemas de IA necesitan proporcionar información interpretable por humanos sobre cómo llegaron a esas decisiones, qué atributos o características fueron más impactantes en esa decisión, qué confianza tiene el sistema en la inferencia realizada, etc. Esto aumenta la confianza en los sistemas de IA y permite una mejor colaboración entre humanos y IA en escenarios de toma de decisiones mixtos.

El sesgo de la IA, específicamente cuando se trata de racismo y sexismo, es un problema enorme, pero ¿cómo identificas otros tipos de sesgo cuando no tienes idea de qué sesgos estás buscando?

Es un problema muy difícil y que no se puede resolver solo con tecnología. Necesitamos traer más diversidad al desarrollo de los sistemas de IA (racial, de género, cultural, de capacidad física, etc.). Esto es claramente una gran brecha en la población que construye estos sistemas de IA hoy en día. Además, es fundamental tener equipos multidisciplinarios involucrados en la definición y desarrollo de estos sistemas, trayendo ciencias sociales, filosofía, psicología, ética y política a la mesa (no solo ciencias de la computación), y participar en el proceso de indagación en el contexto de los proyectos y problemas específicos.

Has hablado antes sobre el uso de la IA para amplificar el potencial humano. ¿Cuáles son algunas áreas que muestran más promesa para esta amplificación del potencial humano?

Un área obvia es permitir que las personas con discapacidades vivan de manera más independiente, se comuniquen con sus seres queridos y sigan creando y contribuyendo a la sociedad. Veo un gran potencial en la educación, en la comprensión del compromiso de los estudiantes y la personalización de la experiencia de aprendizaje para satisfacer las necesidades y capacidades individuales del estudiante para mejorar el compromiso, empoderar a los maestros con este conocimiento y mejorar los resultados de aprendizaje. La inequidad en la educación hoy en día es tan profunda y hay un lugar para que la IA ayude a reducir parte de esta inequidad si lo hacemos bien. Hay oportunidades ilimitadas para que la IA aporte mucho valor creando sistemas de colaboración Humano-IA en muchos sectores (atención médica, fabricación, etc.) porque lo que los humanos y la IA aportan a la mesa son muy complementarios. Para que esto suceda, necesitamos innovación en la intersección de las ciencias sociales, la interfaz de usuario y la IA. La percepción multimodal robusta, la conciencia del contexto, el aprendizaje con datos limitados, la interfaz de usuario físicamente situada y la interpretación son algunos de los desafíos clave que debemos abordar para hacer que esta visión se haga realidad.

También has hablado sobre la importancia del reconocimiento de emociones para el futuro de la IA. ¿Por qué debería la industria de la IA centrarse más en esta área de investigación?

El reconocimiento de emociones es una capacidad clave de los sistemas de IA para múltiples razones. Un aspecto es que la emoción humana ofrece un contexto humano clave para que cualquier sistema proactivo comprenda antes de actuar.

Más importante aún, estos tipos de sistemas necesitan seguir aprendiendo en la naturaleza y adaptarse en función de las interacciones con los usuarios, y mientras que la retroalimentación directa es una señal de aprendizaje clave, las señales indirectas son muy importantes y son gratuitas (menos trabajo para el usuario). Por ejemplo, un asistente digital puede aprender mucho de la frustración en la voz del usuario y usar esa señal de retroalimentación para aprender qué hacer en el futuro, en lugar de pedirle al usuario que proporcione retroalimentación cada vez. Esta información se puede utilizar para sistemas de IA de aprendizaje activo para seguir mejorando con el tiempo.

¿Hay algo más que te gustaría compartir sobre lo que estás trabajando en el Laboratorio de Computación Anticipatoria o sobre otros temas que hemos discutido?

Al construir sistemas asistivos, realmente necesitamos pensar en cómo construir estos sistemas de manera responsable y cómo permitir que las personas comprendan qué información se está recopilando y cómo controlar estos sistemas de manera práctica. Como investigadores de IA, a menudo nos fascina la cantidad de datos y queremos tener tantos datos como sea posible para mejorar estos sistemas, sin embargo, hay un equilibrio entre el tipo y la cantidad de datos que queremos y la privacidad del usuario. Realmente necesitamos limitar los datos que recopilamos a lo que es absolutamente necesario para realizar la tarea de inferencia, hacer que los usuarios sean conscientes de exactamente qué datos estamos recopilando y permitirles ajustar este equilibrio de manera significativa y usable.

Gracias por la fantástica entrevista, los lectores que deseen aprender más sobre este proyecto deben leer el artículo Intel’s Lama Nachman y Peter Scott-Morgan: Dos científicos, uno un ‘cyborg humano’.

El equipo del Laboratorio de Computación Anticipatoria de Intel que desarrolló la Herramienta de contexto asistida y consciente incluye (de izquierda a derecha) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman y Pete Denman. No aparecen en la foto Bruna Girvent, Saurav Sahay y Shachi Kumar. (Crédito: Lama Nachman)

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.