Interface cérebro-máquina
Lama Nachman, Intel Fellow & Diretor do Laboratório de Computação Antecipatória – Série de Entrevistas

Lama Nachman, é uma Intel Fellow & Diretor do Laboratório de Computação Antecipatória. Lama é mais conhecida por seu trabalho com o Prof. Stephen Hawking, ela foi fundamental na criação de um sistema de computador assistivo para ajudar o Prof. Stephen Hawking a se comunicar. Hoje ela está ajudando o robótico britânico Dr. Peter Scott-Morgan a se comunicar. Em 2017, o Dr. Peter Scott-Morgan recebeu um diagnóstico de doença de neurônio motor (MND), também conhecida como ALS ou doença de Lou Gehrig. A MND ataca o cérebro e os nervos e, eventualmente, paralisa todos os músculos, incluindo aqueles que permitem a respiração e a deglutição.
Dr. Peter Scott-Morgan disse uma vez: “Irei continuar a evoluir, morrendo como um ser humano, vivendo como um cyborg.”
O que o atraiu para a IA?
Sempre fui atraído pela ideia de que a tecnologia pode ser o grande equalizador. Quando desenvolvida de forma responsável, ela tem o potencial de nivelar o campo de jogo, abordar as desigualdades sociais e ampliar o potencial humano. Em nenhum lugar isso é mais verdadeiro do que com a IA. Enquanto grande parte da conversa da indústria sobre IA e humanos posiciona a relação entre os dois como adversarial, acredito que existem coisas únicas que as máquinas e as pessoas são boas, então prefiro ver o futuro através da lente da colaboração Humano-IA em vez da competição Humano-IA. Lidero o Laboratório de Computação Antecipatória nos Laboratórios Intel, onde – em todos os nossos esforços de pesquisa – temos um foco singular em entregar inovação em computação que tenha um impacto social amplo. Dada a forma como a IA já é onipresente e sua pegada crescente em todos os aspectos da nossa vida, vejo um tremendo potencial na pesquisa que minha equipe está realizando para tornar a IA mais acessível, mais consciente do contexto, mais responsável e, em última análise, trazer soluções de tecnologia em escala para ajudar as pessoas no mundo real.
Você trabalhou em estreita colaboração com o físico legendário Prof. Stephen Hawking para criar um sistema de IA que o ajudasse a se comunicar e a realizar tarefas que a maioria de nós consideraria rotineiras. Quais eram algumas dessas tarefas rotineiras?
Trabalhar com o Prof. Stephen Hawking foi a empreitada mais significativa e desafiadora da minha vida. Isso alimentou minha alma e realmente mostrou como a tecnologia pode melhorar profundamente a vida das pessoas. Ele vivia com ALS, uma doença neurológica degenerativa, que tira ao longo do tempo a capacidade do paciente de realizar as atividades mais simples. Em 2011, começamos a trabalhar com ele para explorar como melhorar o sistema de computador assistivo que lhe permitia interagir com o mundo. Além de usar seu computador para falar com as pessoas, Stephen usava seu computador como todos nós, editando documentos, navegando na web, dando palestras, lendo/escrivendo e-mails, etc. A tecnologia permitiu que Stephen continuasse a participar ativamente do mundo e a inspirar as pessoas por anos após suas habilidades físicas terem diminuído rapidamente. Isso – para mim – é o que o impacto significativo da tecnologia na vida de alguém parece!
Quais são algumas das principais lições que você tirou do trabalho com o Prof. Stephen Hawking?
Nossa tela de computador é realmente nossa porta de entrada para o mundo. Se as pessoas puderem controlar seu PC, elas podem controlar todos os aspectos de suas vidas (consumir conteúdo, acessar o mundo digital, controlar o ambiente físico, navegar em sua cadeira de rodas, etc.). Para pessoas com deficiências que ainda podem falar, os avanços no reconhecimento de fala permitem que elas tenham controle total de seus dispositivos (e, em grande medida, de seu ambiente físico). No entanto, aqueles que não podem falar e não conseguem se mover estão verdadeiramente prejudicados por não poderem exercer muita independência. O que a experiência com o Prof. Hawking me ensinou é que as plataformas de tecnologia assistiva precisam ser personalizadas para as necessidades específicas do usuário. Por exemplo, não podemos simplesmente supor que uma solução única funcionará para pessoas com ALS, porque a doença afeta diferentes habilidades em diferentes pacientes. Então, precisamos de tecnologias que possam ser facilmente configuradas e adaptadas às necessidades individuais. É por isso que construímos o ACAT (Assistive Context Aware Toolkit), uma plataforma de software de código aberto e modular que pode permitir que os desenvolvedores inovem e construam diferentes capacidades sobre ele.
Também aprendi que é importante entender o limiar de conforto de cada usuário em relação a dar controle em troca de mais eficiência (isso não se limita a pessoas com deficiências). Por exemplo, a IA pode ser capaz de tirar mais controle do usuário para realizar uma tarefa mais rápido ou de forma mais eficiente, mas cada usuário tem um nível diferente de aversão ao risco. Alguns estão dispostos a dar mais controle, enquanto outros usuários querem manter mais controle. Entender esses limites e até onde as pessoas estão dispostas a ir tem um grande impacto em como esses sistemas podem ser projetados. Precisamos repensar o design do sistema em termos de nível de confort do usuário, e não apenas medidas objetivas de eficiência e precisão.
Mais recentemente, você tem trabalhado com um famoso cientista britânico, Peter Scott Morgan, que está sofrendo de doença de neurônio motor e tem o objetivo de se tornar o primeiro cyborg completo do mundo. Quais são alguns dos objetivos ambiciosos que Peter tem?
Um dos problemas com a AAC (Comunicação Assistiva e Alternativa) é a “lacuna de silêncio”. Muitas pessoas com ALS (incluindo Peter) usam controle de olhar para escolher letras/palavras na tela para falar com os outros. Isso resulta em um longo silêncio após alguém terminar sua frase, enquanto a pessoa olha para o computador e começa a formular suas letras e palavras para responder. Peter quer reduzir essa lacuna de silêncio o máximo possível para trazer de volta a espontaneidade verbal à comunicação. Ele também quer preservar sua voz e personalidade e usar um sistema de texto-para-fala que expresse seu estilo único de comunicação (por exemplo, seus trocadilhos, sua sarcasmo rápido, suas emoções).

O robótico britânico Dr. Peter Scott-Morgan, que tem doença de neurônio motor, começou em 2019 a passar por uma série de operações para prolongar sua vida usando tecnologia. (Crédito: Cardiff Productions)
Poderia discutir algumas das tecnologias que estão sendo usadas atualmente para ajudar o Dr. Peter Scott-Morgan?
Peter está usando o ACAT (Assistive Context Aware Toolkit), a plataforma que construímos durante nosso trabalho com o Dr. Hawking e posteriormente liberamos como código aberto. Ao contrário do Dr. Hawking, que usava os músculos de sua bochecha como um “gatilho de entrada” para controlar as letras em sua tela, Peter está usando controle de olhar (uma capacidade que adicionamos ao ACAT existente) para falar e controlar seu PC, que se conecta a uma solução de Texto-para-Fala (TTS) de uma empresa chamada CereProc que foi personalizada para ele e permite que ele expresse diferentes emoções/ênfase. O sistema também controla um avatar que foi personalizado para ele.
Estamos trabalhando atualmente em um sistema de geração de respostas para o ACAT que possa permitir que Peter interaja com o sistema em um nível mais alto usando capacidades de IA. Esse sistema ouvirá as conversas de Peter ao longo do tempo e sugerirá respostas para Peter escolher na tela. O objetivo é que, com o tempo, o sistema de IA aprenda com os dados de Peter e permita que ele “empurre” o sistema para fornecer as melhores respostas usando apenas algumas palavras-chave (semelhante à forma como as buscas funcionam na web hoje). Nosso objetivo com o sistema de geração de respostas é reduzir a lacuna de silêncio na comunicação referenciada acima e permitir que Peter e futuros usuários do ACAT se comuniquem a um ritmo que se sinta mais “natural”.
Você também falou sobre a importância da transparência na IA, quão grande é esse problema?
É um grande problema, especialmente quando é implantado em sistemas de tomada de decisão ou sistemas de colaboração Humano-IA. Por exemplo, no caso do sistema assistivo de Peter, precisamos entender o que está causando o sistema a fazer essas recomendações e como impactar o aprendizado desse sistema para expressar melhor as ideias dele.
No contexto mais amplo dos sistemas de tomada de decisão, seja ajudando no diagnóstico com base em imagens médicas ou fazendo recomendações sobre a concessão de empréstimos, os sistemas de IA precisam fornecer informações humanamente interpretáveis sobre como chegaram a essas decisões, quais atributos ou recursos tiveram mais impacto nessa decisão, qual é a confiança que o sistema tem na inferência feita, etc. Isso aumenta a confiança nos sistemas de IA e permite uma melhor colaboração entre humanos e IA em cenários de tomada de decisão mista.
A tendência da IA, especialmente quando se trata de racismo e sexismo, é um problema enorme, mas como você identifica outros tipos de tendência quando você não tem ideia de quais tendências você está procurando?
É um problema muito difícil e que não pode ser resolvido apenas com tecnologia. Precisamos trazer mais diversidade para o desenvolvimento de sistemas de IA (racial, de gênero, cultural, de capacidade física, etc.). Isso é claramente uma grande lacuna na população que está construindo esses sistemas de IA hoje. Além disso, é fundamental ter equipes multidisciplinares envolvidas na definição e desenvolvimento desses sistemas, trazendo ciência social, filosofia, psicologia, ética e política para a mesa (não apenas ciência da computação), e envolvendo-se no processo de investigação no contexto dos projetos e problemas específicos.
Você falou antes sobre usar a IA para ampliar o potencial humano. Quais são algumas áreas que mostram o maior potencial para essa ampliação do potencial humano?
Uma área óbvia é permitir que as pessoas com deficiências vivam de forma mais independente, se comuniquem com entes queridos e continuem a criar e contribuir para a sociedade. Vejo um grande potencial na educação, na compreensão do engajamento do aluno e na personalização da experiência de aprendizado para as necessidades e capacidades individuais do aluno para melhorar o engajamento, capacitar os professores com esse conhecimento e melhorar os resultados de aprendizado. A desigualdade na educação hoje é tão profunda e há um lugar para a IA ajudar a reduzir parte dessa desigualdade se fizermos isso corretamente. Há oportunidades ilimitadas para a IA trazer muito valor criando sistemas de colaboração Humano-IA em muitos setores (saúde, manufatura, etc.) porque o que os humanos e a IA trazem para a mesa são muito complementares. Para que isso aconteça, precisamos de inovação na interseção da ciência social, HCI e IA. Percepção multi-modal robusta, conscientização do contexto, aprendizado com dados limitados, HCI fisicamente situada e interpretabilidade são alguns dos principais desafios que precisamos focar para trazer essa visão à realidade.
Você também falou sobre a importância do reconhecimento de emoções para o futuro da IA? Por que a indústria de IA deve se concentrar mais nessa área de pesquisa?
O reconhecimento de emoções é uma capacidade fundamental dos sistemas de IA para várias razões. Um aspecto é que a emoção humana oferece um contexto humano fundamental para qualquer sistema proativo entender antes de agir.
Mais importante ainda, esses tipos de sistemas precisam continuar a aprender no mundo real e se adaptar com base nas interações com os usuários, e enquanto o feedback direto é um sinal fundamental para o aprendizado, os sinais indiretos são muito importantes e são gratuitos (menos trabalho para o usuário). Por exemplo, um assistente digital pode aprender muito com a frustração na voz do usuário e usar isso como um sinal de feedback para aprender o que fazer no futuro, em vez de pedir feedback ao usuário a cada vez. Essa informação pode ser usada para sistemas de IA de aprendizado ativo para continuar a melhorar com o tempo.
Há algo mais que você gostaria de compartilhar sobre o que você está trabalhando no Laboratório de Computação Antecipatória ou outras questões que discutimos?
Ao construir sistemas assistivos, realmente precisamos pensar sobre como construir esses sistemas de forma responsável e como permitir que as pessoas entendam o que está sendo coletado e como controlar esses sistemas de forma prática. Como pesquisadores de IA, muitas vezes estamos fascinados com os dados e queremos ter tantos dados quanto possível para melhorar esses sistemas, no entanto, há um trade-off entre o tipo e a quantidade de dados que queremos e a privacidade do usuário. Realmente precisamos limitar os dados que coletamos ao que é absolutamente necessário para realizar a tarefa de inferência, tornar os usuários cientes de exatamente quais dados estamos coletando e permitir que eles ajustem esse trade-off de maneira significativa e útil.
Obrigado pela fantástica entrevista, leitores que desejam aprender mais sobre esse projeto devem ler o artigo Intel’s Lama Nachman e Peter Scott-Morgan: Dois Cientistas, um ‘Cyborg Humano’.

A equipe do Laboratório de Computação Antecipatória da Intel que desenvolveu o Assistive Context-Aware Toolkit inclui (da esquerda) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman e Pete Denman. Não está na foto: Bruna Girvent, Saurav Sahay e Shachi Kumar. (Crédito: Lama Nachman)












