Gehirn-Computer-Schnittstelle
Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Interview Series

Lama Nachman, ist ein Intel Fellow und Direktor des Anticipatory Computing Lab. Lama ist vor allem für ihre Arbeit mit Prof. Stephen Hawking bekannt, sie war maßgeblich an der Entwicklung eines assistiven Computersystems beteiligt, um Prof. Stephen Hawking bei der Kommunikation zu unterstützen. Heute unterstützt sie den britischen Roboter-Ingenieur Dr. Peter Scott-Morgan bei der Kommunikation. Im Jahr 2017 erhielt Dr. Peter Scott-Morgan die Diagnose einer motorischen Neuronenkrankheit (MND), auch bekannt als ALS oder Lou-Gehrig-Krankheit. MND greift das Gehirn und die Nerven an und lähmt schließlich alle Muskeln, einschließlich derjenigen, die das Atmen und Schlucken ermöglichen.
Dr. Peter Scott-Morgan sagte einmal: “Ich werde weiterentwickeln, als Mensch sterben, als Cyborg leben.”
Was hat Sie zur KI gezogen?
Ich bin immer von der Idee angezogen worden, dass Technologie der große Gleichmacher sein kann. Wenn sie verantwortungsvoll entwickelt wird, hat sie das Potenzial, das Spielfeld zu ebenen, soziale Ungerechtigkeiten anzugehen und das menschliche Potenzial zu verstärken. Nirgendwo ist dies wahrer als bei der KI. Während ein großer Teil der Branche die Beziehung zwischen der KI und den Menschen als adversativ darstellt, glaube ich, dass es einzigartige Dinge gibt, die Maschinen und Menschen gut können, also bevorzuge ich es, die Zukunft durch die Linse der Human-KI-Zusammenarbeit und nicht durch die Human-KI-Konkurrenz zu betrachten. Ich leite das Anticipatory Computing Lab bei Intel Labs, wo wir in all unseren Forschungsbemühungen einen einzigen Fokus auf die Lieferung von Computing-Innovationen haben, die für einen breiten gesellschaftlichen Einfluss skaliert werden. Angesichts der Tatsache, dass die KI bereits allgegenwärtig ist und ihre Fußabdrücke in jedem Aspekt unseres Lebens vergrößert, sehe ich ein enormes Versprechen in der Forschung, die mein Team durchführt, um die KI zugänglicher, kontextbewusster, verantwortungsvoller und letztendlich technische Lösungen auf breiter Ebene zu liefern, um Menschen in der realen Welt zu unterstützen.
Sie haben eng mit dem legendären Physiker Prof. Stephen Hawking zusammengearbeitet, um ein KI-System zu entwickeln, das ihm bei der Kommunikation und bei Aufgaben half, die die meisten von uns als Routine betrachten würden. Was waren einige dieser Routine-Aufgaben?
Die Arbeit mit Prof. Stephen Hawking war das bedeutendste und herausforderndste Unterfangen meines Lebens. Es hat meine Seele genährt und wirklich bewiesen, wie Technologie das Leben der Menschen tiefgreifend verbessern kann. Er litt an ALS, einer degenerativen neurologischen Krankheit, die dem Patienten über die Zeit die Fähigkeit nimmt, die einfachsten Aktivitäten auszuführen. Im Jahr 2011 begannen wir, mit ihm zu arbeiten, um zu erkunden, wie man das assistive Computersystem verbessern kann, das es ihm ermöglichte, mit der Welt zu interagieren. Neben der Verwendung seines Computers zum Sprechen mit Menschen nutzte Stephen seinen Computer wie wir alle, um Dokumente zu bearbeiten, im Internet zu surfen, Vorlesungen zu halten, E-Mails zu lesen und zu schreiben usw. Die Technologie ermöglichte es Stephen, weiterhin aktiv an der Welt teilzunehmen und sie für Jahre nach dem rapiden Abbau seiner körperlichen Fähigkeiten zu inspirieren. Das – für mich – ist der bedeutungsvolle Einfluss der Technologie auf das Leben eines Menschen!
Was sind einige der wichtigsten Erkenntnisse, die Sie aus der Arbeit mit Prof. Stephen Hawking gezogen haben?
Unser Computerschirm ist wirklich unsere Tür zur Welt. Wenn Menschen ihren PC steuern können, können sie alle Aspekte ihres Lebens steuern (Inhalte konsumieren, die digitale Welt zugänglich machen, ihre physische Umgebung steuern, ihr Rollstuhl steuern usw.). Für Menschen mit Behinderungen, die noch sprechen können, ermöglichen Fortschritte in der Spracherkennung es ihnen, ihre Geräte vollständig zu steuern (und in großem Umfang ihre physische Umgebung). Allerdings sind diejenigen, die nicht sprechen und sich nicht bewegen können, wirklich behindert, weil sie nicht viel Unabhängigkeit ausüben können. Was die Erfahrung mit Prof. Hawking mich gelehrt hat, ist, dass assistive Technologie-Plattformen auf die spezifischen Bedürfnisse des Benutzers zugeschnitten werden müssen. Zum Beispiel können wir nicht einfach annehmen, dass eine einzige Lösung für Menschen mit ALS funktionieren wird, weil die Krankheit unterschiedliche Fähigkeiten bei Patienten beeinträchtigt. Also benötigen wir Technologien, die leicht konfiguriert und an die Bedürfnisse des Einzelnen angepasst werden können. Deshalb haben wir ACAT (Assistive Context Aware Toolkit) entwickelt, eine modulare, Open-Source-Software-Plattform, die es Entwicklern ermöglicht, unterschiedliche Fähigkeiten darauf aufzubauen.
Ich habe auch gelernt, dass es wichtig ist, jedes Komfortniveau des Benutzers zu verstehen, wenn er die Kontrolle im Austausch für mehr Effizienz aufgibt (das ist nicht nur auf Menschen mit Behinderungen beschränkt). Zum Beispiel kann die KI möglicherweise mehr Kontrolle vom Benutzer übernehmen, um eine Aufgabe schneller oder effizienter auszuführen, aber jeder Benutzer hat ein anderes Risikoprofil. Einige sind bereit, mehr Kontrolle abzugeben, während andere Benutzer mehr davon behalten möchten. Das Verständnis dieser Schwellenwerte und wie weit Menschen gehen sind, hat einen großen Einfluss auf die Gestaltung dieser Systeme. Wir müssen das Systemdesign in Bezug auf das Komfortniveau des Benutzers und nicht nur auf objektive Maßstäbe für Effizienz und Genauigkeit überdenken.
In jüngerer Zeit haben Sie mit einem berühmten britischen Wissenschaftler Peter Scott Morgan zusammengearbeitet, der an einer motorischen Neuronenkrankheit leidet und das Ziel hat, der erste vollständige Cyborg der Welt zu werden. Was sind einige der ambitionierten Ziele, die Peter hat?
Eines der Probleme mit AAC (Assistive und Augmentative Kommunikation) ist die “Stille-Lücke”. Viele Menschen mit ALS (einschließlich Peter) verwenden Blicksteuerung, um Buchstaben / Wörter auf dem Bildschirm auszuwählen, um mit anderen zu sprechen. Dies führt zu einer langen Stille, nachdem jemand seinen Satz beendet hat, während die Person auf ihren Computer starrt und beginnt, Buchstaben und Wörter zu formulieren, um zu antworten. Peter wollte diese Stille-Lücke so weit wie möglich reduzieren, um die verbale Spontanität wieder in die Kommunikation zu bringen. Er möchte auch seine Stimme und Persönlichkeit bewahren und ein Text-to-Speech-System verwenden, das seinen einzigartigen Kommunikationsstil ausdrückt (z. B. seine Scherze, seine schnelle Wortwitze, seine Emotionen).

Der britische Roboter-Ingenieur Dr. Peter Scott-Morgan, der an einer motorischen Neuronenkrankheit leidet, begann 2019, eine Reihe von Operationen zu unterziehen, um sein Leben mit Technologie zu verlängern. (Credit: Cardiff Productions)
Können Sie einige der Technologien besprechen, die derzeit verwendet werden, um Dr. Peter Scott-Morgan zu unterstützen?
Peter verwendet ACAT (Assistive Context Aware Toolkit), die Plattform, die wir während unserer Arbeit mit Dr. Hawking entwickelt und später als Open Source veröffentlicht haben. Im Gegensatz zu Dr. Hawking, der die Muskeln in seiner Wange als “Eingabe-Auslöser” verwendet, um die Buchstaben auf seinem Bildschirm zu steuern, verwendet Peter Blicksteuerung (eine Fähigkeit, die wir der bestehenden ACAT hinzugefügt haben), um mit seinem PC zu sprechen und zu steuern, der eine Schnittstelle zu einer Text-to-Speech-Lösung (TTS) von einem Unternehmen namens CereProc hat, die für ihn angepasst wurde und es ihm ermöglicht, unterschiedliche Emotionen / Betonungen auszudrücken. Das System steuert auch ein Avatar, der für ihn angepasst wurde.
Wir arbeiten derzeit an einem Antwort-Generierungssystem für ACAT, das es Peter ermöglichen kann, mit dem System auf höherer Ebene unter Verwendung von KI-Fähigkeiten zu interagieren. Dieses System wird Peters Gespräche über die Zeit hinweg anhören und Antworten vorschlagen, die Peter auf dem Bildschirm auswählen kann. Das Ziel ist, dass das KI-System über die Zeit aus Peters Daten lernt und es ihm ermöglicht, das System mit nur einigen Schlüsselwörtern zu “stoßen” (ähnlich wie Suchen im Internet heute), um die besten Antworten zu erhalten. Unser Ziel mit dem Antwort-Generierungssystem ist es, die Stille-Lücke in der Kommunikation zu reduzieren und Peter und zukünftige Benutzer von ACAT zu befähigen, auf eine Weise zu kommunizieren, die sich natürlicher anfühlt.
Sie haben auch über die Bedeutung von Transparenz in der KI gesprochen, wie groß ist dieses Problem?
Es ist ein großes Problem, insbesondere wenn es in Entscheidungssystemen oder humanen KI-Zusammenarbeits-Systemen eingesetzt wird. Zum Beispiel müssen wir in Peters assistivem System verstehen, was die Empfehlungen des Systems verursacht und wie wir das Lernen dieses Systems beeinflussen können, um seine Ideen genauer auszudrücken.
Im größeren Kontext von Entscheidungssystemen, ob es dabei hilft, auf der Grundlage von medizinischen Bildern zu diagnostizieren oder Empfehlungen für die Gewährung von Krediten zu geben, müssen KI-Systeme menschlich interpretierbare Informationen darüber liefern, wie sie zu diesen Entscheidungen gekommen sind, welche Attribute oder Merkmale am meisten Auswirkungen auf diese Entscheidung hatten, wie viel Vertrauen das System in die Inferenz hat usw. Dies erhöht das Vertrauen in die KI-Systeme und ermöglicht eine bessere Zusammenarbeit zwischen Menschen und KI in gemischten Entscheidungsszenarien.
Ein spezifischer Aspekt von KI-Voreingenommenheit, insbesondere im Hinblick auf Rassismus und Sexismus, ist ein enormes Problem, aber wie identifizieren Sie andere Arten von Voreingenommenheit, wenn Sie keine Ahnung haben, wonach Sie suchen?
Es ist ein sehr hartes Problem und kann nicht allein mit Technologie gelöst werden. Wir müssen mehr Vielfalt in die Entwicklung von KI-Systemen bringen (rassisch, geschlechtlich, kulturell, körperlich usw.). Dies ist offensichtlich eine enorme Lücke in der Bevölkerung, die diese KI-Systeme heute baut. Zusätzlich ist es entscheidend, multidisziplinäre Teams in die Definition und Entwicklung dieser Systeme einzubinden, Sozialwissenschaften, Philosophie, Psychologie, Ethik und Politik an den Tisch zu bringen (nicht nur Informatik) und sich in den Untersuchungsprozess im Kontext der spezifischen Projekte und Probleme zu engagieren.
Sie haben zuvor über die Verwendung von KI zur Verstärkung des menschlichen Potenzials gesprochen, welche Bereiche zeigen das größte Versprechen für diese Verstärkung des menschlichen Potenzials?
Ein offensichtlicher Bereich ist die Ermöglichung von Menschen mit Behinderungen, unabhängiger zu leben, mit geliebten Menschen zu kommunizieren und weiterhin zur Gesellschaft beizutragen. Ich sehe ein großes Potenzial in der Bildung, im Verständnis der Schülerbeteiligung und in der Personalisierung des Lernerlebnisses auf die individuellen Bedürfnisse und Fähigkeiten des Schülers, um die Beteiligung zu verbessern, Lehrer mit diesem Wissen zu befähigen und die Lernergebnisse zu verbessern. Die Ungleichheit in der Bildung heute ist so tiefgreifend und es gibt einen Platz für die KI, um einige dieser Ungleichheiten zu reduzieren, wenn wir es richtig machen. Es gibt endlose Möglichkeiten für die KI, um viel Wert zu bringen, indem sie human-KI-Zusammenarbeits-Systeme in so vielen Sektoren (Gesundheitswesen, Fertigung usw.) schafft, weil das, was Menschen und KI auf den Tisch bringen, sehr komplementär ist. Damit dies geschehen kann, benötigen wir Innovationen an der Schnittstelle von Sozialwissenschaften, HCI und KI. Robuste multimodale Wahrnehmung, Kontextbewusstsein, Lernen aus begrenzten Daten, physisch situierte HCI und Interpretierbarkeit sind einige der Schlüsselherausforderungen, die wir angehen müssen, um diese Vision zu verwirklichen.
Sie haben auch darüber gesprochen, wie wichtig die Emotions-Erkennung für die Zukunft der KI ist, warum sollte die KI-Industrie sich mehr auf diesen Forschungsbereich konzentrieren?
Die Emotions-Erkennung ist eine Schlüssel-Fähigkeit von humanen KI-Systemen aus mehreren Gründen. Ein Aspekt ist, dass menschliche Emotionen einen Schlüsselkontext für jedes proaktives System bieten, um zu verstehen, bevor es handeln kann.
Wichtiger ist, dass diese Arten von Systemen weiterhin im wilden lernen und sich anhand von Interaktionen mit Benutzern anpassen müssen, und während direktes Feedback ein wichtiger Signal für das Lernen ist, sind indirekte Signale sehr wichtig und sie sind kostenlos (weniger Arbeit für den Benutzer). Zum Beispiel kann ein digitaler Assistent viel aus der Frustration in der Stimme eines Benutzers lernen und dies als Feedback-Signal für das Lernen verwenden, was in Zukunft zu tun ist, anstatt den Benutzer jedes Mal nach Feedback zu fragen. Diese Informationen können für aktives Lernen von KI-Systemen verwendet werden, um sich über die Zeit hinweg zu verbessern.
Gibt es noch etwas, das Sie über Ihre Arbeit im Anticipatory Computing Lab oder andere Themen, die wir besprochen haben, teilen möchten?
Wenn wir assistive Systeme aufbauen, müssen wir wirklich darüber nachdenken, wie wir diese Systeme verantwortungsvoll aufbauen und wie wir es den Menschen ermöglichen, zu verstehen, welche Informationen gesammelt werden und wie sie diese Systeme auf praktische Weise steuern können. Als KI-Forscher sind wir oft von Daten fasziniert und wollen so viele Daten wie möglich haben, um diese Systeme zu verbessern, aber es gibt einen Kompromiss zwischen der Art und der Menge der Daten, die wir haben möchten, und der Privatsphäre des Benutzers. Wir müssen wirklich die Daten beschränken, die wir sammeln, auf das, was absolut notwendig ist, um die Inferenzaufgabe auszuführen, den Benutzern bewusst machen, welche Daten wir sammeln, und sie in der Lage versetzen, diesen Kompromiss auf sinnvolle und nutzbare Weise zu justieren.
Vielen Dank für das fantastische Interview, Leser, die mehr über dieses Projekt erfahren möchten, sollten den Artikel Intel’s Lama Nachman und Peter Scott-Morgan: Zwei Wissenschaftler, einer ein ‘menschlicher Cyborg’ lesen.

Intels Anticipatory Computing Lab-Team, das das Assistive Context-Aware Toolkit entwickelt hat, besteht aus (von links) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman und Pete Denman. Nicht abgebildet sind Bruna Girvent, Saurav Sahay und Shachi Kumar. (Credit: Lama Nachman)












