Connect with us

Afshin Mehin, Gründer von Card79 – Interviewreihe

Interviews

Afshin Mehin, Gründer von Card79 – Interviewreihe

mm

Afshin Mehin ist der Gründer von Card79 (früher bekannt als WOKE), einem kreativen Studio, das sich auf Produkt-Erfahrungen spezialisiert hat, die die Grenzen zwischen unserem digitalen und physischen Leben verwischen. Card79 hatte das Privileg, mit Elon Musk zusammenzuarbeiten, um Neuralink zu entwerfen – das erste Gehirn- Wearable-Gerät der Welt. Das Studio entwarf den Link, der Teil des Systems war, das eine Person täglich tragen würde.

Sie haben Ihre Studien als Ingenieur begonnen, wie haben Sie Ihre Karriere in Richtung Design für zukünftige Technologien verändert?

Design war immer auf meinem Radar. Als Teenager entdeckte ich das Feld des Industriedesigns als mögliche Karriere und dachte, es könnte eine gute Passung für mich sein, da ich neue Produkte und Lösungen für alltägliche Probleme liebte. Aber wie es bei vielen ersten Generationen von Einwandererfamilien der Fall ist, war Design kein vertrauter Karriereweg. Also machte ich das nächstbeste und absolvierte meinen Bachelor-Abschluss in Maschinenbau an der University of British Columbia in Vancouver. Diese Ausbildung erwies sich als eine der besten Dinge, die ich je getan habe, da sie mir ein Verständnis für die harten Probleme vermittelte, die gelöst werden müssen, um neue technische Fortschritte in die Welt zu bringen. Nachdem ich meine Ingenieurstudien abgeschlossen hatte, konzentrierte ich mich wieder auf meine Leidenschaft für Design und begann, weiterführende Ausbildungen in Human-Computer-Interaction und Industriedesign zu absolvieren, wobei ich einen Teil von mir hatte, der mehr an der menschlichen Erfahrung dieser Technologie interessiert war, und einen Master an der Royal College of Art in London und ein Praktikum am M.I.T. Media Lab Europe in Dublin absolvierte. Nachdem meine Ausbildung abgeschlossen war, zog ich nach San Francisco und begann, für verschiedene Design-Unternehmen wie IDEO und Whipsaw zu arbeiten.

Sie wurden 2019 von dem Team bei Neuralink angesprochen, um ein Design für ihre Brain-Computer-Schnittstelle vorzustellen, können Sie diese erste Zusammenarbeit besprechen?

Wir erhielten einen Anruf vom Präsidenten von Neuralink. Wir hatten zuvor bereits an Kopf-getragenen Wearables gearbeitet, also waren wir mit den Herausforderungen vertraut, etwas zu entwerfen, das auf dem Kopf getragen werden konnte. Was wir nicht erwartet hatten, war, dass wir auch etwas entwerfen würden, das in den Kopf eingeführt werden würde. Dies war das erste Mal, dass wir an einem Projekt gearbeitet hatten, bei dem wir uns in einem Raum mit einem Elektroingenieur, Maschinenbauingenieuren und Neurochirurgen befanden, die uns erklären konnten, wie man mit dem Gehirn operiert und kommuniziert. Wir arbeiteten nicht nur daran, die Form zu definieren – etwas Diskretes, um unerwünschte Aufmerksamkeit zu vermeiden – sondern diskutierten auch mögliche Orte des Wearables und des Implantats mit dem Neuralink-Team. Wir entwarfen schließlich ein Wearable-Gerät, das hinter dem Ohr getragen werden würde und Daten und Energie an einen drahtlosen Empfänger übertragen würde, der unter der Kopfhaut hinter dem Ohr implantiert werden würde. Das Wearable wurde so entworfen, dass es leicht ausgetauscht werden konnte, da die Batterielebensdauer für die erste Generation auf nicht mehr als ein paar Stunden geschätzt wurde. Unser zweites Engagement bestand darin, die äußere Gehäusekonstruktion (das Industriedesign) für den chirurgischen Roboter zu entwickeln, der es für klinische Studien bereit machen würde. Nach diesen beiden Engagements war unsere Neugier auf das Potenzial der Benutzeroberfläche eines BCI geweckt. Die Idee, unsere Gedanken zu verwenden, um Dinge zu kontrollieren, war ein so neues und aufregendes Konzept, dass wir es weiter erforschen wollten.

Was sind die verschiedenen Komponenten von Neuralink, die von Card79 entworfen wurden?

In unserem Kern sind wir ein Design-Studio, und unsere Expertise und unser Wert liegen darin, zu verstehen, wie man ein wünschenswertes und ansprechendes Produkt erstellt. Dies kann manchmal durch die Verbesserung des visuellen Aussehens erreicht werden, manchmal durch die Erleichterung der Bedienung und manchmal durch die Ermöglichung weiterer Fähigkeiten. Mit unserer Arbeit für Neuralink kamen wir, um bei zwei der Hauptgeräte zu helfen, dem ersten Link-Wearable und dem R1-Neuralink-Chirurgen-Roboter. Unser Beitrag zu beiden Projekten bestand darin, zu verstehen, wie man das Produkt so gut wie möglich an den menschlichen Kontext anpassen kann. Für den Link war es wichtig, Probleme rund um die Ergonomie zu lösen, um sicherzustellen, dass das Gerät auf verschiedenen Köpfen passte und bequem und diskret zu tragen war. Für den R1-Roboter war es entscheidend, dass der Roboter leicht in einem Operationssaal zu warten war und für das Personal und die Chirurgen sicher zu bedienen war.

Können Sie die Herangehensweise an die Gestaltung einer Benutzeroberfläche für eine Brain-Computer-Schnittstelle beschreiben?

Es gibt zwei Benutzeroberflächen, die wichtig zu berücksichtigen sind. Zunächst gibt es die physische Benutzeroberfläche – wie leicht die Technologie zu warten, aufladen und upgraden ist, als Ergänzung unseres Körpers.

Dann gibt es die digitale Benutzeroberfläche, und wir unterteilen sie in zwei verschiedene Lager.

Das erste Lager ist die UX, die durch den aktuellen Stand der Technik bestimmt wird. Dies beinhaltet das Verständnis der technischen Fähigkeiten der Sensortechnologie, der Modellierung, der Variation in der Neuroanatomie und Psychologie, die die Robustheit der BCI-Erfahrung beeinflusst, und der beabsichtigten Funktion oder des Anwendungsfalls, der angegangen werden soll. Je nachdem, ob die UX für Forschungszwecke oder für ein ausgeliefertes Produkt bestimmt ist, verschieben sich die Prioritäten. Auch wenn es sich um eine invasive BCI handelt, wird das Level der Komplexität der Chirurgie und der Zugang zu diesen Patienten schwieriger, um Benutzer-Tests durchzuführen, um die vorgeschlagene UX zu validieren.

Das zweite Lager der Gestaltung von Benutzeroberflächen ist für BCI’s, die technisch noch nicht möglich sind, aber enorme gesellschaftliche Auswirkungen haben könnten, wenn sie erreicht werden. Wir versuchen, der Wissenschaft zu folgen, bis zu dem Punkt, an dem wir sind, und dann beginnen, fundierte Vermutungen über möglicherweise erstaunliche oder katastrophale Anwendungen zu machen, die entstehen könnten, wenn das Szenario einer hohen Geschwindigkeit und hohen Bandbreite eintreten würde. Wir hoffen, dass wir, indem wir weiter an diesen zukünftigen UX-Szenarien arbeiten, mit Designvorschlägen ausgestattet sein werden, wenn und wenn diese Zukunft eintritt.

Was sind einige der technischen Herausforderungen beim Designen für eine Brain-Computer-Schnittstelle?

Es gibt viele Herausforderungen. Das Erhalten eines guten Signals ist eines der schwierigsten Dinge. Um ein gutes Signal-Rausch-Verhältnis zu erhalten, muss man invasiv mit den Sensortechnologien vorgehen. Es gibt viele großartige nicht-invasive Technologien, die sicherer und weniger riskant sind, aber unter demselben Mangel an Qualitätssignal leiden. Ohne ein gutes Signal ist es, als ob man mit Alexa durch ein dumpfes Mikrofon spricht oder versucht, eine Maus mit einem defekten Laser zu benutzen, der springt, wenn man versucht, sie zu benutzen, es liest einfach nicht auf dem Level der Detailgenauigkeit, das man möchte.

Die andere Herausforderung aus der Sicht der UX ist die neuroanatomische und psychologische Variation über die Zeit innerhalb eines Individuums und zwischen Individuen. Das bedeutet im Grunde, dass jeder Benutzer oder ein neuer Benutzer, der ein BCI verwenden möchte, durch eine Kalibriersitzung gehen muss, die oft frustrierend und demotivierend für Benutzer ist. Es gibt UX-Möglichkeiten, den Kalibrierprozess zu vereinfachen und zu straffen, aber die langfristige Hoffnung ist, dass die Häufigkeit, mit der ein System kalibriert werden muss, reduziert werden kann.

Außerdem ist bei BCI-Systemen, die durch die intentionale motorische Vorstellung (MI) der Benutzer gesteuert werden, die Art und Weise, wie man einen Benutzer auffordert, sich die motorische Bewegung vorzustellen, von Bedeutung, um die Fähigkeit des maschinellen Lernmodells zu beeinflussen, die beabsichtigte Bewegung effektiv zu entschlüsseln. Eine großartige Forschung, die 2021 von Frank Willets et al. veröffentlicht wurde, forderte gelähmte Patienten auf, sich vorzustellen, sie würden handschriftlich schreiben (im Gegensatz zu einem Cursor oder Tasten auf einer Tastatur zu bewegen). Diese Eingabemethode konnte andere zuvor getestete Methoden überbieten, teilweise weil die Aufgabe des handschriftlichen Schreibens eine einfache Aufgabe für die Benutzer war und teilweise weil das ML-Modell zwischen verschiedenen handschriftlichen Zeichen effektiv unterscheiden konnte – sehr ähnlich wie bei der Einführung der “Graffiti”-Schreibsprache von Palm Pilot in den frühen 2000er Jahren.

Können Sie beschreiben, wie Brain-Computer-Schnittstellen in der Lage sein werden, visuelle oder andere Denkmodi außerhalb der einfachen Wörter zu verwenden?

Als UX-Designer, die in diesem schnelllebigen Bereich arbeiten, versuchen wir, der Wissenschaft genau zu folgen, um zu sehen, wohin sie uns führt. Wenn wir einige unserer zukünftigen Szenarien entworfen haben, haben wir versucht, auf Forschung zu vertrauen, die sowohl kurz- als auch langfristig ist. Im Nahbereich gab es viele Fortschritte bei der Entwicklung von BCI’s, die die intentionale motorische Vorstellung nutzen, bei der sich jemand vorstellt, er würde ein Objekt bewegen, um eine Form der Technologie zu manipulieren. Diese Modalität ermöglicht die direkte Manipulation von Objekten mit Gedanken.

Auf einer ambitionierteren Ebene ist die Fähigkeit, Stimme und Wörter zu kontrollieren, die ein Objekt symbolisieren, ein Level der Kontrolle, das fortgeschrittener ist. Diese Forschung kam aus dem Labor von Edward Chang an der UCSF und begann, viele der Arten von Interaktionen zu inspirieren, die wir uns vorstellten, ob es sich um eine Person handelte, die ihrem AI-Assistenten etwas durch ihre Gedanken sagen konnte oder zwei Personen, die miteinander durch ihre Gedanken sprechen konnten.

Das visuelle Kortex-System ist ein fortgeschritteneres System als Stimme oder Bewegung. Frühe Forschung zeigt, dass es eine hohe Konsistenz in der Art und Weise gibt, wie das visuelle Kortex-System zwischen Individuen funktioniert. Ein Paper, das 2004 veröffentlicht wurde, zeigt, dass, wenn Forscher demselben visuellen Input zeigten, es eine “überraschende” Level-an- Level-Synchronisation zwischen den Individuen gab. Es gab auch ein anderes Projekt, das von Forschern an der Universität von Kyoto veröffentlicht wurde, bei dem Forscher herausfanden, dass die Aktivität in den höheren Hirnregionen den Inhalt der Träume der Teilnehmer genau vorhersagen konnte. Die Unterstützung visueller Denkweisen hat ein enormes Potenzial, um Menschen zu ermöglichen, ihre Vorstellungskraft zu erweitern.

Am Ende des Tages wird viel davon abhängen, welche dieser neuen Eingaben erfolgreich sind, je nachdem, wie leicht sie zu erlernen sind, wie robust sie funktionieren und wie sehr sie den Endbenutzer profitieren lassen, sei es, indem sie es Menschen ermöglichen, Dinge zu tun, die sie zuvor nicht tun konnten, oder Dinge schneller zu tun, als sie es je zuvor tun konnten.

Können Sie diskutieren, wie Brain-Computer-Schnittstellen in der Lage sein werden, den emotionalen Zustand einer Person zu verstehen?

Emotionen können derzeit mit EEG’s auf makroskopischer Ebene erfasst und in die großen emotionalen Kategorien wie Wut, Traurigkeit, Glück, Ekel und Angst eingeteilt werden. Es gibt zwei Wege, auf denen wir den emotionalen Zustand einer Person in zukünftigen BCI’s sehen könnten. Sie könnten zunächst tatsächliche Funktionen inspirieren, wie eine Meditations-App oder einen Therapeuten über die emotionale Geschichte seines Klienten seit seinem letzten Termin informieren. Alternativ, da diese Informationen makroskopischer und qualitativ sind als andere BCI-Steuerungen, die Bewegung, Sprache oder visuelle Elemente erfassen, würde es Sinn machen, diese Daten zu verwenden, um die “Farbe” einer Oberfläche zu ändern, ein bestimmtes BCI so anzupassen, dass es den emotionalen Zustand der Person berücksichtigt, ähnlich wie “Night Mode” die Helligkeit eines Bildschirms je nach Tageszeit anpassen kann.

Was sind einige der Anwendungsfälle für Brain-Computer-Schnittstellen, die Sie am meisten begeistern?

Ich bin vor allem fasziniert, mehr über die Funktionsweise des Gehirns zu erfahren. Es scheint, als ob wir viele Anstrengungen unternehmen, um die inneren Abläufe des Gehirns zu verstehen, aber kein holistisches Modell haben. Deshalb ist es so aufregend, UX-Prinzipien auf dieses Thema anzuwenden! Was daraus entsteht, wird idealerweise etwas sein, das tatsächlich eine hohe Bandbreite und hohe Geschwindigkeit bieten wird, die das Leben der Menschen verbessert. Die Idee, das zu beschleunigen, was wir als Spezies tun, klingt unglaublich und ist der Grund, warum ich mich so sehr für dieses Thema begeistere. Auf der anderen Seite ist es beunruhigend, unsere Menschlichkeit und Unabhängigkeit herausgefordert zu sehen, und es muss mit äußerster Vorsicht angegangen werden.

Was ist Ihre Vision für die Zukunft von Brain-Computer-Schnittstellen?

Eine, in der Menschen von der Technologie profitieren, sie kontrollieren, aber gleichzeitig in der Lage sind, mit anderen und Informationen auf Weise zu verbinden, die wir derzeit nicht vorstellen können. Die Idee, vernetzt zu sein, auf eine Weise, die unsere Menschlichkeit in den Vordergrund stellt. Eines der Risiken, von denen wir uns alle bewusst sind, ist, dass wir befürchten, unsere Gedanken werden nicht mehr privat sein oder wir werden alle zu Zombies mit Gedankenkontrolle. Mit der Art und Weise, wie Web 2.0 die Privatsphäre der Menschen kompromittieren musste, um sich selbst zu erhalten, ist es kein Wunder, dass die Menschen skeptisch sind! Trotz der Tatsache, dass die Wissenschaft sehr weit entfernt ist von der Realisierung dieser Realität, möchte ich eine aktive Rolle dabei spielen, sicherzustellen, dass es nie in diese Richtung geht. Da es so viele Interessengruppen gibt, von Regierungen bis hin zu Venture-Capitalisten, gibt es keine Garantie, dass es nicht in eine dunkle Richtung geht. Deshalb ist es als UX-Designer so wichtig, frühzeitig einzusteigen und einige Stakes in den Boden zu setzen, um das zu definieren, was im besten Interesse der Menschen ist, die tatsächlich diese Technologie verwenden werden.

Vielen Dank für das großartige Interview, Leser, die mehr erfahren möchten, sollten Card79 oder Neuralink besuchen.

Antoine ist ein visionärer Führer und Gründungspartner von Unite.AI, getrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Ein Serienunternehmer, glaubt er, dass KI so disruptiv für die Gesellschaft sein wird wie Elektrizität, und wird oft dabei ertappt, wie er über das Potenzial disruptiver Technologien und AGI schwärmt.

Als futurist ist er darauf fokussiert, zu erforschen, wie diese Innovationen unsere Welt formen werden. Zusätzlich ist er der Gründer von Securities.io, einer Plattform, die sich auf Investitionen in hochmoderne Technologien konzentriert, die die Zukunft neu definieren und ganze Branchen umgestalten.