Интервью
Афшин Мехин, основатель Card79 – Серия интервью

Афшин Мехин является основателем Card79 (ранее известной как WOKE), креативной студии, специализирующейся на продуктах, которые стирают границы между нашей цифровой и физической жизнью. Card79 имела привилегию сотрудничать с Илоном Маском для разработки Neuralink – первого в мире носимого устройства для мозга. Студия разработала Link, который был частью системы, которую человек мог носить ежедневно.
Вы начали свое обучение как инженер, как вы сменили карьеру на дизайн для будущих технологий?
Дизайн всегда был на моем радаре. В подростковом возрасте я открыл для себя область промышленного дизайна как возможную карьеру и подумал, что это может быть хорошим вариантом для меня, поскольку я любил создавать новые продукты и решения для повседневных проблем. Но, как и в случае с многими семьями иммигрантов первого поколения, дизайн не был熟ым карьерным путем. Поэтому я сделал следующее лучшее, что мог, и завершил свое бакалаврское образование в области механической инженерии в Университете Британской Колумбии в Ванкувере. Это образование оказалось одним из лучших, что я сделал, поскольку оно дало мне понимание сложных проблем, которые необходимо решить для того, чтобы новые технические достижения были введены в мир. После завершения моего инженерного образования, я переориентировался на свою страсть к дизайну и начал получать дальнейшее образование в области взаимодействия человека и компьютера и промышленного дизайна, взяв сторону меня, которая была более интересна человеческому опыту этой технологии, завершив магистратуру в Королевском колледже искусств в Лондоне и стажировку в M.I.T. Media Lab Europe в Дублине. После завершения моего образования, я переехал в Сан-Франциско и начал работать в разных дизайнерских компаниях, таких как IDEO и Whipsaw.
Вас подошла команда Neuralink в 2019 году, чтобы представить дизайн их интерфейса мозг-машина, можете ли вы обсудить это первоначальное взаимодействие?
Мы получили звонок от президента Neuralink. Мы работали над носимыми устройствами раньше, поэтому мы были комфортны с проблемами разработки чего-то, что можно носить на голове. То, чего мы не ожидали, было то, что мы также будем разрабатывать что-то, что будет находиться внутри головы. Это был первый раз, когда мы работали над проектом, где мы сидели в комнате с электрическим инженером, механическими инженерами и нейрохирургами и нейроинженерами, которые могли объяснить, как работать и взаимодействовать с мозгом. Мы не только работали над определением форм-фактора – чего-то дискретного, чтобы не привлекать нежелательное внимание – но также обсуждали возможные места носимого и имплантируемого устройства с командой Neuralink. Мы в конечном итоге разработали носимое устройство, которое будет носиться за ухом и будет передавать данные и питание беспроводному приемнику, который будет имплантирован под кожу за ухом. Носимое устройство было разработано так, чтобы его можно было легко заменить, поскольку срок службы батареи для первого поколения был оценен не более чем в несколько часов. Наше второе взаимодействие было помочь разработать внешний дизайн (промышленный дизайн) для хирургического робота, который будет готов к использованию в клинических испытаниях. После этих двух взаимодействий, наше любопытство было разбужено вокруг того, какой может быть потенциальный пользовательский опыт интерфейса мозг-машина. Идея использования наших мыслей для управления вещами была такой новой и интересной концепцией, что мы хотели изучить ее дальше.
Какие разные компоненты Neuralink, разработанные Card79?
В своей основе, мы являемся дизайнерской студией, и наша экспертиза и ценность заключаются в понимании того, как создать желаемый и привлекательный продукт. Это иногда достигается путем того, что продукт становится более визуально привлекательным, в других случаях это делается путем того, что продукт становится проще в использовании, и в других случаях это делается путем раскрытия большего количества возможностей. С нашей работой для Neuralink, мы пришли, чтобы помочь с двумя основными устройствами, носимым устройством Link первого поколения, а также хирургическим роботом R1 Neuralink. Наш вклад в оба проекта заключался в том, чтобы понять, как сделать продукт как можно более подходящим для его человеческого контекста. Для Link было важно решить проблемы вокруг эргономики, чтобы обеспечить, что устройство подходит разным людям и было комфортным и дискретным в ношении. Для робота R1 было важно, чтобы робот был способен быть легко обслуживаемым в операционной и был безопасен для персонала и хирургов.
Можете ли вы описать подход к разработке пользовательского опыта для интерфейса мозг-компьютер?
Есть два пользовательских опыта, которые будут важны для рассмотрения. Во-первых, есть физический пользовательский опыт – как легко технологию можно обслуживать, заряжать, обновлять как дополнение к нашим телам.
Затем есть цифровой пользовательский опыт, и мы разделяем его на два разных лагеря.
Первый лагерь – это UX, который обусловлен текущим состоянием искусства. Это включает в себя понимание технических возможностей технологии сенсорного восприятия, обучения моделей, вариации нейроанатомии и психологии, которые влияют на надежность опыта интерфейса мозг-машина и предполагаемой функции или использования, которое должно быть решено. В зависимости от того, является ли UX для исследовательских целей или для отправляемого продукта, приоритеты будут смещаться. Также, если это инвазивный интерфейс мозг-машина, уровень сложности хирургии и доступа к этим пациентам становится более сложным для проведения пользовательского тестирования для проверки предложенного UX.
Второй лагерь разработки пользовательского опыта – для интерфейсов мозг-машина, которые еще не технически возможны, но могут иметь огромные социальные последствия, если они будут достигнуты. Мы пытаемся следовать науке до того места, где она нас ведет. Затем мы начинаем делать обоснованные предположения вокруг того, что кажется потенциально удивительным или катастрофическим применения, которые могут возникнуть, если будущий сценарий высокоскоростного/высокополосного взаимодействия станет реальностью. Мы надеемся, что, продолжая работать над этими будущими сценариями UX, мы будем вооружены дизайнерскими предложениями, если и когда это будущее наступит.
Какие технические проблемы стоят за разработкой интерфейса мозг-машина?
Итак, есть много проблем. Получение хорошего сигнала – одна из самых сложных вещей. Чтобы получить действительно низкий сигнал к шуму, необходимо стать инвазивным с помощью технологий сенсорного восприятия. Есть много отличных неинвазивных технологий, которые являются более безопасными и менее рискованными для использования, но они страдают от отсутствия качественного сигнала. Без хорошего сигнала это как говорить с Алексой через затененный микрофон или попытка использовать мышь с сломанным лазером, который прыгает случайно, когда вы пытаетесь использовать его, это просто не читает вас на уровне детализации, который вы хотите.
Другая проблема с точки зрения UX заключается в нейроанатомической и психологической вариации во времени внутри одного человека и между людьми. Это означает, что каждый раз, когда один и тот же пользователь или новый пользователь хочет начать использовать интерфейс мозг-машина, он должен пройти сеанс калибровки, который сам по себе часто раздражает и демотивирует пользователей. Есть возможности UX упростить и оптимизировать процесс калибровки, но долгосрочная надежда заключается в том, что количество и частота необходимости калибровки системы может быть уменьшена.
Также с системами интерфейса мозг-машина, обусловленными намеренной моторной фантазией (MI) пользователя, способ, которым вы можете побудить пользователя представить моторное движение, может повлиять на способность модели машинного обучения эффективно расшифровать предполагаемое движение. Отличные исследования, опубликованные в 2021 году Фрэнком Уиллетсом и др., побуждали пациентов с параличом представить, что они пишут от руки (в отличие от перемещения курсора или нажатия клавиш на клавиатуре). Этот метод ввода смог превзойти другие ранее протестированные методы частично потому, что задача письма от руки была легкой для пользователей, и частично потому, что ML мог эффективно различать разные рукописные символы – очень похоже на то, как Palm Pilot впервые представил свой язык “граффити” в начале 2000-х годов.
Можете ли вы описать, как интерфейсы мозг-машина смогут использовать визуальные или другие типы мысленных модальностей вне простого мышления в словах?
Как дизайнеры UX, работающие в этой быстро развивающейся области, мы пытаемся следовать науке близко, чтобы увидеть, куда она нас ведет. Когда мы представили некоторые из наших будущих сценариев, мы попытались опираться на исследования, которые являются как ближайшими, так и долгосрочными. В ближайшем будущем было много прогресса в разработке интерфейсов мозг-машина, которые используют намеренную моторную фантазию, когда кто-то представляет, что он двигает объект, чтобы манипулировать некоторой формой технологии. Этот модус позволяет直接 манипулировать объектами с помощью мыслей.
На более амбициозном уровне способность контролировать голос и создавать слова, которые символизируют объект, является еще одним уровнем контроля. Это исследование вышло из лаборатории Эдварда Чанга в UCSF и начало вдохновлять многие из типов взаимодействий, которые мы представляли, будь то человек, который может спросить своего помощника ИИ что-то через свои мысли или два человека, которые могут общаться друг с другом через свои мысли.
Визуальная кора – это более сложная система, чем голос или движение. Ранние исследования показывают, что существует высокий уровень согласованности в том, как визуальная кора функционирует между людьми. Одна работа, опубликованная в 2004 году, показывает, что когда исследователи показывают один и тот же визуальный вход разным людям, существует “поразительный уровень синхронизации вокселя к вокселю между людьми”. Также было другое исследование, опубликованное исследователями в Университете Киото, где исследователи обнаружили, что активность в более высоких порядковых мозговых регионах могла точно предсказать содержание снов участников. Поддержка визуального мышления имеет огромный потенциал, позволяя людям расширить свою силу воображения.
В конце концов, многое из этого будет зависеть от того, какие из этих новых входов преуспеют, будут зависеть от того, насколько легко они могут быть выучены, насколько они надежно работают и насколько они приносят пользу конечному пользователю, будь то позволяя людям делать вещи, которые они не могли делать раньше, или делать вещи быстрее, чем они могли их делать раньше.
Можете ли вы обсудить, как интерфейсы мозг-машина смогут понять эмоциональное состояние человека?
Эмоции могут быть в настоящее время захвачены с помощью ЭЭГ на макроскопическом уровне и категоризированы в большие эмоциональные категории, такие как гнев, печаль, счастье, отвращение и страх. Есть два способа, которыми мы можем видеть эмоциональное состояние человека, влияющее на будущие интерфейсы мозг-машина. Они могут, во-первых, вдохновить фактические функции, информируя приложение для медитации или информируя терапевта об эмоциональной истории клиента с момента последней встречи. Альтернативно, поскольку эта информация более макроскопична и качественна, чем другие управления интерфейса мозг-машина, захватывающие движение, язык или визуальные данные, это будет иметь смысл использовать эти данные для изменения “флера” интерфейса, корректируя конкретный интерфейс мозг-машина с учетом эмоций человека, подобно тому, как “Ночной режим” может корректировать яркость экрана в зависимости от времени суток.
Какие из случаев использования интерфейсов мозг-машина больше всего вдохновляют вас?
Я, прежде всего, увлечен возможностью узнать больше о том, как работает мозг. Это кажется, что у нас есть много разных усилий, чтобы попытаться понять внутреннюю работу мозга, но нет целостной модели. Это почему применение принципов UX к этой теме так интересно для меня! То, что получится из этого, идеально будет чем-то, что действительно будет высокоскоростным/высокополосным UX, улучшающим жизнь людей. Идея ускорения того, что мы делаем как вид, звучит удивительно, и это то, что действительно вдохновляет меня на эту тему. С другой стороны, наличие нашей человечности и независимости, поставленных под угрозу, является ужасающим и требует быть подходом с наибольшим бдительностью.
Каково ваше видение будущего интерфейсов мозг-машина?
Одно, где люди получают пользу от технологии, контролируют ее, но в то же время могут соединиться с другими и информацией способами, которые мы сейчас не можем представить. Идея быть сетевым в том смысле, что наша человечность стоит на первом месте. Одним из рисков, о которых мы все осведомлены, является то, что мы боимся, что наши мысли больше не будут приватными, или мы все станем ходячими зомби с контролем над разумом. С учетом того, что веб 2.0 должен был идти на компромисс с приватностью людей, чтобы поддерживать себя, это не удивительно, что люди скептичны! Несмотря на то, что наука очень далека от того, чтобы сделать это реальностью, я хочу сыграть активную роль в обеспечении того, чтобы это никогда не двигалось в темном направлении. Зная, что есть много заинтересованных сторон, от правительств до венчурных капиталистов, нет гарантии, что это не пойдет в темное направление. Это почему как дизайнер UX я чувствую, что это так важно войти туда рано и начать ставить некоторые ставки на землю вокруг того, что является в интересах людей, которые будут фактически использовать эту технологию.
Спасибо за отличное интервью, читателям, которые хотят узнать больше, следует посетить Card79 или Neuralink.












