Connect with us

Lama Nachman, Intel Fellow & Dyrektor Labolatorium Komputowania Przyszłościowego – Seria Wywiadów

Interfejs mózg–maszyna

Lama Nachman, Intel Fellow & Dyrektor Labolatorium Komputowania Przyszłościowego – Seria Wywiadów

mm

Lama Nachman, jest Intel Fellow & Dyrektorem Labolatorium Komputowania Przyszłościowego. Lama jest najlepiej znana ze swojej pracy z profesorem Stephenem Hawkingiem, była niezmiernie pomocna w budowaniu systemu komputerowego wspomagającego profesora Stephena Hawkinga w komunikacji. Dziś pomaga brytyjskiemu robotykom doktorowi Peterowi Scott-Morganowi w komunikacji. W 2017 roku doktor Peter Scott-Morgan otrzymał diagnozę choroby neuronu ruchowego (MND), znanej również jako ALS lub choroba Lou Gehriga. MND atakuje mózg i nerwy i ostatecznie paraliżuje wszystkie mięśnie, w tym te, które umożliwiają oddychanie i połykanie.

Doktor Peter Scott-Morgan powiedział kiedyś: „Będę dalej ewoluować, umierając jako człowiek, żyjąc jako cyborg.”

Czym zostałaś zainteresowana sztuczną inteligencją?

Zawsze byłem przyciągany do idei, że technologia może być wielkim wyrównywaczem. Kiedy jest rozwijana w sposób odpowiedzialny, ma potencjał wyrównać pole gry, rozwiązać nierówności społeczne i wzmocnić ludzki potencjał. Nie ma miejsca, gdzie jest to bardziej prawdziwe niż w przypadku sztucznej inteligencji. Podczas gdy wiele branży rozmawia o sztucznej inteligencji i ludziach, pozycjonując relację między nimi jako wrogi, uważam, że są unikalne rzeczy, które maszyny i ludzie są dobrzy, więc wolę patrzeć na przyszłość przez pryzmat współpracy człowiek-sztuczna inteligencja, a nie konkurencji człowiek-sztuczna inteligencja. Kieruję Labolatorium Komputowania Przyszłościowego w Intel Labs, gdzie we wszystkich naszych badaniach mamy jeden cel – dostarczanie innowacji komputacyjnych, które skalują się dla szerokiego wpływu społecznego. Biorąc pod uwagę, jak powszechna jest już sztuczna inteligencja i jej rosnący ślad we wszystkich aspektach naszego życia, widzę ogromną obietnicę w badaniach, które moja ekipa prowadzi, aby uczynić sztuczną inteligencję bardziej dostępną, bardziej świadomą kontekstu, bardziej odpowiedzialną i ostatecznie przynoszącą rozwiązania technologiczne w skali, aby pomóc ludziom w świecie rzeczywistym.

Pracowałaś ściśle z legendarnym fizykiem profesorem Stephenem Hawkingiem, aby stworzyć system sztucznej inteligencji, który pomagał mu w komunikacji i zadań, które większość z nas uważałaby za rutynowe. Jakie były niektóre z tych rutynowych zadań?

Praca z profesorem Stephenem Hawkingiem była najbardziej znaczącym i wymagającym przedsięwzięciem mojego życia. Karmiła moją duszę i naprawdę uderzyła we mnie, jak technologia może głęboko poprawić życie ludzi. Żył z ALS, degeneratywną chorobą neurologiczną, która z czasem odbiera pacjentowi możliwość wykonywania najprostszych czynności. W 2011 roku zaczęliśmy z nim pracować, aby poprawić system komputerowy wspomagający, który umożliwiał mu interakcję ze światem. Oprócz używania komputera do rozmawiania z ludźmi, Stephen używał swojego komputera jak my wszyscy, edytował dokumenty, przeglądał internet, wygłaszał wykłady, czytał/pisał e-maile itp. Technologia umożliwiła Stephenowi kontynuowanie aktywnego udziału w świecie i inspirowania go przez lata po tym, jak jego zdolności fizyczne szybko się zmniejszyły. To – według mnie – jest tego, co znaczący wpływ technologii na czyjeś życie wygląda!

Jakie były niektóre z kluczowych spostrzeżeń, które wzięłaś z pracy z profesorem Stephenem Hawkingiem?

Nasz ekran komputera jest naprawdę naszym wejściem do świata. Jeśli ludzie mogą kontrolować swój komputer, mogą kontrolować wszystkie aspekty swojego życia (konsumowanie treści, dostęp do świata cyfrowego, kontrola środowiska fizycznego, nawigacja wózkiem itp.). Dla osób z niepełnosprawnościami, które mogą mówić, postępy w rozpoznawaniu mowy pozwalają im na pełną kontrolę nad urządzeniami (i w dużej mierze nad ich środowiskiem fizycznym). Jednak ci, którzy nie mogą mówić i nie są w stanie się poruszać, są naprawdę upośledzeni w niezdolności do wykonywania niezależności. To, czego doświadczenie z profesorem Hawkingiem nauczyło mnie, to to, że platformy technologiczne wspomagające muszą być dostosowane do konkretnych potrzeb użytkownika. Na przykład, nie możemy po prostu założyć, że jeden rozwiązanie będzie działać dla osób z ALS, ponieważ choroba wpływa na różne zdolności u pacjentów. Dlatego zbudowaliśmy ACAT (Assistive Context Aware Toolkit), modułową, otwartoźródłową platformę oprogramowania, która pozwala deweloperom na innowacje i budowanie różnych funkcjonalności na jej podstawie.

Także nauczyłam się, że ważne jest zrozumienie progu komfortu każdego użytkownika w kwestii oddania kontroli w zamian za większą efektywność (to nie jest ograniczone do osób z niepełnosprawnościami). Na przykład, sztuczna inteligencja może być w stanie odebrać więcej kontroli od użytkownika, aby wykonać zadanie szybciej lub bardziej efektywnie, ale każdy użytkownik ma inny poziom awersji do ryzyka. Niektórzy są skłonni oddać więcej kontroli, podczas gdy inni użytkownicy chcą zachować więcej z niej. Zrozumienie tych progów i tego, jak daleko ludzie są skłonni się posunąć, ma duży wpływ na to, jak te systemy mogą być zaprojektowane. Musimy przemyśleć projekt systemu w kategoriach komfortu użytkownika, a nie tylko obiektywnych miar efektywności i dokładności.

Niedawno pracowałaś z znanym naukowcem z Wielkiej Brytanii Peterem Scottem-Morganem, który cierpi na chorobę neuronu ruchowego i ma na celu stać się pierwszym pełnym cyborgiem na świecie. Jakie są niektóre z ambitnych celów, które Peter ma?

Jednym z problemów z AAC (Assistive and Augmentative communication) jest „przerwa ciszy”. Wiele osób z ALS (w tym Peter) używa kontroli wzroku, aby wybrać litery/słowa na ekranie, aby mówić do innych. To powoduje długą ciszę po tym, jak ktoś skończył swoją zdanie, podczas gdy osoba patrzy na swój komputer i zaczyna formułować litery i słowa, aby odpowiedzieć. Peter chciał zredukować tę przerwę ciszy, aby przywrócić werbalną spontaniczność do komunikacji. Chce również zachować swój głos i osobowość i użyć systemu tekst-do-mowy, który wyraża jego unikalny styl komunikacji (np. jego dowcipy, jego szybko wymyślone sarkazmy, jego emocje).

Brytyjski robotyk doktor Peter Scott-Morgan, który cierpi na chorobę neuronu ruchowego, rozpoczął w 2019 roku serię operacji, aby przedłużyć swoje życie za pomocą technologii. (Credit: Cardiff Productions)

Czy mogłabyś omówić niektóre z technologii, które są obecnie używane do wspomagania doktora Petera Scotta-Morgana?

Peter używa ACAT (Assistive Context Aware Toolkit), platformy, którą zbudowaliśmy podczas pracy z doktorem Hawkingiem i później wydaliśmy na licencji open source. W przeciwieństwie do doktora Hawkinga, który używał mięśni w swojej policzku jako „wyzwalacza wejścia”, aby kontrolować litery na swoim ekranie, Peter używa kontroli wzroku (funkcji, którą dodaliśmy do istniejącego ACAT), aby mówić i kontrolować swój komputer, który łączy się z rozwiązaniem Text-to-Speech (TTS) od firmy CereProc, które zostało dostosowane do niego i umożliwia mu wyrażanie różnych emocji/akcentów. System również kontroluje awatar, który został dostosowany do niego.

Pracujemy obecnie nad systemem generowania odpowiedzi dla ACAT, który pozwoli Peterowi na interakcję z systemem na wyższym poziomie, używając możliwości sztucznej inteligencji. Ten system będzie słuchał rozmów Petera z czasem i sugerował odpowiedzi, które Peter może wybrać na ekranie. Celem jest to, aby z czasem system sztucznej inteligencji nauczył się z danych Petera i umożliwił mu „pchnięcie” systemu, aby zapewnić mu najlepsze odpowiedzi, używając tylko niektórych słów kluczowych (podobnie jak wyszukiwania w sieci dzisiaj). Naszym celem z systemem generowania odpowiedzi jest zredukowanie przerwy ciszy w komunikacji i umożliwienie Peterowi i przyszłym użytkownikom ACAT komunikowania się w tempie, które wydaje się bardziej „naturalne”.

Mówiłaś również o ważności przejrzystości w sztucznej inteligencji, dlaczego branża sztucznej inteligencji powinna się bardziej skoncentrować na tym obszarze badań?

To duży problem, szczególnie gdy jest wdrożony w systemach podejmowania decyzji lub systemach współpracy człowiek-sztuczna inteligencja. Na przykład, w przypadku systemu wspomagającego Petera, musimy zrozumieć, co powoduje, że system podejmuje te rekomendacje i jak wpłynąć na naukę tego systemu, aby lepiej wyrazić jego pomysły.

W szerszym kontekście systemów podejmowania decyzji, czy to pomaga w diagnozie na podstawie obrazów medycznych, czy rekomenduje przyznawanie pożyczek, systemy sztucznej inteligencji muszą dostarczać ludziom informacje o tym, jak doszli do tych decyzji, jakie atrybuty lub cechy były najbardziej wpływowe na tę decyzję, jaki poziom ufności ma system w tej inferencji itp. To zwiększa zaufanie do systemów sztucznej inteligencji i umożliwia lepszą współpracę między ludźmi a sztuczną inteligencją w mieszanym podejmowaniu decyzji.

Sztuczna inteligencja, a szczególnie rasizm i seksizm, to ogromny problem, ale jak identyfikować inne typy uprzedzeń, gdy nie masz pojęcia, jakie uprzedzenia szukasz?

To bardzo trudny problem i nie można go rozwiązać samą technologią. Musimy wprowadzić więcej różnorodności w rozwój systemów sztucznej inteligencji (rasowej, płciowej, kulturowej, fizycznej itp.). To jest wyraźna luka w populacji budującej te systemy sztucznej inteligencji dzisiaj. Ponadto, jest krytyczne, aby mieć zespoły wielodyscyplinarne zaangażowane w definicję i rozwój tych systemów, wprowadzając nauki społeczne, filozofię, psychologię, etykę i politykę (nie tylko naukę komputerową), i angażując się w proces badawczy w kontekście konkretnych projektów i problemów.

Mówiłaś wcześniej o używaniu sztucznej inteligencji do wzmocnienia ludzkiego potencjału. Jakie obszary wykazują największy potencjał dla tego wzmocnienia ludzkiego potencjału?

Oczywistym obszarem jest umożliwienie osobom z niepełnosprawnościami życia w większej niezależności, komunikowania się z bliskimi i dalszym tworzeniem i przyczynianiu się do społeczeństwa. Widzę duży potencjał w edukacji, w zrozumieniu zaangażowania uczniów i personalizacji doświadczenia edukacyjnego do indywidualnych potrzeb i możliwości ucznia, aby poprawić zaangażowanie, wzmocnić nauczycieli tymi informacjami i poprawić wyniki edukacyjne. Nierówność w edukacji dzisiaj jest tak ogromna, a jest miejsce dla sztucznej inteligencji, aby pomóc zredukować niektóre z tych nierówności, jeśli zrobimy to dobrze. Są niezliczone możliwości, aby sztuczna inteligencja przyniosła wiele wartości, tworząc systemy współpracy człowiek-sztuczna inteligencja w wielu sektorach (opieka zdrowotna, produkcja itp.), ponieważ to, co ludzie i sztuczna inteligencja przynoszą do stołu, jest bardzo uzupełniające. Aby to się stało, potrzebujemy innowacji na przecięciu nauk społecznych, interakcji człowiek-komputer i sztucznej inteligencji. Silna percepcja wielomodalna, świadomość kontekstu, nauka z ograniczonymi danymi, fizycznie usytuowana interakcja człowiek-komputer i interpretowalność są niektórymi z kluczowych wyzwań, na które musimy się skoncentrować, aby tę wizję zrealizować.

Mówiłaś również o tym, jak ważne jest rozpoznawanie emocji dla przyszłości sztucznej inteligencji? Dlaczego branża sztucznej inteligencji powinna się bardziej skoncentrować na tym obszarze badań?

Rozpoznawanie emocji jest kluczową zdolnością systemów człowiek-sztuczna inteligencja z wielu powodów. Jednym z aspektów jest to, że emocje ludzkie dostarczają kluczowego kontekstu ludzkiego dla jakiegokolwiek proaktywnego systemu, aby zrozumieć, zanim może on działać.

Co więcej, tego typu systemy muszą kontynuować naukę w terenie i adaptować się na podstawie interakcji z użytkownikami, a podczas gdy bezpośrednia informacja zwrotna jest kluczowym sygnałem do nauki, sygnały pośrednie są bardzo ważne i są darmowe (mniej pracy dla użytkownika). Na przykład, asystent cyfrowy może nauczyć się wiele z frustracji w głosie użytkownika i użyć tego jako sygnału informacji zwrotnej do nauki, co zrobić w przyszłości, zamiast prosić użytkownika o informację zwrotną za każdym razem. Te informacje mogą być użyte do aktywnej nauki systemów sztucznej inteligencji, aby kontynuować poprawę z czasem.

Czy jest coś jeszcze, co chciałabyś podzielić się na temat tego, nad czym pracujesz w Labolatorium Komputowania Przyszłościowego, czy innych kwestii, które omawiałyśmy?

Kiedy budujemy systemy wspomagające, musimy naprawdę pomyśleć, jak zbudować te systemy w sposób odpowiedzialny i jak umożliwić ludziom zrozumienie, jakie informacje są zbierane i jak kontrolować te systemy w praktyczny sposób. Jako badacze sztucznej inteligencji, często jesteśmy fascynowani danymi i chcemy mieć jak najwięcej danych, aby poprawić te systemy, jednak jest kompromis między typem i ilością danych, które chcemy, a prywatnością użytkownika. Naprawdę musimy ograniczyć dane, które zbieramy, do tego, co jest absolutnie potrzebne do wykonania zadania inferencyjnego, poinformować użytkowników o tym, jakie dane zbieramy i umożliwić im dostosowanie tego kompromisu w sposób znaczący i użyteczny.

Dziękuję za fantastyczny wywiad, czytelnicy, którzy chcą dowiedzieć się więcej o tym projekcie, powinni przeczytać artykuł Intel’s Lama Nachman and Peter Scott-Morgan: Two Scientists, One a ‘Human Cyborg’.

Zespół Labolatorium Komputowania Przyszłościowego Intel, który opracował Assistive Context-Aware Toolkit, obejmuje (od lewej) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman i Pete Denman. Nie widoczni są Bruna Girvent, Saurav Sahay i Shachi Kumar. (Credit: Lama Nachman)

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.