Connect with us

Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Interview Series

Rozhraní mozek–stroj

Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Interview Series

mm

Lama Nachman, je Intel Fellow & Director of Anticipatory Computing Lab. Lama je nejznámější díky své práci s profesorem Stephenem Hawkingem, bylainstrumentální při budování asistivního počítačového systému, který umožnil profesoru Stephenu Hawkingovi komunikovat. Dnes pomáhá britskému robotikovi Dr. Peteru Scott-Morganovi komunikovat. V roce 2017 obdržel Dr. Peter Scott-Morgan diagnózu motorického neuronového onemocnění (MND), také známého jako ALS nebo Lou Gehrigova choroba. MND napadá mozek a nervy a nakonec paralyzuje všechny svaly, včetně těch, které umožňují dýchání a polykání.

Dr. Peter Scott-Morgan jednou uvedl: “Budu pokračovat v evoluci, umírám jako člověk, žiji jako kyborg.”

Co vás přitáhlo k AI?

Vždy jsem byl přitahován nápadem, že technologie může být velkým vyrovnávačem. Když je vyvinuta zodpovědně, má potenciál vyrovnat hrací pole, řešit sociální nerovnosti a zesílit lidský potenciál. Nikde není toto pravdivější než u AI. Zatímco většina průmyslové konverzace kolem AI a lidí staví vztah mezi nimi jako adversativní, věřím, že existují jedinečné věci, které jsou dobré pro stroje a lidi, takže raději vidím budoucnost skrze čočku Human-AI spolupráce než human-AI konkurence. Vedoucí Anticipatory Computing Lab v Intel Labs, kde – napříč všemi našimi výzkumnými úsilími – máme jediný焦点 na dodání inovací v oblasti výpočetní techniky, které mají široký dopad na společnost. Vzhledem k tomu, jak všudypřítomná je AI již a její rostoucí stopa v každém aspektu našeho života, vidím obrovský slib ve výzkumu, který můj tým provádí, aby AI učinil více přístupným, více kontextově vědomým, více zodpovědným a nakonec přinesl technologická řešení ve velkém měřítku, aby pomohly lidem ve skutečném světě.

Pracovala jste úzce s legendárním fyzikem profesorem Stephenem Hawkingem, aby vytvořila AI systém, který mu pomáhal s komunikací a úkoly, které většina z nás považuje za rutinní. Jaké byly některé z těchto rutinních úkolů?

Práce s profesorem Stephenem Hawkingem byla nejvýznamnějším a nejnáročnějším úsilím mého života. To nakrmilo mou duši a opravdu ukázalo, jak technologie může hluboce zlepšit životy lidí. Žil s ALS, degenerativní neurologickou chorobou, která během času bere pacientovi schopnost provádět nejjednodušší činnosti. V roce 2011 jsme začali pracovat s ním, abychom prozkoumali, jak zlepšit asistivní počítačový systém, který mu umožnil interagovat se světem. Kromě používání počítače pro mluvení s lidmi, Stephen používal počítač jako všichni my, editoval dokumenty, procházel web, přednášel, četl/psal e-maily atd. Technologie umožnila Stephenovi pokračovat v aktivní účasti na světě a inspirovat ho po mnoho let, i když jeho fyzické schopnosti rychle ubývaly. To – pro mě – je to, co znamená významný dopad technologie na někoho život!

Jaké jsou některé z hlavních poznatků, které jste získala z práce s profesorem Stephenem Hawkingem?

Naše počítačová obrazovka je skutečně naší branou do světa. Pokud lidé mohou ovládat svůj PC, mohou ovládat všechny aspekty svého života (spotřebu obsahu, přístup k digitálnímu světu, kontrolu svého fyzického prostředí, navigaci na svém vozíku, atd.). Pro lidi se zdravotním postižením, kteří mohou ještě mluvit, pokroky ve zpracování řeči jim umožňují mít plnou kontrolu nad svými zařízeními (a do značné míry i nad svým fyzickým prostředím). Nicméně, ti, kteří nemohou mluvit a nejsou schopni se pohybovat, jsou skutečně znevýhodněni, protože nejsou schopni vykonávat mnoho nezávislých činností. Co zkušenost s profesorem Hawkingem mě naučila, je to, že asistivní technologie platformy potřebují být uzpůsobeny specifickým potřebám uživatele. Například, nemůžeme předpokládat, že jediné řešení bude fungovat pro lidi s ALS, protože onemocnění postihuje různé schopnosti napříč pacienty. Proto jsme vyvinuli ACAT (Assistive Context Aware Toolkit), modulární, open-source software platformu, která může umožnit vývojářům inovovat a stavět různé schopnosti na ní.

Také jsem se naučila, že je důležité pochopit každý uživatelský komfortní práh kolem vzdání se kontroly výměnou za větší efektivitu (to není omezeno na lidi se zdravotním postižením). Například AI může být schopna vzít více kontroly od uživatele, aby úkol provedl rychleji nebo efektivněji, ale každý uživatel má jiný práh rizika. Některé jsou ochotny vzdát se více kontroly, zatímco jiní uživatelé chtějí udržet více z ní. Pochopení těchto prahů a toho, jak daleko lidé jsou ochotni jít, má velký dopad na to, jak tyto systémy mohou být navrženy. Potřebujeme přehodnotit návrh systému z hlediska uživatelského komfortního prahu spíše než pouze objektivní měřítko efektivity a přesnosti.

V poslední době jste pracovala s famózním britským vědcem Peterem Scott-Morganem, který trpí motorickým neuronovým onemocněním a má za cíl stát se prvním plným kyborgem na světě. Jaké jsou některé z ambiciózních cílů, které Peter má?

Jednou z otázek s AAC (Asistivní a augmentativní komunikace) je „ticho mezera“. Mnoho lidí s ALS (včetně Petera) používá oční kontrolu, aby vybral písmena / slova na obrazovce, aby mluvil s ostatními. To vede k dlouhému tichu po dokončení věty, zatímco osoba se dívá na počítač a začíná formulovat písmena a slova, aby odpověděla. Peter chtěl tuto tichou mezeru co nejvíce zkrátit, aby přinesl zpět verbální spontánnost do komunikace. Také chtěl zachovat svůj hlas a osobnost a použít text-to-speech systém, který vyjadřuje jeho jedinečný styl komunikace (například jeho vtipy, jeho rychlou inteligenci, jeho emoce).

Britský robotik Dr. Peter Scott-Morgan, který trpí motorickým neuronovým onemocněním, začal v roce 2019 podstupovat sérii operací, aby prodloužil svůj život pomocí technologie. (Credit: Cardiff Productions)

Můžete diskutovat některé technologie, které jsou目前 používány k asistenci Dr. Peteru Scott-Morganovi?

Peter používá ACAT (Assistive Context Aware Toolkit), platformu, kterou jsme vyvinuli během naší práce s Dr. Hawkingem a později uvolnili jako open-source. Na rozdíl od Dr. Hawkinga, který používal svaly v tváři jako „input trigger“ pro kontrolu písmen na obrazovce, Peter používá oční kontrolu (schopnost, kterou jsme přidali do stávajícího ACAT) pro mluvení a kontrolu počítače, který komunikuje s Text-to-Speech (TTS) řešením od společnosti CereProc, které bylo přizpůsobeno pro něj a umožňuje mu vyjadřovat různé emoce / důraz. Systém také ovládá avatar, který byl přizpůsoben pro něj.

Pracujeme na systému generování odpovědí pro ACAT, který by Peterovi umožnil interagovat se systémem na vyšší úrovni pomocí AI schopností. Tento systém bude poslouchat Peterovy konverzace po dobu času a navrhovat odpovědi pro Petera, aby je vybral na obrazovce. Cílem je, aby se AI systém naučil z Peterových dat a umožnil mu „najít“ systém, aby poskytl mu nejlepší odpovědi pomocí pouze beberapa klíčových slov (podobně jako fungují vyhledávání na webu dnes). Naším cílem se systémem generování odpovědí je snížit tichou mezeru v komunikaci a umožnit Peterovi a budoucím uživatelům ACAT komunikovat tempem, které se cítí více „přirozené“.

Mluvila jste také o důležitosti transparentnosti v AI, jak velký je tento problém?

Je to velký problém, zejména když je nasazena v rozhodovacích systémech nebo human-AI spolupracujících systémech. Například, v případě Peterova asistivního systému, potřebujeme pochopit, co způsobuje, že systém dělá tyto návrhy, a jak ovlivnit učení tohoto systému, aby lépe vyjádřil jeho nápady.

Ve větším kontextu rozhodovacích systémů, ať už jde o pomoc při diagnóze na základě medicínského zobrazování nebo o poskytování doporučení pro udělení půjček, AI systémy potřebují poskytnout lidsky interpretovatelné informace o tom, jak dospěly k těmto rozhodnutím, jaké atributy nebo funkce měly největší dopad na toto rozhodnutí, jakou důvěru má systém v odvozeném závěru, atd. To zvyšuje důvěru v AI systémy a umožňuje lepší spolupráci mezi lidmi a AI v mixovaných rozhodovacích scénářích.

AI bias, zejména co se týče rasismu a sexismu, je obrovský problém, ale jak identifikujete jiné typy biasu, když nemáte žádnou představu, jaké bias hledáte?

Je to velmi obtížný problém a jeden, který nelze vyřešit pouze technologií. Potřebujeme přinést více diverzity do vývoje AI systémů (rasové, genderové, kulturní, fyzické schopnosti, atd.). To je jasně obrovská mezera v populaci, která buduje tyto AI systémy dnes. Kromě toho je kritické mít multi-disciplinární týmy zapojené do definice a vývoje těchto systémů, přinášející sociální vědu, filozofii, psychologii, etiku a politiku do stolu (nejen počítačovou vědu), a zapojit se do procesu dotazování v kontextu konkrétních projektů a problémů.

Mluvila jste dříve o použití AI pro zesílení lidského potenciálu. Jaké jsou některé oblasti, které ukazují největší slib pro toto zesílení lidského potenciálu?

Zjevnou oblastí je umožnění lidem se zdravotním postižením žít více nezávisle, komunikovat s blízkými a pokračovat ve tvorbě a přispívání společnosti. Vidím velký potenciál ve vzdělávání, v pochopení studentovy angažovanosti a personalizaci učebního prostředí podle individuálních potřeb a schopností studenta, aby se zlepšila angažovanost, učitelé byli vybaveni touto znalostí a zlepšily se učební výsledky. Nerovnost ve vzdělávání dnes je tak hluboká a existuje místo pro AI, aby pomohla snížit一些 z této nerovnosti, pokud to uděláme správně. Existují nekonečné příležitosti pro AI, aby přinesly mnoho hodnoty vytvořením human-AI spolupracujících systémů v mnoha sektorech (zdravotnictví, výroba, atd.), protože to, co lidé a AI přinášejí na stůl, jsou velmi komplementární. Pro tohle, abychom tohle vidění realizovali, potřebujeme inovace na průsečíku sociální vědy, HCI a AI. Robustní multi-modální percepci, kontextovou povědomost, učení z omezených dat, fyzicky situovanou HCI a interpretovatelnost jsou některé z klíčových výzev, na které potřebujeme se zaměřit, abychom toto vidění realizovali.

Mluvila jste také o tom, jak důležité je rozpoznání emocí pro budoucnost AI? Proč by se AI průmysl měl zaměřit více na tuto oblast výzkumu?

Rozpoznání emocí je klíčová schopnost human-AI systémů z několika důvodů. Jedním aspektem je, že lidské emoce nabízejí klíčový lidský kontext pro jakýkoli proaktivní systém, aby pochopil, než bude moci jednat.

Více důležitým je, že tyto typy systémů potřebují pokračovat v učení ve volném světě a přizpůsobovat se na základě interakcí s uživateli, a zatímco přímá zpětná vazba je klíčovým signálem pro učení, nepřímé signály jsou velmi důležité a jsou zdarma (méně práce pro uživatele). Například, digitální asistent může se много naučit z frustrace v uživatelském hlasu a použít to jako zpětnou vazbu pro učení, co dělat v budoucnu, místo aby žádal uživatele o zpětnou vazbu každou chvíli. Tyto informace mohou být použity pro aktivní učení AI systémů, aby pokračovaly v zlepšování se časem.

Je něco jiného, co byste ráda sdílela o tom, na čem pracujete v Anticipatory Computing Lab nebo jiných problémech, které jsme diskutovali?

Při budování asistivních systémů, opravdu potřebujeme přemýšlet o tom, jak tyto systémy budovat zodpovědně a jak umožnit lidem pochopit, jaké informace jsou shromažďovány a jak ovládat tyto systémy prakticky. Jako AI výzkumníci, jsme často fascinováni daty a chtějíme mít co nejvíce dat, aby se tyto systémy zlepšily, nicméně, existuje kompromis mezi typem a množstvím dat, které chceme, a uživatelskou soukromostí. Really potřebujeme omezit data, která shromažďujeme, na to, co je absolutně nezbytné pro provedení inferenčního úkolu, učinit uživatele vědomými přesně toho, co data shromažďujeme, a umožnit jim upravit tento kompromis smysluplným a užitečným způsobem.

Děkuji za fantastický rozhovor, čtenáři, kteří chtějí se dozvědět více o tomto projektu, by měli přečíst článek Intel’s Lama Nachman and Peter Scott-Morgan: Two Scientists, One a ‘Human Cyborg’.

Intel’s Anticipatory Computing Lab tým, který vyvinul Assistive Context-Aware Toolkit, zahrnuje (zleva) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman a Pete Denman. Na snímku chybí Bruna Girvent, Saurav Sahay a Shachi Kumar. (Credit: Lama Nachman)

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.