Hjärn–maskin-gränssnitt
Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Intervju-serie

Lama Nachman, är en Intel Fellow och Director of Anticipatory Computing Lab. Lama är mest känd för sitt arbete med Prof. Stephen Hawking, hon var instrumental i att bygga ett assistivt datorsystem för att hjälpa Prof. Stephen Hawking att kommunicera. Idag hjälper hon den brittiske robotikern Dr. Peter Scott-Morgan att kommunicera. 2017 fick Dr. Peter Scott-Morgan diagnosen motorneuronsjukdom (MND), också känd som ALS eller Lou Gehrigs sjukdom. MND attackerar hjärnan och nerverna och lamnar till slut alla muskler, även de som möjliggör andning och sväljning.
Dr. Peter Scott-Morgan sa en gång: “Jag kommer att fortsätta utvecklas, dö som en människa, leva som en cyborg.”
Vad drog dig till AI?
Jag har alltid varit dragen till idén att teknologi kan vara den stora utjämnaren. När den utvecklas på ett ansvarsfullt sätt har den potentialen att jämna ut spelplanen, åtgärda sociala ojämlikheter och förstärka mänsklig potential. Ingenstans är detta mer sant än med AI. Medan mycket av branschens diskussion kring AI och människor positionerar relationen mellan de två som antagonistisk, tror jag att det finns unika saker som maskiner och människor är bra på, så jag föredrar att se framtiden genom linsen av mänsklig-AI-samarbete snarare än mänsklig-AI-konkurrens. Jag leder Anticipatory Computing Lab på Intel Labs där – över alla våra forskningsinsatser – vi har ett enskilt fokus på att leverera innovativ databehandling som skalar för bred samhällelig påverkan. Med tanke på hur allmänt AI redan är och dess växande fotavtryck i varje aspekt av vårt liv, ser jag ett stort löfte i den forskning min grupp genomför för att göra AI mer tillgänglig, mer kontextmedveten, mer ansvarsfull och slutligen för att bringa tekniska lösningar i skala för att hjälpa människor i den verkliga världen.
Du har arbetat nära med den legendariska fysikern Prof. Stephen Hawking för att skapa ett AI-system som hjälpte honom med kommunikation och uppgifter som de flesta av oss skulle betrakta som rutin. Vilka var några av dessa rutinuppgifter?
Att arbeta med Prof. Stephen Hawking var det mest meningsfulla och utmanande företaget i mitt liv. Det gav mig själ och verkligen slog hem hur teknologi kan förbättra människors liv på ett djupgående sätt. Han levde med ALS, en degenerativ neurologisk sjukdom, som över tiden berövar patienten förmågan att utföra de enklaste aktiviteterna. 2011 började vi arbeta med honom för att undersöka hur man kan förbättra det assistiva datorsystem som möjliggjorde för honom att interagera med världen. Utöver att använda sin dator för att prata med människor, använde Stephen sin dator som alla vi gör, redigerade dokument, surfade på webben, höll föreläsningar, läste/skrev e-post, etc. Teknologin möjliggjorde för Stephen att fortsätta att aktivt delta i och inspirera världen under många år efter att hans fysiska förmågor minskade snabbt. Det – för mig – är vad meningsfull påverkan av teknologi på någons liv ser ut!
Vilka är några av de viktigaste insikterna som du tog med dig från att arbeta med Prof. Stephen Hawking?
Vår datorskärm är verkligen vår dörröppnare till världen. Om människor kan kontrollera sin PC, kan de kontrollera alla aspekter av sina liv (konsumera innehåll, komma åt den digitala världen, kontrollera sin fysiska miljö, navigera i sin rullstol, etc.). För människor med funktionshinder som fortfarande kan tala, låter framsteg inom taligenkänning dem ha full kontroll över sina enheter (och till en stor del, sin fysiska miljö). Men de som inte kan tala och inte kan röra sig är verkligen funktionshindrade i att inte kunna utöva mycket oberoende. Vad upplevelsen med Prof. Hawking lärde mig är att assistiv teknologi-plattformar behöver anpassas till den specifika användarens behov. Till exempel kan vi inte bara anta att en enda lösning kommer att fungera för människor med ALS, eftersom sjukdomen påverkar olika förmågor över patienter. Så vi behöver teknologier som kan konfigureras och anpassas till den enskildes behov. Detta är varför vi byggde ACAT (Assistive Context Aware Toolkit), en modulär, öppen källkodsplattform som kan möjliggöra för utvecklare att innovera och bygga olika funktioner ovanpå den.
Jag lärde mig också att det är viktigt att förstå varje användares komforttröskel kring att ge upp kontroll i utbyte mot mer effektivitet (detta är inte begränsat till människor med funktionshinder). Till exempel kan AI ta bort mer kontroll från användaren för att göra en uppgift snabbare eller mer effektivt, men varje användare har en annan nivå av riskaversitet. Vissa är villiga att ge upp mer kontroll, medan andra användare vill behålla mer av den. Att förstå dessa trösklar och hur långt människor är villiga att gå har en stor inverkan på hur dessa system kan designas. Vi behöver omdefiniera systemdesign i termer av användarkomfortnivå snarare än bara objektiv mått på effektivitet och noggrannhet.
Mer nyligen har du arbetat med en berömd brittisk forskare Peter Scott Morgan som lider av motorneuronsjukdom och har målet att bli världens första fullständiga cyborg. Vilka är några av de ambitiösa målen som Peter har?
Ett av problemen med AAC (Assistive and Augmentative communication) är den “tysta gapen”. Många människor med ALS (inklusive Peter) använder blickstyrning för att välja bokstäver/ord på skärmen för att tala till andra. Detta resulterar i en lång tystnad efter att någon avslutar sin mening medan personen tittar på sin dator och börjar formulera bokstäver och ord för att svara. Peter ville minska denna tysta gap så mycket som möjligt för att återföra verbal spontanitet till kommunikationen. Han ville också bevara sin röst och personlighet och använda ett text-till-tal-system som uttrycker hans unika kommunikationsstil (t.ex. hans skämt, hans snabbtänkta sarkasm, hans känslor).

Den brittiske robotikern Dr. Peter Scott-Morgan, som lider av motorneuronsjukdom, genomgick 2019 en serie operationer för att förlänga sitt liv med hjälp av teknologi. (Kredit: Cardiff Productions)
Kan du diskutera några av de teknologier som för närvarande används för att hjälpa Dr. Peter Scott-Morgan?
Peter använder ACAT (Assistive Context Aware Toolkit), plattformen som vi byggde under vårt arbete med Dr. Hawking och senare släppte som öppen källkod. Till skillnad från Dr. Hawking som använde musklerna i sin kind som en “inmatningstrigger” för att kontrollera bokstäverna på sin skärm, använder Peter blickstyrning (en funktion som vi lade till i den befintliga ACAT) för att tala till och kontrollera sin PC, som gränssnittar med ett Text-till-tal-lösning från ett företag som heter CereProc som anpassades för honom och möjliggör för honom att uttrycka olika känslor/betonning. Systemet kontrollerar också en avatar som anpassades för honom.
Vi arbetar för närvarande på ett svarsgenereringssystem för ACAT som kan tillåta Peter att interagera med systemet på en högre nivå med hjälp av AI-funktioner. Detta system kommer att lyssna på Peters samtal över tid och föreslå svar för Peter att välja på skärmen. Målet är att över tid kommer AI-systemet att lära sig från Peters data och möjliggöra för honom att “stöta” systemet för att ge honom de bästa svaren med hjälp av bara några nyckelord (liknande hur sökningar fungerar på webben idag). Vårt mål med svarsgenereringssystemet är att minska den tysta gapen i kommunikation som nämndes ovan och ge Peter och framtida användare av ACAT möjlighet att kommunicera i en takt som känns mer “naturlig.”
Har du också talat om vikten av transparens i AI, hur stor är detta problem?
Det är ett stort problem, särskilt när det används i beslutsfattande system eller mänsklig-AI-samarbete. Till exempel, i fallet med Peters assistiva system, behöver vi förstå vad som orsakar systemet att göra dessa rekommendationer och hur man kan påverka inlärningen av detta system för att mer exakt uttrycka hans idéer.
I det större sammanhanget av beslutsfattande system, antingen det är att hjälpa till med diagnos baserat på medicinsk avbildning eller att göra rekommendationer om att bevilja lån, behöver AI-system tillhandahålla mänskligt tolkningsbar information om hur de kom fram till besluten, vilka attribut eller funktioner som hade störst inverkan på beslutet, vilken tillförlitlighet har systemet i den slutsats som dras, etc. Detta ökar förtroendet för AI-systemen och möjliggör bättre samarbete mellan människor och AI i blandade beslutsfattande scenarier.
AI-fördomar, särskilt när det gäller rasism och sexism, är ett stort problem, men hur identifierar man andra typer av fördomar när man inte har någon aning om vilka fördomar man letar efter?
Det är ett mycket svårt problem och ett som inte kan lösas med teknologi ensam. Vi behöver bringa in mer mångfald i utvecklingen av AI-system (ras, kön, kultur, fysisk förmåga, etc.). Detta är tydligt ett stort gap i befolkningen som bygger dessa AI-system idag. Dessutom är det kritiskt att ha multidisciplinära team engagerade i definitionen och utvecklingen av dessa system, som bringar in socialvetenskap, filosofi, psykologi, etik och policy till bordet (inte bara datavetenskap), och engagera sig i undersökningen i sammanhanget av de specifika projekten och problemen.
Har du tidigare talat om att använda AI för att förstärka mänsklig potential. Vilka är några områden som visar mest löfte för denna förstärkning av mänsklig potential?
Ett uppenbart område är att möjliggöra för människor med funktionshinder att leva mer oberoende, att kommunicera med nära och kära och att fortsätta att skapa och bidra till samhället. Jag ser en stor potential i utbildning, i att förstå studentengagemang och anpassa läroupplevelsen till den enskildes behov och förmågor för att förbättra engagemanget, ge lärare möjlighet att förstå detta och förbättra läranderesultat. Ojämlikheten i utbildning idag är så djupgående och det finns en plats för AI att hjälpa till att minska en del av denna ojämlikhet om vi gör det rätt. Det finns oändliga möjligheter för AI att bringa mycket värde genom att skapa mänsklig-AI-samarbete i så många sektorer (hälsovård, tillverkning, etc.) eftersom det som människor och AI bringar till bordet är mycket kompletterande. För att detta ska hända behöver vi innovation i skärningspunkten mellan socialvetenskap, HCI och AI. Robust flermodal perception, kontextmedvetenhet, inlärning från begränsad data, fysiskt placerad HCI och tolkningsbarhet är några av de viktigaste utmaningarna som vi behöver fokusera på för att bringa denna vision till verklighet.
Har du också talat om hur viktigt det är med känslig erkännande för framtiden för AI? Varför bör AI-industrin fokusera mer på detta forskningsområde?
Känslig erkännande är en nyckelfunktion för mänsklig-AI-system av flera skäl. En aspekt är att mänskliga känslor erbjuder nyckelkontext för något proaktivt system för att förstå innan det kan agera.
Mer viktigt är att dessa typer av system behöver fortsätta att lära sig i vildmarken och anpassa sig baserat på interaktioner med användare, och medan direkt feedback är en nyckelsignal för inlärning, är indirekta signaler mycket viktiga och de är gratis (mindre arbete för användaren). Till exempel kan en digital assistent lära sig mycket från frustrationen i en användares röst och använda det som en feedbacksignal för inlärning av vad man ska göra i framtiden, istället för att fråga användaren om feedback varje gång. Denna information kan användas för aktivt inlärning AI-system för att fortsätta att förbättras över tid.
Finns det något annat som du vill dela om vad du arbetar med på Anticipatory Computing Lab eller andra frågor som vi har diskuterat?
När vi bygger assistiva system, behöver vi verkligen tänka på hur vi bygger dessa system på ett ansvarsfullt sätt och hur vi kan möjliggöra för människor att förstå vilken information som samlas in och hur man kan kontrollera dessa system på ett praktiskt sätt. Som AI-forskare är vi ofta fascinerade av data och vill ha så mycket data som möjligt för att förbättra dessa system, men det finns en avvägning mellan den typ och mängd data vi vill ha och användarens integritet. Vi behöver verkligen begränsa den data vi samlar in till vad som är absolut nödvändigt för att utföra inferenstanken, göra användarna medvetna om exakt vilken data vi samlar in och möjliggöra för dem att justera denna avvägning på ett meningsfullt och användbart sätt.
Tack för den fantastiska intervjun, läsare som vill lära sig mer om detta projekt bör läsa artikeln Intel’s Lama Nachman and Peter Scott-Morgan: Two Scientists, One a ‘Human Cyborg’.

Intel’s Anticipatory Computing Lab team som utvecklade Assistive Context-Aware Toolkit inkluderar (från vänster) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman och Pete Denman. De som inte är med på bilden är Bruna Girvent, Saurav Sahay och Shachi Kumar. (Kredit: Lama Nachman)












