Connect with us

Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Intervju-serie

Hjerne-maskin-grensesnitt

Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Intervju-serie

mm

Lama Nachman, er en Intel Fellow & Director of Anticipatory Computing Lab. Lama er best kjent for sitt arbeid med Prof. Stephen Hawking, hun var med på å bygge et assistivt dataprogram for å hjelpe Prof. Stephen Hawking med å kommunisere. I dag hjelper hun den britiske robotingeniøren Dr. Peter Scott-Morgan å kommunisere. I 2017 fikk Dr. Peter Scott-Morgan diagnosen motorneuron sykdom (MND), også kjent som ALS eller Lou Gehrigs sykdom. MND angriper hjernen og nervene og lammer til slutt alle muskler, inkludert de som gjør det mulig å puste og svelge.

Dr. Peter Scott-Morgan sa en gang: “Jeg kommer til å fortsette å utvikle meg, dø som et menneske, leve som en kyborg.”

Hva var det som tiltalte deg til AI?

Jeg har alltid vært tiltrukket av tanken på at teknologi kan være en stor likemaker. Når den utvikles på en ansvarlig måte, har den potensialet til å jevne ut spillere, håndtere sosiale urettferdigheter og forsterke menneskelig potensiale. Ingensteds er dette mer sant enn med AI. Mens mye av industrien samtaler om AI og mennesker stiller forholdet mellom de to som adversarialt, tror jeg at det finnes unike ting maskiner og mennesker er gode til, så jeg foretrekker å se fremtiden gjennom linsen Human-AI-samarbeid snarere enn human-AI-konkurranser. Jeg leder Anticipatory Computing Lab på Intel Labs hvor – over alle våre forskningsinnsats – vi har en enkelt fokus på å levere innovasjoner innen datateknologi som kan skaleres for bredt samfunnsmessig innvirkning. Gitt hvor allment AI allerede er og dens økende fotavtrykk i hver enkelt del av vårt liv, ser jeg enormt potensiale i forskningen min team gjennomfører for å gjøre AI mer tilgjengelig, mer kontekst-bevisst, mer ansvarlig og til slutt bringe teknologiløsninger i skala for å hjelpe mennesker i den virkelige verden.

Du har arbeidet tett med den legendariske fysikeren Prof. Stephen Hawking for å lage et AI-system som hjalp ham med å kommunisere og med oppgaver som de fleste av oss ville betrakte som rutine. Hva var noen av disse rutineoppgavene?

Arbeidet med Prof. Stephen Hawking var det mest meningsfulle og utfordrende foretaket i mitt liv. Det ga meg mat for sjelen og viste virkelig hvordan teknologi kan forbedre menneskers liv. Han levde med ALS, en degenerativ nevrologisk sykdom, som over tid tar fra pasientens evne til å utføre de enkleste aktivitetene. I 2011 begynte vi å arbeide med ham for å se hvordan vi kunne forbedre det assistive dataprogrammet som gjorde det mulig for ham å interagere med verden. I tillegg til å bruke datamaskinen til å snakke med mennesker, brukte Stephen datamaskinen som alle andre, redigerte dokumenter, surfet på nettet, holdt foredrag, leste/skrev e-post osv. Teknologien gjorde det mulig for Stephen å fortsette å aktivt delta i og inspirere verden i mange år etter at hans fysiske evner raskt ble redusert. Det – for meg – er hva meningsfull innvirkning av teknologi på noenones liv ser ut!

Hva var noen av de viktigste innsiktene du tok med deg fra arbeidet med Prof. Stephen Hawking?

Vår dataskjerm er virkelig vår inngang til verden. Hvis mennesker kan kontrollere PC-en, kan de kontrollere alle aspekter av livet (forbruke innhold, få tilgang til den digitale verden, kontrollere den fysiske omgivelsen, navigere i rullestolen osv). For mennesker med funksjonsnedsettelse som fortsatt kan snakke, lar fremgangene i talegjenkjenning dem ha full kontroll over enhetene (og i stor grad, den fysiske omgivelsen). Imidlertid er de som ikke kan snakke og ikke kan bevege seg virkelig hemmet i ikke å kunne utøve mye uavhengighet. Hva erfaringen med Prof. Hawking lærte meg, er at assistive teknologiplattformer må tilpasses de spesifikke behovene til brukeren. For eksempel kan vi ikke bare anta at en enkelt løsning vil fungere for mennesker med ALS, fordi sykdommen påvirker forskjellige evner over pasienter. Så, trenger vi teknologier som kan konfigureres og tilpasses til den enkeltes behov. Dette er hvorfor vi bygget ACAT (Assistive Context Aware Toolkit), en modulær, åpen kildekode-plattform som kan aktivere utviklere til å innovere og bygge forskjellige kapasiteter på toppen av det.

Jeg lærte også at det er viktig å forstå hver enkelt brukers komfortnivå rundt å gi fra seg kontroll i bytte mot mer effisiens (dette er ikke begrenset til mennesker med funksjonsnedsettelse). For eksempel kan AI være i stand til å ta fra seg mer kontroll fra brukeren for å utføre en oppgave raskere eller mer effektivt, men hver bruker har en annen nivå av risikotoleranse. Noen er villige til å gi fra seg mer kontroll, mens andre brukere ønsker å beholde mer av det. Å forstå disse terskelen og hvor langt mennesker er villige til å gå, har en stor innvirkning på hvordan disse systemene kan designs. Vi må omdefinere systemdesign i forhold til brukerens komfortnivå snarere enn bare objektive mål for effisiens og nøyaktighet.

Mer nylig har du arbeidet med en berømt britisk vitenskapsmann Peter Scott Morgan som lider av motorneuronsykdom og har målet om å bli verdens første fullstendige kyborg. Hva er noen av de ambisiøse målene Peter har?

En av problemene med AAC (Assistive and Augmentative communication) er “stille gapet”. Mange mennesker med ALS (inkludert Peter) bruker blikkstyring for å velge bokstaver / ord på skjermen for å snakke med andre. Dette resulterer i en lang stillhet etter at noen er ferdig med sin setning mens personen ser på datamaskinen og begynner å formulere bokstaver og ord for å svare. Peter ønsker å redusere dette stille gapet så mye som mulig for å bringe tilbake verbalt spontanitet til kommunikasjonen. Han ønsker også å bevare stemmen og personligheten og bruke en tekst-til-tale-system som uttrykker hans unike kommunikasjonsstil (for eksempel hans vittigheter, hans raskttenkte sarkasme, hans emosjoner).

Britisk robotingeniør Dr. Peter Scott-Morgan, som har motorneuronsykdom, begynte i 2019 å gjennomgå en rekke operasjoner for å forlenge livet med teknologi. (Kredit: Cardiff Productions)

Kunne du diskutere noen av teknologiene som for tiden brukes for å hjelpe Dr. Peter Scott-Morgan?

Peter bruker ACAT (Assistive Context Aware Toolkit), plattformen vi bygget under arbeidet med Dr. Hawking og senere slapp til åpen kildekode. I motsetning til Dr. Hawking som brukte musklene i kinnet som en “inngangstrigger” for å kontrollere bokstaver på skjermen, bruker Peter blikkstyring (en funksjon vi la til i den eksisterende ACAT) for å snakke med og kontrollere PC-en, som grenser til en Tekst-til-Tale-løsning fra et selskap som CereProc som var tilpasset ham og gjorde det mulig for ham å uttrykke forskjellige emosjoner / betoning. Systemet kontrollerer også en avatar som var tilpasset ham.

Vi arbeider for tiden med et respons-genereringssystem for ACAT som kan la Peter samhandle med systemet på et høyere nivå ved hjelp av AI-kapasiteter. Dette systemet vil lytte til Peters samtaler over tid og foreslå responser for Peter å velge på skjermen. Målet er at over tid vil AI-systemet lære fra Peters data og aktivere ham til å “skyve” systemet til å gi ham de beste responser ved hjelp av bare noen nøkkelord (tilsvarende hvordan søk fungerer på nettet i dag). Vårt mål med respons-genereringssystemet er å redusere stille gapet i kommunikasjon ovenfor og aktivere Peter og fremtidige brukere av ACAT til å kommunisere i et tempo som føles mer “naturleg”.

Du har også snakket om viktigheten av gjennomsiktighet i AI, hvor stort er dette problemet?

Det er et stort problem, spesielt når det brukes i beslutningssystemer eller menneske-AI-samarbeidssystemer. For eksempel, i tilfelle Peters assistive system, må vi forstå hva som fører til at systemet gjør disse anbefalingene og hvordan å påvirke læringen av dette systemet for å mer nøyaktig uttrykke hans ideer.

I det større sammenheng av beslutningssystemer, enten det er å hjelpe med diagnose basert på medisinske bilder eller å gi anbefalinger om å gi lån, må AI-systemer gi menneskelig tolkbar informasjon om hvordan de kom til disse beslutningene, hvilke attributter eller funksjoner var mest påvirkende for denne beslutningen, hva er systemets tillit til den inferansen som er gjort, osv. Dette øker tillit til AI-systemene og aktiverer bedre samarbeid mellom mennesker og AI i blandede beslutningsscenarier.

AI-forvrengning, spesielt når det gjelder rasisme og seksisme, er et stort problem, men hvordan identifiserer du andre typer forvrengning når du ikke vet hva du leter etter?

Det er et svært vanskelig problem og et som ikke kan løses med teknologi alene. Vi må bringe mer mangfold inn i utviklingen av AI-systemer (rasemessig, kjønn, kultur, fysisk evne osv.). Dette er tydeligvis et stort gap i befolkningen som bygger disse AI-systemene i dag. I tillegg er det kritisk å ha multidisiplinære team engasjert i definisjonen og utviklingen av disse systemene, å bringe inn samfunnsvitenskap, filosofi, psykologi, etikk og politikk til bordet (ikke bare datavitenskap), og å engasjere seg i spørsmålsprosessen i sammenheng med de spesifikke prosjektene og problemene.

Du har snakket tidligere om å bruke AI til å forsterke menneskelig potensiale. Hva er noen områder som viser mest løfte for denne forsterkningen av menneskelig potensiale?

Et åpenbart område er å aktivere mennesker med funksjonsnedsettelse til å leve mer uavhengig, å kommunisere med kjære og å fortsette å skape og bidra til samfunnet. Jeg ser et stort potensiale i utdanning, i å forstå studentengasjement og tilpasse læringserfaringen til den enkeltes behov og evner til å forbedre engasjement, aktivere lærere med denne kunnskapen og forbedre læringresultater. Ulikheten i utdanning i dag er så dypt og det er et sted for AI til å hjelpe med å redusere noen av denne ulikheten hvis vi gjør det riktig. Det er endeløse muligheter for AI til å bringe mye verdi ved å skape menneske-AI-samarbeidssystemer i mange sektorer (helse, produksjon osv) fordi det mennesker og AI bringer til bord er meget komplementært. For at dette skal skje, trenger vi innovasjon på krysningspunktet mellom samfunnsvitenskap, HCI og AI. Robust multi-modal persepsjon, kontekstbevissthet, læring fra begrenset data, fysisk plassert HCI og tolkbarhet er noen av de viktigste utfordringene vi må fokusere på for å bringe denne visjonen til virkeligheten.

Du har også snakket om hvor viktig det er med følelsesgjenkjenning i fremtiden for AI? Hvorfor bør AI-industrien fokusere mer på dette forskningsområdet?

Følelsesgjenkjenning er en nøkkelkapasitet for menneske-AI-systemer av flere grunner. En aspekt er at menneskelige følelser tilbyr nøkkelkontekst for et proaktivt system til å forstå før det kan handle.

Enda viktigere er at slike systemer må fortsette å lære i vill natur og tilpasse seg basert på samhandling med brukere, og mens direkte tilbakemelding er en nøkkel signal for læring, er indirekte signaler veldig viktige og de er gratis (mindre arbeid for brukeren). For eksempel kan en digital assistent lære mye fra frustrasjonen i en brukers stemme og bruke det som en tilbakemeldingssignal for å lære hva å gjøre i fremtiden, i stedet for å spørre brukeren om tilbakemelding hver gang. Denne informasjonen kan brukes for aktivt lærende AI-systemer til å fortsette å forbedre seg over tid.

Er det noe annet du ønsker å dele om hva du arbeider med på Anticipatory Computing Lab eller andre problemstillinger vi har diskutert?

Når vi bygger assistive systemer, må vi virkelig tenke på hvordan å bygge disse systemene på en ansvarlig måte og hvordan å aktivere mennesker til å forstå hva informasjon som samles inn og hvordan å kontrollere disse systemene på en praktisk måte. Som AI-forskere er vi ofte fascinert av data og ønsker å ha så mye data som mulig for å forbedre disse systemene, men det er en avveining mellom typen og mengden data vi ønsker og brukerens personvern. Vi må virkelig begrense datamengden vi samler inn til det som absolutt er nødvendig for å utføre inferenstasken, gjøre brukerne klar over eksakt hva data vi samler inn og aktivere dem til å justere denne avveiningen på meningsfulle og brukervennlige måter.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.