Connect with us

Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Haastattelu

Aivo–kone-rajapinta

Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Haastattelu

mm

Lama Nachman, on Intel Fellow & Director of Anticipatory Computing Lab. Lama on parhaiten tunnettu työstään Prof. Stephen Hawkingin kanssa, ja hän oli avainasemassa rakentamassa tietokonejärjestelmää, joka auttoi Prof. Stephen Hawkingia viestimään. Tänään hän auttaa brittiläistä robotti-insinööriä Dr. Peter Scott-Morgania viestimään. Vuonna 2017 Dr. Peter Scott-Morgan sai diagnosin motorisen hermoston taudista (MND), joka tunnetaan myös ALS: nä tai Lou Gehrigin taudina. MND hyökkää aivoihin ja hermoihin ja lopulta halvaannuttaa kaikki lihakset, myös ne, jotka mahdollistavat hengittämisen ja nielamisen.

Dr. Peter Scott-Morgan on kerran lausunut: “Jatkan evoluutiota, kuolen ihmisenä, elän kyborgina.”

Mikä veti sinut AI: n puoleen?

Olen aina ollut kiinnostunut siitä, että teknologia voi olla suuri tasaaja. Kun se kehitetään vastuullisesti, sillä on potentiaalia tasoittaa pelikenttää, käsitellä sosiaalisia epäkohtia ja vahvistaa ihmisen potentiaalia. Tämä on erityisen totta AI: n kanssa. Vaikka suurin osa teollisuuden keskustelusta AI: sta ja ihmisistä asettaa suhteen kahden välille vastakkain, uskon, että on olemassa ainutlaatuisia asioita, joita koneet ja ihmiset ovat hyviä, joten suosin tulevaisuuden näkemistä ihmisen ja AI: n yhteistyön kautta, ei kilpailun kautta. Johtan Anticipatory Computing Lab -tutkimuslaboratoriota Intel Labsissa, jossa kaikissa tutkimuspyrkimyksissämme on yksittäinen tavoite: toimittaa laskennan innovaatioita, jotka skaalautuvat laajaan sosiaaliseen vaikutukseen. Ottaen huomioon, kuinka yleinen AI on jo ja sen kasvava jalanjälki jokaisessa elämän osa-alueessa, näen valtavan luvun tutkimuksessa, jonka tiimini tekee AI: n tekemiseksi helpommin saataville, kontekstia tietoisemmaksi, vastuullisemmaksi ja lopulta tuomalla teknologiaratkaisuja laajamittaisesti avustamaan ihmisiä todellisessa maailmassa.

Olet työskennellyt läheisesti legendanmainen fyysikko Prof. Stephen Hawkingin kanssa luodaksesi AI-järjestelmän, joka auttoi häntä viestimään ja tehtävissä, jotka useimmat meistä pitävät arkisina. Mitkä olivat joitain näistä arkisista tehtävistä?

Työskennellä Prof. Stephen Hawkingin kanssa oli elämäni merkittävin ja haasteellisin tehtävä. Se ruokki sielua ja osoitti todella, miten teknologia voi parantaa ihmisten elämää. Hän eli ALS: n kanssa, degeneratiivinen hermostosairaus, joka riistää potilaan yksinkertaisimmat toiminnot ajan myötä. Vuonna 2011 aloimme työskentelemään hänen kanssaan tutkiaksemme, miten parantaa avustavaa tietokonejärjestelmää, joka mahdollisti hänen kanssaan vuorovaikutusta. Stephen käytti tietokonettaan puhumiseen, kuten me kaikki, muokkaamiseen, verkkoselaamiseen, luennoimiseen, sähköpostien lukuun / kirjoittamiseen jne. Teknologia mahdollisti Stephenin jatkaa aktiivista osallistumista ja innoittamista maailmaa vuosien ajan hänen fyysisten kykyjensä nopean heikentymisen jälkeen. Se – minulle – on teknologian merkityksellinen vaikutus jonkun elämään!

Mitkä olivat joitain avainnäkemyksiä, jotka otit pois työstäsi Prof. Stephen Hawkingin kanssa?

Meidän tietokoneen näyttö on todella ovi maailmaan. Jos ihmiset voivat hallita tietokoneitaan, he voivat hallita elämänsä kaikkia osa-alueita (sisällön kuluttaminen, digitaalisen maailman käyttäminen, fyysisen ympäristön hallitseminen, pyörätuolin ohjaaminen jne.). Ihmisille, joilla on kyky puhua, puheentunnistuksen edistys mahdollistaa heidän täydellisen hallinnan laitteistaan (ja suurelta osin heidän fyysistä ympäristöään). Niille, jotka eivät pysty puhumaan eivätkä pysty liikkumaan, on todella estynyt kyky harjoittaa itsenäisyyttä. Kokemus Prof. Hawkingin kanssa opetti minulle, että avustavien teknologioiden alustoilla on oltava sovellettavissa yksittäisen käyttäjän tarpeisiin. Esimerkiksi emme voi olettaa, että yksinkertainen ratkaisu toimisi ALS-potilaiden kanssa, koska tauti vaikuttaa eri kykyihin potilaiden välillä. Siksi rakensimme ACAT: n (Assistive Context Aware Toolkit), modulaarisen, avoimen lähdekoodin ohjelmistokehyksen, joka mahdollistaa kehittäjille innovaatiota ja eri kykyjen rakentamisen sen päälle.

Otin myös opiksi, että on tärkeää ymmärtää jokaisen käyttäjän mukavuuden kynnyksen antamisesta hallinnan luovuttamiseksi tehokkuuden vuoksi (tämä ei rajoitu vain vammaisihin). Esimerkiksi AI voi olla kykenevä ottamaan hallinnan pois käyttäjältä tehdäkseen tehtävän nopeammin tai tehokkaammin, mutta jokainen käyttäjä on eri riskinottokykyinen. Jotkut ovat valmiit antamaan enemmän hallintaa, kun taas toiset haluavat pitää enemmän sitä. Ymmärtäminen näistä kynnyksistä ja siitä, kuinka pitkälle ihmiset ovat valmiit menemään, vaikuttaa suuresti siihen, miten nämä järjestelmät voidaan suunnitella. Meidän on uudelleen arvioitava järjestelmien suunnittelua käyttäjän mukavuuden tasolla eikä pelkästään objektiivisilla tehokkuuden ja tarkin mitoituksilla.

Viimeaikaisemmin olet työskennellyt kuuluisan brittiläisen tutkijan Peter Scott-Morganin kanssa, joka kärsii motorisesta hermostosairauudesta ja pyrkii tulemaan maailman ensimmäiseksi täysivertaiseksi kyborgiksi. Mitkä ovat joitain Peterin kunnianhimoisia tavoitteita?

Yksi AAC: n (avustava ja täydentävä viestintä) ongelmista on “hiljaisuuden aukko”. Monet ALS-potilaat (mukaan lukien Peter) käyttävät tarkastelukontrollia valitakseen kirjaimia / sanoja ruudulla puhuakseen muiden kanssa. Tämä johtaa pitkään hiljaisuuteen, kun joku lopettaa lauseensa, kun henkilö tarkastelee tietokonettaan ja aloittaa kirjaimien ja sanojen muodostamisen vastaamaan. Peter halusi vähentää tätä hiljaisuuden aukkoa mahdollisimman paljon ja palauttaa sanallisen spontaaniuden viestintään. Hän haluaa myös säilyttää äänensä ja persoonallisuutensa ja käyttää teksti-puhetta, joka ilmaisee hänen ainutlaatuista tyyliään (esim. Hänen ilmansa, nopea äly, tunteensa).

Brittiläinen robotti-insinööri Dr. Peter Scott-Morgan, jolla on motorinen hermostosairaus, aloitti vuonna 2019 sarjan toimia, joilla hänen elämäänsä voitiin jatkaa teknologian avulla. (Krediitti: Cardiff Productions)

Voitko keskustella joistakin tekniikoista, jotka parhaillaan käytetään avustamaan Dr. Peter Scott-Morgania?

Peter käyttää ACAT: ia (Assistive Context Aware Toolkit), alustaa, jonka rakensimme työskennellessäni Dr. Hawkingin kanssa ja myöhemmin julkaistimme avoimeen lähdekoodiin. Toisin kuin Dr. Hawking, joka käytti poskensa lihaksia “syötteen laukaisimeksi” hallitakseen kirjaimia ruudulla, Peter käyttää tarkastelukontrollia (kyky, jonka lisäsimme olemassaolevaan ACAT: iin) puhuakseen ja hallitakseen tietokonettaan, joka liittyy teksti-puhe-ratkaisuun CereProc -yhtiöstä, joka on räätälöity hänen tarpeisiinsa ja mahdollistaa hänelle eri emotionaalisten / painotusten ilmaisemisen. Järjestelmä hallitsee myös hänen avatarinsa, joka on mukautettu hänelle.

Työskentelemme parhaillaan ACAT: n vastausgenerointijärjestelmän parissa, joka mahdollistaa Peterin vuorovaikutuksen järjestelmän kanssa korkeamman tason AI-kapasiteetin avulla. Tämä järjestelmä kuuntelee Peterin keskusteluja ajan myötä ja ehdottaa vastauksia, joita Peter voi valita ruudulta. Tavoitteena on, että AI-järjestelmä oppii Peterin tietojen perusteella ja mahdollistaa hänelle “työntää” järjestelmää antamalla vain joitain avainsanoja (samoin kuin hakukoneet toimivat verkossa tänään). Tavoitteemme vastausgenerointijärjestelmällä on vähentää hiljaisuuden aukkoa viestinnässä ja antaa Peterille ja tuleville ACAT: n käyttäjille mahdollisuus viestiä tahdissa, joka tuntuu enemmän “luonnolliselta”.

Olet puhunut myös avoimuuden tärkeydestä AI: ssä, kuinka suuri ongelma tämä on?

Se on suuri ongelma, erityisesti kun se on otettu päätöksentekojärjestelmiin tai ihmisen ja AI: n yhteistyöjärjestelmiin. Esimerkiksi Peterin avustusjärjestelmässä meidän on ymmärrettävä, mitä aiheuttaa järjestelmän tekemät suositukset ja miten vaikuttaa järjestelmän oppimiseen tarkoituksenmukaisemmin ilmaisemaan hänen ajatuksiaan.

Laajemmassa päätöksentekijärjestelmien yhteydessä, olipa kyseessä sitten avustaminen lääketieteellisen kuvantamisen perusteella tehtävissä diagnooseissa tai suosittelemisissa lainojen myöntämisestä, AI-järjestelmiä on pyydettävä antamaan ihmisten tulkitsema tietoa siitä, miten ne päätyivät näihin päätöksiin, mitkä ominaisuudet tai piirteet olivat vaikuttavimpia päätökseen, mitä luottamusta järjestelmällä on tehty johtopäätökseen jne. Tämä lisää luottamusta AI-järjestelmiin ja mahdollistaa paremman yhteistyön ihmisten ja AI: n välillä sekaisin päätöksentekijätapauksissa.

AI-harhaan erityisesti rodullisuuden ja sukupuolisuuden suhteen on suuri ongelma, mutta miten tunnistat muita tyyppejä harhaa, kun et tiedä, mitä harhaa etsit?

Se on erittäin vaikea ongelma, ja sitä ei voida ratkaista pelkästään teknologian avulla. Meidän on tuotava enemmän monimuotoisuutta AI-järjestelmien kehitykseen (rodullinen, sukupuolinen, kulttuurinen, fyysinen kyky jne.). Tämä on ilmeinen aukko nykyisessä väestössä, joka rakentaa näitä AI-järjestelmiä. Lisäksi on kriittistä, että monitieteiset tiimit osallistuvat näiden järjestelmien määrittelyyn ja kehitykseen, tuomalla sosiologiaa, filosofiaa, psykologiaa, etiikkaa ja politiikkaa pöydän ääreen (ei pelkästään tietotekniikkaa), ja osallistuminen tutkimusprosessiin tietyissä projekteissa ja ongelmissa.

Olet puhunut aiemmin AI: n käytöstä ihmisen potentiaalin vahvistamiseksi. Mitkä ovat alueita, jotka osoittavat suurimman luvun tämän potentiaalin vahvistamiseksi?

Ilmeinen alue on mahdollistaa vammautuneiden henkilöiden elämiseen itsenäisemmin, viestimiseen rakastavien kanssa ja jatkamiseen luomisessa ja osallistumisessa yhteiskuntaan. Näen suuren potentiaalin koulutuksessa, ymmärtäessäsi opiskelijoiden sitoutumista ja räätälöidessäsi oppimiskokemusta yksilöllisten opiskelijoiden tarpeisiin ja kykyihin, parantaen sitoutumista, valtuuttaen opettajia tällä tiedolla ja parantaen oppimistuloksia. Koulutuksessa vallitseva epätasa-arvo on niin suuri, ja on paikka AI: lle auttaa vähentämään tätä epätasa-arvoa, jos teemme sen oikein. On loputtomia mahdollisuuksia AI: lle tuoda arvoa luomalla ihmisen ja AI: n yhteistyöjärjestelmiä monilla aloilla (terveydenhuolto, valmistus jne.), koska mitä ihmiset ja AI tuovat pöydälle, on erittäin täydentävää. Tämän toteuttamiseksi tarvitsemme innovaatiota sosiaalitieteiden, ihmisen ja tietokoneen vuorovaikutuksen ja AI: n leikkauspisteessä. Vankka monimodaalinen havainnointi, kontekstiaWare, oppiminen rajoitetusta datasta, fyysisesti sijoitettu ihmisen ja tietokoneen vuorovaikutus ja tulkitseminen ovat joitain avainhaasteita, joihin meidän on keskityttävä, jotta voimme toteuttaa tämän visio.

Olet myös puhunut tunteiden tunnistamisen tärkeydestä AI: n tulevaisuudelle? Miksi AI-teollisuuden on keskityttävä enemmän tämän tutkimuksen alueeseen?

Tunteiden tunnistaminen on avainominaisuus ihmisen ja AI-järjestelmien kannalta useista syistä. Yksi näkökulma on, että ihmisen tunteet tarjoavat avainkontekstin mille tahansa proaktiolle järjestelmälle ymmärtääkseen ennen toimimista.

Tärkeämpää on, että nämä järjestelmät tarvitsevat jatkuvasti oppimista villinä ja mukautumista vuorovaikutuksiin käyttäjien kanssa, ja vaikka suora palaute on tärkeä signaali oppimiselle, epäsuorat signaalit ovat erittäin tärkeitä, ja ne ovat ilmaisia (vähemmän työtä käyttäjälle). Esimerkiksi digitaalinen avustaja voi oppia paljon käyttäjän äänen frustraatiosta ja käyttää sitä palautesignaalina oppimiseen, mitä tehdä tulevaisuudessa, sen sijaan, että pyytäisi käyttäjältä palautetta joka kerta. Tätä tietoa voidaan käyttää aktiivisille AI-järjestelmille jatkamaan parantamista ajan myötä.

Onko mitään muuta, mitä haluaisit jakaa siitä, mitä teet Anticipatory Computing Labissa tai muissa aiheissa, joista olemme keskustelleet?

Rakentaessamme avustavia järjestelmiä, meidän on todella ajateltava, miten rakentaa nämä järjestelmät vastuullisesti ja miten mahdollistaa ihmisille ymmärtää, mitä tietoja kerätään ja miten hallita näitä järjestelmiä käytännöllisellä tavalla. AI-tutkijoina olemme usein lumoutuneita datasta ja haluamme mahdollisimman paljon tietoja parantamaan näitä järjestelmiä, mutta on tasapaino datan tyypin ja määrän välillä, jonka haluamme, ja käyttäjän yksityisyyden välillä. Meidän on rajoitettava kerättävää tietoa siihen, mikä on ehdottomasti tarpeen suorittaa johtopäätöksen, tehtävä käyttäjille selväksi, mitä tietoja keräämme, ja mahdollistamaan heidän säätää tätä tasapainoa merkityksellisillä ja käytettävissä olevilla tavoilla.

Kiitos hienosta haastattelusta, lukijat, jotka haluavat oppia enemmän tästä projektista, kannattaa lukea artikkeli Intelin Lama Nachman ja Peter Scott-Morgan: Kaksi tutkijaa, yksi “ihmiskyborgi”.

Intelin Anticipatory Computing Lab -tiimi, joka kehitti Assistive Context-Aware Toolkit, sisältää (vasemmalta) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman ja Pete Denman. Kuvaan ei sisälly Bruna Girvent, Saurav Sahay ja Shachi Kumar. (Krediitti: Lama Nachman)

Antoine on visionäärinen johtaja ja Unite.AI:n perustajakumppani, jota ohjaa horjumaton intohimo muokata ja edistää tulevaisuuden tekoälyä ja robottiikkaa. Sarjayrittäjänä hän uskoo, että tekoäly tulee olemaan yhtä mullistava yhteiskunnalle kuin sähkö, ja hänestä usein kuuluu ylistyksiä mullistavien teknologioiden ja AGI:n mahdollisuuksista.
Hänen ollessaan futuristi, hän on omistautunut tutkimiseen, miten nämä innovaatiot muokkaavat maailmaamme. Lisäksi hän on Securities.io:n perustaja, joka on alusta, joka keskittyy sijoittamiseen uraauurtaviin teknologioihin, jotka määrittelevät uudelleen tulevaisuuden ja muokkaavat koko sektoreita.