tynkä Yaron Singer, Robust Intelligencen toimitusjohtaja ja tietojenkäsittelytieteen professori Harvardin yliopistossa - Haastattelusarja - Unite.AI
Liity verkostomme!

Haastattelut

Yaron Singer, Robust Intelligencen toimitusjohtaja ja tietojenkäsittelytieteen professori Harvardin yliopistossa - Haastattelusarja

mm

Julkaistu

 on

Yaron Singer on yhtiön toimitusjohtaja Vankka älykkyys sekä tietojenkäsittelytieteen ja sovelletun matematiikan professori Harvardissa. Yaron tunnetaan läpimurtotuloksistaan ​​koneoppimisessa, algoritmeissa ja optimoinnissa. Aiemmin Yaron työskenteli Google Researchissä ja suoritti tohtorin tutkinnon UC Berkeleystä.

Mikä alun perin houkutteli sinua tietojenkäsittelytieteen ja koneoppimisen alalla?

Matkani alkoi matematiikasta, joka johti minut tietojenkäsittelytieteeseen, joka johdatti minut koneoppimisen tielle. Matematiikka herätti aluksi kiinnostukseni, koska sen aksiomaattinen järjestelmä antoi minulle mahdollisuuden luoda uusia maailmoja. Tietojenkäsittelytieteen avulla opin eksistentiaalisia todisteita, mutta myös niiden takana olevia algoritmeja. Luovuudesta katsottuna tietojenkäsittelytiede on rajojen piirtämistä sille, mitä voimme tehdä ja mitä emme voi tehdä.

Kiinnostukseni koneoppimista kohtaan on aina perustunut kiinnostukseen todellista dataa kohtaan, melkein sen fyysiseen puoleen. Ottaa asioita todellisesta maailmasta ja mallintaa niistä jotain merkityksellistä. Voisimme kirjaimellisesti suunnitella paremman maailman mielekkään mallinnuksen avulla. Joten matematiikka antoi minulle perustan asioiden todistamiseen, tietojenkäsittelytiede auttaa minua näkemään, mitä voidaan tehdä ja mitä ei, ja koneoppimisen avulla voin mallintaa näitä käsitteitä maailmassa.

Viime aikoihin asti olit tietojenkäsittelytieteen ja sovelletun matematiikan professori Harvardin yliopistossa. Mitkä olivat tärkeimmät huomiosi tästä kokemuksesta?

Suurin huomioni Harvardin tiedekunnan jäsenenä on, että se kehittää ruokahalua tehdä suuria asioita. Harvardissa on perinteisesti pieni tiedekunta, ja tenure track -henkilökunnan odotukset ovat suurien ongelmien ratkaiseminen ja uusien alojen luominen. Sinun täytyy olla rohkea. Tämä on loppujen lopuksi loistava valmistelu luokkaa luovan startup-yrityksen käynnistämiselle, joka määrittelee uuden tilan. En välttämättä suosittele Harvardin toimikauden läpikäyntiä ensin – mutta jos selviät siitä, startupin rakentaminen on helpompaa.

Voisitko kuvailla "aha"-hetkeäsi, jolloin tajusit, että kehittyneet tekoälyjärjestelmät ovat alttiita huonoille tiedoille, joilla on mahdollisesti kauaskantoisia seurauksia?

Kun olin jatko-opiskelija UC Berkeleyssä, otin hetken lomaa tehdäkseni startupin, joka rakensi koneoppimismalleja sosiaalisten verkostojen markkinointiin. Tämä tapahtui vuonna 2010. Meillä oli valtavat määrät dataa sosiaalisesta mediasta, ja koodasimme kaikki mallit tyhjästä. Taloudelliset vaikutukset jälleenmyyjille olivat varsin merkittävät, joten seurasimme mallien suorituskykyä tiiviisti. Koska käytimme sosiaalisen median dataa, syötteessä oli paljon virheitä sekä ajautumista. Näimme, että hyvin pienet virheet johtivat suuriin muutoksiin mallin tuotossa ja voivat johtaa huonoon taloudelliseen lopputulokseen tuotetta käyttäville jälleenmyyjille.

Kun siirryin työskentelemään Google+ -palvelussa (meille, jotka muistavat), näin täsmälleen samat vaikutukset. Vielä dramaattisempaa on se, että AdWordsin kaltaisissa järjestelmissä, jotka tekivät ennusteita todennäköisyydestä, että ihmiset napsauttavat mainosta avainsanojen perusteella, huomasimme, että pienet virheet mallin syötteessä johtavat erittäin huonoihin ennusteisiin. Kun näet tämän ongelman Googlen mittakaavassa, ymmärrät, että ongelma on yleinen.

Nämä kokemukset muovasivat voimakkaasti tutkimukseni painopistettä, ja vietin aikani Harvardissa tutkiessani, miksi tekoälymallit tekevät virheitä ja mikä tärkeintä, kuinka suunnitella algoritmeja, jotka voivat estää malleja tekemästä virheitä. Tämä tietysti johti enemmän "aha" hetkiin ja lopulta Robust Intelligencen luomiseen.

Voisitko jakaa Robust Intelligencen taustalla olevan tarinan?

Robust Intelligence aloitti tutkimuksella siitä, mikä alun perin oli teoreettinen ongelma: mitkä ovat takeet tekoälymalleja käyttäville päätöksille. Kojin oli opiskelija Harvardissa, ja työskentelimme yhdessä kirjoittamalla aluksi tutkimuspapereita. Joten se alkaa kirjoittamalla papereita, joissa hahmotellaan mikä on pohjimmiltaan mahdollista ja mahdotonta, teoreettisesti. Nämä tulokset jatkoivat myöhemmin ohjelmaa, jolla suunniteltiin algoritmeja ja malleja, jotka kestävät tekoälyvirheitä. Rakennamme sitten järjestelmiä, jotka voivat suorittaa näitä algoritmeja käytännössä. Sen jälkeen yrityksen perustaminen, jossa organisaatiot voisivat käyttää tällaista järjestelmää, oli luonnollinen seuraava askel.

Monet Robust Intelligencen käsittelemistä ongelmista ovat hiljaisia ​​virheitä, mitä ne ovat ja mikä tekee niistä niin vaarallisia?

Ennen kuin annat teknisen määritelmän hiljaisille virheille, kannattaa ottaa askel taaksepäin ja ymmärtää, miksi meidän pitäisi ylipäätään välittää siitä, että tekoäly tekee virheitä. Syy, miksi välitämme tekoälymallien tekemisestä virheisiin, ovat näiden virheiden seuraukset. Maailmamme käyttää tekoälyä kriittisten päätösten automatisointiin: kuka saa yrityslainan ja millä korolla, kuka sai sairausvakuutuksen ja millä korolla, millä kaupunginosilla poliisipartio, kuka on todennäköisimmin paras ehdokas työhön, miten meidän pitäisi järjestää lentokenttien turvallisuus ja niin edelleen. Se, että tekoälymallit ovat erittäin virhealttiita, tarkoittaa, että näiden kriittisten päätösten automatisoinnissa perimme suuren määrän riskejä. Robust Intelligencessä kutsumme tätä "AI Riskiksi" ja tehtävämme yrityksessä on eliminoida tekoälyriski.

Hiljaiset virheet ovat tekoälymallien virheitä, joissa AI-malli vastaanottaa syötteen ja tuottaa ennusteen tai päätöksen, joka on väärä tai puolueellinen tulosteena. Pinnalla katsottuna järjestelmän kannalta kaikki näyttää siis olevan kunnossa, koska tekoälymalli tekee mitä sen pitäisi tehdä toiminnallisesta näkökulmasta. Mutta ennustus tai päätös on virheellinen. Nämä virheet ovat hiljaisia, koska järjestelmä ei tiedä, että virhe on olemassa. Tämä voi olla paljon pahempaa kuin tapaus, jossa tekoälymalli ei tuota tulosta, koska voi kestää kauan ennen kuin organisaatiot ymmärtävät, että heidän tekoälyjärjestelmänsä on viallinen. Sitten tekoälyriskistä tulee tekoälyn epäonnistuminen, jolla voi olla vakavia seurauksia.

Robust Intelligence on pohjimmiltaan suunnitellut tekoälypalomuurin, jota aiemmin pidettiin mahdottomana. Miksi tämä on niin tekninen haaste?

Yksi syy tekoälyn palomuurille on tällainen haaste, koska se on vastoin ML-yhteisön paradigmaa. ML-yhteisön edellinen paradigma on ollut, että virheiden poistamiseksi on syötettävä enemmän dataa, myös huonoa dataa malleihin. Näin mallit kouluttavat itseään ja oppivat korjaamaan virheet itse. Tämän lähestymistavan ongelmana on, että se saa mallin tarkkuuden laskemaan dramaattisesti. Esimerkiksi kuvien tunnetuimmat tulokset saavat tekoälymallin tarkkuuden putoamaan 98.5 %:sta noin 37 %:iin.

AI-palomuuri tarjoaa erilaisen ratkaisun. Erotamme virheen tunnistamisen ongelman ennusteen luomisen roolista, mikä tarkoittaa, että palomuuri voi keskittyä yhteen tiettyyn tehtävään: määrittää, tuottaako tietopiste virheellisen ennusteen.

Tämä oli sinänsä haaste, koska ennusteen antaminen yhdestä datapisteestä oli vaikeaa. On monia syitä, miksi mallit tekevät virheitä, joten tekniikan rakentaminen, joka voi ennustaa nämä virheet, ei ollut helppo tehtävä. Olemme erittäin onnekkaita, että meillä on insinöörit.

Kuinka järjestelmä voi auttaa estämään tekoälyn harhaa?

Mallin harha johtuu ristiriidoista niiden tietojen välillä, joihin malli on koulutettu, ja niiden tietojen välillä, joita se käyttää ennusteiden tekemiseen. Palatakseni tekoälyriskiin, harha on suuri ongelma, joka johtuu hiljaisista virheistä. Tämä koskee esimerkiksi usein aliedustettuja väestöryhmiä. Mallissa voi olla harhaa, koska se on nähnyt vähemmän dataa kyseisestä populaatiosta, mikä vaikuttaa dramaattisesti mallin suorituskykyyn ja sen ennusteiden tarkkuuteen. Tekoälypalomuuri voi varoittaa organisaatioita näistä tietojen eroista ja auttaa mallia tekemään oikeita päätöksiä.

Mitä muita riskejä organisaatioille on, joita tekoälypalomuuri auttaa estämään?

Jokainen yritys, joka käyttää tekoälyä päätösten, erityisesti kriittisten päätösten, automatisointiin, lisää automaattisesti riskin. Virheelliset tiedot voivat olla niin vähäisiä kuin nollan syöttäminen ykkösen sijasta ja silti johtaa merkittäviin seurauksiin. Olipa riskinä virheellisiä lääketieteellisiä ennusteita tai vääriä ennusteita lainaamisesta, AI Firewall auttaa organisaatioita estämään riskit kokonaan.

Onko jotain muuta, mitä haluaisit jakaa Robust Intelligencesta?

Robust Intelligence kasvaa nopeasti ja saamme paljon upeita hakijoita tehtäviin. Mutta jotain, jota haluan todella korostaa hakemista harkitseville ihmisille, on se, että tärkein ominaisuus, jota hakijoilta etsimme, on heidän intohimonsa tehtävää kohtaan. Tapaamme monia ehdokkaita, jotka ovat teknisesti vahvoja, joten on todella tärkeää ymmärtää, ovatko he todella intohimoisia tekoälyriskin poistamiseen, jotta maailmasta tulisi turvallisempi ja parempi paikka.

Maailmassa, johon olemme menossa, monet ihmisten tällä hetkellä tekemät päätökset automatisoidaan. Pidimme siitä tai emme, se on tosiasia. Tämän vuoksi me kaikki Robust Intelligencessä haluamme, että automaattiset päätökset tehdään vastuullisesti. Joten jokainen, joka on innostunut vaikuttamisesta ja ymmärtää, miten tämä voi vaikuttaa ihmisten elämään, on ehdokas, jota etsimme Robust Intelligence -järjestöön. Sitä intohimoa me etsimme. Etsimme ihmisiä, jotka luovat tämän teknologian, jota koko maailma käyttää.

Kiitos upeasta haastattelusta, nautin näkemyksistäsi tekoälyn harhaantumisen estämisestä ja tekoälypalomuurin tarpeesta. Lukijoiden, jotka haluavat lisätietoja, kannattaa käydä Vankka älykkyys.

Unite.AI:n perustajaosakas ja jäsen Forbes Technology Council, Antoine on a futurist joka on intohimoinen tekoälyn ja robotiikan tulevaisuudesta.

Hän on myös perustaja Securities.io, verkkosivusto, joka keskittyy investoimaan häiritsevään teknologiaan.