cung Yaron Singer, CEO në Robust Intelligence & Profesor i Shkencave Kompjuterike në Universitetin e Harvardit - Seria e Intervistave - Unite.AI
Lidhu me ne

intervistat

Yaron Singer, CEO në Robust Intelligence & Profesor i Shkencave Kompjuterike në Universitetin e Harvardit – Seria e Intervistave

mm

Publikuar

 on

Yaron Singer është CEO i Inteligjencë e fortë dhe Profesor i Shkencave Kompjuterike dhe Matematikës së Aplikuar në Harvard. Yaron është i njohur për rezultatet e reja në mësimin e makinerive, algoritmet dhe optimizimin. Më parë, Yaron ka punuar në Google Research dhe ka marrë doktoraturën nga UC Berkeley.

Çfarë ju tërhoqi fillimisht në fushën e shkencave kompjuterike dhe të mësimit të makinerive?

Udhëtimi im filloi me matematikën, e cila më çoi në shkenca kompjuterike, e cila më vendosi në rrugën drejt mësimit të makinerive. Matematika fillimisht tërhoqi interesin tim sepse sistemi i saj aksiomatik më dha aftësinë për të krijuar botë të reja. Me shkencat kompjuterike mësova për provat ekzistenciale, por edhe për algoritmet pas tyre. Nga një perspektivë krijuese, shkenca kompjuterike është tërheqja e kufijve midis asaj që ne mund dhe nuk mund të bëjmë.

Interesi im për mësimin e makinerive ka qenë gjithmonë i rrënjosur në interesin për të dhënat reale, pothuajse aspektin fizik të tyre. Marrja e gjërave nga bota reale dhe modelimi i tyre për të bërë diçka kuptimplote. Ne mund të krijonim fjalë për fjalë një botë më të mirë përmes modelimit kuptimplotë. Kështu që matematika më dha një bazë për të provuar gjërat, shkenca kompjuterike më ndihmon të shoh se çfarë mund dhe nuk mund të bëhet, dhe mësimi i makinerive më mundëson t'i modeloj këto koncepte në botë.

Deri kohët e fundit keni qenë profesor i Shkencave Kompjuterike dhe Matematikës së Aplikuar në Universitetin e Harvardit, cilat ishin disa nga arritjet tuaja kryesore nga kjo përvojë?

Përparimi im më i madh nga të qenit anëtar i fakultetit në Harvard është se ai zhvillon oreksin e dikujt për të bërë gjëra të mëdha. Harvardi ka tradicionalisht një fakultet të vogël dhe pritshmëria nga fakulteti i drejtimit të mandatit është të trajtojë probleme të mëdha dhe të krijojë fusha të reja. Duhet të jesh i guximshëm. Kjo përfundon të jetë një përgatitje e shkëlqyeshme për nisjen e një startup-i që krijon kategori që përcakton një hapësirë ​​të re. Unë nuk rekomandoj domosdoshmërisht të kaloni fillimisht rrugën e qëndrimit në Harvard - por nëse i mbijetoni kësaj, ndërtimi i një startupi është më i lehtë.

A mund të përshkruani momentin tuaj 'aha' kur kuptove se sistemet e sofistikuara të AI janë të prekshme ndaj të dhënave të këqija, me disa implikime potencialisht të gjera?

Kur isha student i diplomuar në UC Berkeley, mora pak kohë për të bërë një startup që ndërtoi modele të mësimit të makinerive për marketing në rrjetet sociale. Kjo ishte në vitin 2010. Ne kishim sasi masive të të dhënave nga mediat sociale dhe i koduam të gjitha modelet nga e para. Implikimet financiare për shitësit me pakicë ishin mjaft domethënëse, kështu që ne ndoqëm nga afër performancën e modeleve. Meqenëse kemi përdorur të dhëna nga mediat sociale, ka pasur shumë gabime në hyrje, si dhe drift. Ne pamë se gabime shumë të vogla rezultuan në ndryshime të mëdha në prodhimin e modelit dhe mund të rezultonin në rezultate të këqija financiare për shitësit me pakicë që përdorin produktin.

Kur kalova në punë në Google+ (për ne që e mbajmë mend), pashë ekzaktësisht të njëjtat efekte. Në mënyrë më dramatike, në sisteme si AdWords që bënin parashikime në lidhje me gjasat që njerëzit të klikonin në një reklamë për fjalë kyçe, vumë re se gabime të vogla në të dhëna në model çojnë në parashikime shumë të dobëta. Kur e shihni këtë problem në shkallën e Google, kuptoni se problemi është universal.

Këto përvoja formësuan shumë fokusin tim të kërkimit dhe kalova kohën time në Harvard duke hetuar pse modelet e AI bëjnë gabime dhe, më e rëndësishmja, si të dizajnohen algoritme që mund të parandalojnë modelet të bëjnë gabime. Kjo, natyrisht, çoi në më shumë momente 'aha' dhe, përfundimisht, në krijimin e Inteligjencës së fuqishme.

A mund të ndani historinë e gjenezës pas Inteligjencës së fuqishme?

Inteligjenca e fortë filloi me kërkimin mbi atë që fillimisht ishte një problem teorik: cilat janë garancitë që mund të kemi për vendimet e marra duke përdorur modele të AI. Kojin ishte student në Harvard dhe ne punuam së bashku, fillimisht duke shkruar punime kërkimore. Pra, fillon me shkrimin e punimeve që përvijojnë atë që është thelbësisht e mundur dhe e pamundur, teorikisht. Këto rezultate vazhduan më vonë në një program për dizajnimin e algoritmeve dhe modeleve që janë të qëndrueshme ndaj dështimeve të AI. Më pas ndërtojmë sisteme që mund të ekzekutojnë këto algoritme në praktikë. Pas kësaj, krijimi i një kompanie ku organizatat mund të përdornin një sistem si ky ishte një hap i natyrshëm i ardhshëm.

Shumë nga çështjet që trajton Inteligjenca e fortë janë gabime të heshtura, cilat janë këto dhe çfarë i bën ato kaq të rrezikshme?

Përpara se të japim një përkufizim teknik të gabimeve të heshtura, ia vlen të bëjmë një hap prapa dhe të kuptojmë pse duhet të kujdesemi që AI të bëjë gabime në radhë të parë. Arsyeja pse ne kujdesemi që modelet e AI të bëjnë gabime janë pasojat e këtyre gabimeve. Bota jonë po përdor AI për të automatizuar vendimet kritike: kush merr një kredi biznesi dhe me çfarë norme interesi, kush merr mbulim me sigurim shëndetësor dhe me çfarë norme, cilat lagje duhet të patrullojnë policinë, kush ka më shumë gjasa të jetë një kandidat kryesor për një punë, si duhet të organizojmë sigurinë e aeroportit, e kështu me radhë. Fakti që modelet e AI janë jashtëzakonisht të prirur ndaj gabimeve do të thotë se në automatizimin e këtyre vendimeve kritike ne trashëgojmë një pjesë të madhe të rrezikut. Në Robust Intelligence ne e quajmë këtë "Rreziku AI" dhe misioni ynë në kompani është të eliminojmë rrezikun e AI.

Gabimet e heshtura janë gabime të modelit të AI ku modeli i AI merr të dhëna dhe prodhon një parashikim ose vendim që është i gabuar ose i njëanshëm si rezultat. Pra, në sipërfaqe, gjithçka për sistemin duket në rregull, në atë që modeli i AI po bën atë që supozohet të bëjë nga një këndvështrim funksional. Por parashikimi apo vendimi është i gabuar. Këto gabime janë të heshtura sepse sistemi nuk e di se ka një gabim. Kjo mund të jetë shumë më e keqe se rasti në të cilin një model i AI nuk po prodhon një rezultat, sepse mund të duhet shumë kohë që organizatat të kuptojnë se sistemi i tyre i AI është i gabuar. Më pas, rreziku i AI shndërrohet në dështime të AI të cilat mund të kenë pasoja të tmerrshme.

Robust Intelligence ka krijuar në thelb një Firewall të AI, një ide që më parë konsiderohej e pamundur. Pse është kjo një sfidë e tillë teknike?

Një arsye pse Firewall i AI është një sfidë e tillë është sepse shkon kundër paradigmës që kishte komuniteti ML. Paradigma e mëparshme e komunitetit ML ka qenë se për të zhdukur gabimet, duhet të furnizohen më shumë të dhëna, duke përfshirë të dhëna të këqija për modelet. Duke e bërë këtë, modelet do të trajnojnë veten dhe do të mësojnë se si të korrigjojnë vetë gabimet. Problemi me këtë qasje është se bën që saktësia e modelit të bjerë në mënyrë dramatike. Rezultatet më të njohura për imazhet, për shembull, bëjnë që saktësia e modelit të AI të bjerë nga 98.5% në rreth 37%.

Firewall i AI ofron një zgjidhje të ndryshme. Ne e shkëputim problemin e identifikimit të një gabimi nga roli i krijimit të një parashikimi, që do të thotë se muri i zjarrit mund të fokusohet në një detyrë specifike: të përcaktojë nëse një pikë e të dhënave do të prodhojë një parashikim të gabuar.

Kjo ishte një sfidë në vetvete për shkak të vështirësisë për të dhënë një parashikim në një pikë të vetme të të dhënave. Ka shumë arsye pse modelet bëjnë gabime, kështu që ndërtimi i një teknologjie që mund të parashikojë këto gabime nuk ishte një detyrë e lehtë. Jemi shumë me fat që kemi inxhinierët që kemi.

Si mund të ndihmojë sistemi për të parandaluar paragjykimet e AI?

Paragjykimi i modelit vjen nga një mospërputhje midis të dhënave mbi të cilat modeli është trajnuar dhe të dhënave që përdor për të bërë parashikime. Duke u kthyer te rreziku i AI, paragjykimi është një çështje kryesore që i atribuohet gabimeve të heshtura. Për shembull, kjo është shpesh një çështje me popullsi të nënpërfaqësuar. Një model mund të ketë paragjykim sepse ka parë më pak të dhëna nga ajo popullatë, gjë që do të ndikojë në mënyrë dramatike në performancën e atij modeli dhe saktësinë e parashikimeve të tij. Firewall i AI mund të paralajmërojë organizatat për këto mospërputhje të të dhënave dhe të ndihmojë modelin të marrë vendime të sakta.

Cilat janë disa nga rreziqet e tjera për organizatat që një mur zjarri i AI ndihmon në parandalimin?

Çdo kompani që përdor AI për të automatizuar vendimet, veçanërisht vendimet kritike, paraqet automatikisht rrezik. Të dhënat e këqija mund të jenë po aq të vogla sa futja e një zero në vend të një dhe gjithsesi të rezultojë në pasoja të rëndësishme. Pavarësisht nëse rreziku është parashikime të pasakta mjekësore ose parashikime të rreme për huadhënien, Firewall i AI ndihmon organizatat të parandalojnë rrezikun krejtësisht.

A ka ndonjë gjë tjetër që dëshironi të ndani në lidhje me Inteligjencën e fortë?

Inteligjenca e fuqishme po rritet me shpejtësi dhe ne po marrim shumë kandidatë të shkëlqyer që aplikojnë për pozicione. Por diçka që dua të theksoj vërtet për njerëzit që po mendojnë të aplikojnë është se cilësia më e rëndësishme që ne kërkojmë te kandidatët është pasioni i tyre për misionin. Ne takojmë shumë kandidatë që janë teknikisht të fortë, kështu që me të vërtetë bëhet fjalë për të kuptuar nëse ata janë vërtet të pasionuar për eliminimin e rrezikut të AI për ta bërë botën një vend më të sigurt dhe më të mirë.

Në botën ku po shkojmë, shumë vendime që po merren aktualisht nga njerëzit do të automatizohen. Duam apo jo, ky është një fakt. Duke pasur parasysh këtë, të gjithë ne në Robust Intelligence dëshirojmë që vendimet e automatizuara të bëhen me përgjegjësi. Pra, kushdo që është i ngazëllyer për të bërë një ndikim, i cili e kupton mënyrën se si kjo mund të ndikojë në jetën e njerëzve, është një kandidat që ne po kërkojmë për t'u bashkuar me Inteligjenca e fortë. Ne po e kërkojmë atë pasion. Ne po kërkojmë njerëzit që do të krijojnë këtë teknologji që do ta përdorë e gjithë bota.

Faleminderit për intervistën e mrekullueshme, më pëlqeu të mësova për pikëpamjet tuaja për parandalimin e paragjykimeve të AI dhe nevojën për një mur zjarri të AI, lexuesit që dëshirojnë të mësojnë më shumë duhet ta vizitojnë Inteligjencë e fortë.

Një partner themelues i unite.AI dhe një anëtar i Këshilli i Teknologjisë i Forbes, Antoine është një futurist i cili është i apasionuar pas të ardhmes së AI dhe robotikës.

Ai është gjithashtu Themeluesi i Letrat me vlerë.io, një faqe interneti që fokusohet në investimin në teknologjinë përçarëse.