stomp Yaron Singer, HUB by Robuste Intelligensie en Professor in Rekenaarwetenskap aan Harvard Universiteit - Onderhoudreeks - Unite.AI
Verbinding met ons

onderhoude

Yaron Singer, HUB by Robuste Intelligensie en Professor in Rekenaarwetenskap by Harvard Universiteit – Onderhoudreeks

mm

Gepubliseer

 on

Yaron Singer is die uitvoerende hoof van Robuuste intelligensie en Professor in Rekenaarwetenskap en Toegepaste Wiskunde aan Harvard. Yaron is bekend vir deurbraakresultate in masjienleer, algoritmes en optimalisering. Yaron het voorheen by Google Research gewerk en sy PhD aan UC Berkeley verwerf.

Wat het jou aanvanklik na die veld van rekenaarwetenskap en masjienleer aangetrek?

My reis het begin met wiskunde, wat my na rekenaarwetenskap gelei het, wat my op die pad na masjienleer geplaas het. Wiskunde het aanvanklik my belangstelling getrek omdat die aksiomatiese stelsel my die vermoë gegee het om nuwe wêrelde te skep. Met rekenaarwetenskap het ek geleer van eksistensiële bewyse, maar ook die algoritmes daaragter. Vanuit 'n kreatiewe perspektief is rekenaarwetenskap die trek van grense tussen wat ons kan en nie kan doen nie.

My belangstelling in masjienleer was nog altyd gewortel in 'n belangstelling in werklike data, amper die fisiese aspek daarvan. Om dinge uit die regte wêreld te neem en dit te modelleer om iets betekenisvol te maak. Ons kan letterlik 'n beter wêreld ontwerp deur sinvolle modellering. So wiskunde het my 'n grondslag gegee om dinge te bewys, rekenaarwetenskap help my om te sien wat gedoen kan word en wat nie gedoen kan word nie, en masjienleer stel my in staat om hierdie konsepte in die wêreld te modelleer.

Tot onlangs was jy 'n professor in Rekenaarwetenskap en Toegepaste Wiskunde aan die Harvard Universiteit, wat was 'n paar van jou belangrikste wegneemetes uit hierdie ervaring?

My grootste wegneemete van 'n fakulteitslid by Harvard is dat dit 'n mens se aptyt ontwikkel om groot dinge te doen. Harvard het tradisioneel 'n klein fakulteit, en die verwagting van 'n termynbaanfakulteit is om groot probleme aan te pak en nuwe velde te skep. Jy moet vermetel wees. Dit is uiteindelik 'n uitstekende voorbereiding vir die bekendstelling van 'n kategorie-skeppende opstart wat 'n nuwe ruimte definieer. Ek beveel nie noodwendig aan om eers deur die Harvard-termynbaan te gaan nie - maar as jy dit oorleef, is dit makliker om 'n aanvang te bou.

Kan jy jou 'aha'-oomblik beskryf toe jy besef het dat gesofistikeerde KI-stelsels kwesbaar is vir slegte data, met 'n paar potensieel verreikende implikasies?

Toe ek 'n gegradueerde student aan UC Berkeley was, het ek tyd geneem om 'n begin te doen wat masjienleermodelle vir bemarking in sosiale netwerke gebou het. Dit was terug in 2010. Ons het groot hoeveelhede data van sosiale media gehad, en ons het alle modelle van nuuts af gekodeer. Die finansiële implikasies vir kleinhandelaars was redelik beduidend, so ons het die modelle se prestasie noukeurig gevolg. Aangesien ons data van sosiale media gebruik het, was daar baie foute in die invoer, sowel as wegdrywing. Ons het gesien dat baie klein foute groot veranderinge in die modeluitset tot gevolg gehad het en kan lei tot slegte finansiële resultate vir kleinhandelaars wat die produk gebruik.

Toe ek oorgegaan het om op Google+ te werk (vir dié van ons wat onthou), het ek presies dieselfde effekte gesien. Meer dramaties, in stelsels soos AdWords wat voorspellings gemaak het oor die waarskynlikheid dat mense op 'n advertensie vir sleutelwoorde klik, het ons opgemerk dat klein foute in invoer na die model tot baie swak voorspellings lei. As jy hierdie probleem op Google-skaal sien, besef jy die probleem is universeel.

Hierdie ervarings het my navorsingsfokus sterk gevorm, en ek het my tyd by Harvard deurgebring om te ondersoek hoekom KI-modelle foute maak en, belangriker, hoe om algoritmes te ontwerp wat kan verhoed dat modelle foute maak. Dit het natuurlik gelei tot meer 'aha'-oomblikke en uiteindelik tot die skepping van Robuuste Intelligensie.

Kan jy die ontstaansverhaal agter Robuuste Intelligensie deel?

Robuuste intelligensie het begin met navorsing oor wat aanvanklik 'n teoretiese probleem was: wat is die waarborge wat ons kan hê vir besluite wat geneem word met behulp van KI-modelle. Kojin was 'n student aan Harvard, en ons het saamgewerk en aanvanklik navorsingsvraestelle geskryf. Dus, dit begin met die skryf van vraestelle wat teoreties uiteensit wat fundamenteel moontlik en onmoontlik is. Hierdie resultate het later voortgegaan na 'n program vir die ontwerp van algoritmes en modelle wat robuust is vir KI-foute. Ons bou dan stelsels wat hierdie algoritmes in die praktyk kan laat loop. Daarna was dit 'n natuurlike volgende stap om 'n maatskappy te begin waar organisasies 'n stelsel soos hierdie kon gebruik.

Baie van die kwessies wat Robuste Intelligensie aanpak, is stille foute, wat is dit en wat maak dit so gevaarlik?

Voordat ons 'n tegniese definisie van stille foute gee, is dit die moeite werd om 'n stap terug te neem en te verstaan ​​waarom ons in die eerste plek moet omgee vir KI wat foute maak. Die rede waarom ons omgee vir KI-modelle wat foute maak, is die gevolge van hierdie foute. Ons wêreld gebruik KI om kritieke besluite te outomatiseer: wie kry 'n besigheidslening en teen watter rentekoers, wie kry gesondheidsversekeringsdekking en teen watter koers, watter woonbuurte moet die polisie patrolleer, wie is heel waarskynlik 'n topkandidaat vir 'n werk, hoe moet ons lughawe-sekuriteit organiseer, ensovoorts. Die feit dat KI-modelle uiters foutgevoelig is, beteken dat ons 'n groot mate van risiko erf as ons hierdie kritieke besluite outomatiseer. By Robust Intelligence noem ons dit "KI-risiko" en ons missie in die maatskappy is om KI-risiko uit te skakel.

Stille foute is KI-modelle foute waar die KI-model insette ontvang en 'n voorspelling of besluit produseer wat verkeerd of bevooroordeeld is as 'n uitset. So, op die oog af, lyk alles vir die stelsel in orde, deurdat die KI-model vanuit 'n funksionele perspektief doen wat dit veronderstel is om te doen. Maar die voorspelling of besluit is foutief. Hierdie foute is stil omdat die stelsel nie weet dat daar 'n fout is nie. Dit kan baie erger wees as die geval waarin 'n KI-model nie 'n uitset lewer nie, want dit kan lank neem vir organisasies om te besef dat hul KI-stelsel foutief is. Dan word KI-risiko KI-mislukkings wat ernstige gevolge kan hê.

Robust Intelligence het in wese 'n AI Firewall ontwerp, 'n idee wat voorheen as onmoontlik beskou is. Hoekom is dit so 'n tegniese uitdaging?

Een rede waarom die AI Firewall so 'n uitdaging is, is omdat dit in stryd is met die paradigma wat die ML-gemeenskap gehad het. Die ML-gemeenskap se vorige paradigma was dat om foute uit te roei, 'n mens meer data moet voer, insluitend slegte data aan modelle. Deur dit te doen, sal die modelle hulself oplei en leer hoe om die foute self reg te stel. Die probleem met daardie benadering is dat dit die akkuraatheid van die model dramaties laat daal. Die bekendste resultate vir beelde, byvoorbeeld, veroorsaak dat KI-model akkuraatheid van 98.5% tot ongeveer 37% daal.

Die AI Firewall bied 'n ander oplossing. Ons ontkoppel die probleem om 'n fout te identifiseer van die rol om 'n voorspelling te skep, wat beteken dat die firewall op een spesifieke taak kan fokus: bepaal of 'n datapunt 'n foutiewe voorspelling sal produseer.

Dit was 'n uitdaging op sigself as gevolg van die moeilikheid om 'n voorspelling op 'n enkele datapunt te gee. Daar is baie redes waarom modelle foute maak, so die bou van 'n tegnologie wat hierdie foute kan voorspel, was nie 'n maklike taak nie. Ons is baie gelukkig om die ingenieurs te hê wat ons het.

Hoe kan die stelsel help om KI-vooroordeel te voorkom?

Modelvooroordeel kom uit 'n verskil tussen die data waarop die model opgelei is en die data wat dit gebruik om voorspellings te maak. Om terug te gaan na KI-risiko, is vooroordeel 'n groot probleem wat toegeskryf word aan stille foute. Byvoorbeeld, dit is dikwels 'n probleem met onderverteenwoordigde bevolkings. 'n Model kan vooroordeel hê omdat dit minder data van daardie populasie gesien het, wat die prestasie van daardie model en die akkuraatheid van sy voorspellings dramaties sal beïnvloed. Die KI Firewall kan organisasies attent maak op hierdie data-afwykings en die model help om korrekte besluite te neem.

Wat is van die ander risiko's vir organisasies wat 'n KI-brandmuur help voorkom?

Enige maatskappy wat KI gebruik om besluite te outomatiseer, veral kritieke besluite, stel outomaties risiko in. Slegte data kan so gering wees soos om 'n nul in plaas van 'n een in te voer en steeds beduidende gevolge tot gevolg hê. Of die risiko verkeerde mediese voorspellings of vals voorspellings oor uitleen is, die AI Firewall help organisasies om risiko heeltemal te voorkom.

Is daar enigiets anders wat jy oor Robuste Intelligensie wil deel?

Robuuste intelligensie groei vinnig en ons kry baie wonderlike kandidate wat vir poste aansoek doen. Maar iets wat ek regtig wil beklemtoon vir mense wat dit oorweeg om aansoek te doen, is dat die belangrikste eienskap wat ons by kandidate soek, hul passie vir die missie is. Ons ontmoet baie kandidate wat tegnies sterk is, so dit kom regtig daarop neer om te verstaan ​​of hulle werklik passievol is om KI-risiko uit te skakel om die wêreld 'n veiliger en beter plek te maak.

In die wêreld waarheen ons gaan, sal baie besluite wat tans deur mense geneem word, geoutomatiseer word. Of ons daarvan hou of nie, dit is 'n feit. Gegewe dit, wil ons almal by Robust Intelligence hê dat outomatiese besluite verantwoordelik gedoen moet word. So, enigiemand wat opgewonde is om 'n impak te maak, wat verstaan ​​hoe dit mense se lewens kan beïnvloed, is 'n kandidaat waarna ons soek om by Robust Intelligence aan te sluit. Ons soek daardie passie. Ons is op soek na die mense wat hierdie tegnologie sal skep wat die hele wêreld sal gebruik.

Dankie vir die wonderlike onderhoud, ek het dit geniet om te leer oor jou sienings oor die voorkoming van KI-vooroordeel en oor die behoefte aan 'n KI-brandmuur, lesers wat meer wil leer, moet besoek Robuuste intelligensie.

'n Stigtersvennoot van unite.AI & 'n lid van die Forbes Tegnologieraad, Antoine is 'n futuris wat passievol is oor die toekoms van KI en robotika.

Hy is ook die stigter van Sekuriteite.io, 'n webwerf wat fokus op belegging in ontwrigtende tegnologie.