Stumm Yaron Singer, CEO bei Robust Intelligence & Professor of Computer Science at Harvard University - Interview Series - Unite.AI
Connect mat eis

Interviewen

Yaron Singer, CEO bei Robust Intelligence & Professor of Computer Science at Harvard University - Interview Series

mm

publizéiert

 on

Yaron Singer ass de CEO vun Robust Intelligenz a Professer fir Informatik an ugewandte Mathematik um Harvard. Yaron ass bekannt fir Duerchbroch Resultater am Maschinnléieren, Algorithmen an Optimiséierung. Virdrun huet de Yaron bei Google Research geschafft an huet säin Doktorat vum UC Berkeley kritt.

Wat huet Iech am Ufank un de Beräich vun der Informatik a Maschinnléieren ugezunn?

Meng Rees huet ugefaang mat Mathematik, wat mech an d'Informatik gefouert huet, wat mech op de Wee fir Maschinnléiere gesat huet. Mathematik huet am Ufank mäin Interesse gezunn well säin axiomatesche System mir d'Fäegkeet ginn huet nei Welten ze kreéieren. Mat Informatik hunn ech iwwer existenziell Beweiser geléiert, awer och d'Algorithmen hannendrun. Aus enger kreativer Perspektiv ass Informatik d'Zeechnung vu Grenzen tëscht deem wat mir kënnen an net maachen.

Mäin Interesse fir Maschinnléieren ass ëmmer an engem Interessi un realen Daten verwuerzelt, bal de kierperlechen Aspekt dovun. D'Saachen aus der realer Welt huelen an se modelléieren fir eppes sënnvoll ze maachen. Mir kéinte wuertwiertlech eng besser Welt duerch sënnvoll Modeller maachen. Also Mathematik huet mir e Fundament ginn fir Saachen ze beweisen, Informatik hëlleft mir ze gesinn wat kann a wat net gemaach ka ginn, a Maschinnléieren erlaabt mech dës Konzepter an der Welt ze modelléieren.

Bis viru kuerzem waart Dir Professer fir Informatik an ugewandte Mathematik op der Harvard University, wat waren e puer vun Äre wichtegsten Ausnamen aus dëser Erfahrung?

Mäi gréissten Ausnam vun engem Fakultéitsmember um Harvard ass datt et den Appetit entwéckelt fir grouss Saachen ze maachen. Harvard huet traditionell eng kleng Fakultéit, an d'Erwaardung vun der Tenure Track Fakultéit ass grouss Probleemer unzegoen an nei Felder ze kreéieren. Dir musst audacious sinn. Dëst schlussendlech eng super Virbereedung fir e Startup ze lancéieren, deen en neie Raum definéiert. Ech recommandéieren net onbedéngt fir d'éischt duerch d'Harvard Tenure Track ze goen - awer wann Dir dat iwwerlieft, ass e Startup méi einfach.

Kënnt Dir Ären 'aha' Moment beschreiwen wann Dir gemierkt hutt datt raffinéiert AI Systemer vulnérabel sinn fir schlecht Donnéeën, mat e puer potenziell wäitreegend Implikatiounen?

Wéi ech e Graduéierter Student um UC Berkeley war, hunn ech e bëssen Zäit geholl fir e Startup ze maachen deen Maschinnléieremodeller fir Marketing a sozialen Netzwierker gebaut huet. Dëst war zréck an 2010. Mir hu massiv Quantitéiten vun Daten aus sozialen Medien, a mir codéiert all Modeller vun Null. Déi finanziell Implikatioune fir Händler waren zimmlech bedeitend sou datt mir d'Performance vun de Modeller no gefollegt hunn. Well mir Daten aus sozialen Medien benotzt hunn, goufen et vill Feeler am Input, souwéi Drift. Mir hunn gesinn datt ganz kleng Feeler zu grousse Verännerungen am Modellausgang gefouert hunn an zu schlechte finanzielle Resultater fir Händler déi de Produkt benotzen.

Wéi ech op Google+ geschafft hunn (fir déi vun eis déi sech erënneren), hunn ech déi genau déiselwecht Effekter gesinn. Méi dramatesch, a Systemer wéi AdWords, déi Prognosen iwwer d'Wahrscheinlechkeet gemaach hunn, datt d'Leit op eng Annonce fir Schlësselwieder klickt, hu mir gemierkt datt kleng Feeler am Input zum Modell zu ganz schlechte Prognosen féieren. Wann Dir dëse Problem op Google Skala Zeien, mierkt Dir datt de Problem universell ass.

Dës Erfahrungen hunn mäi Fuerschungsfokus staark geformt, an ech hunn meng Zäit um Harvard verbruecht fir z'ënnersichen firwat AI Modeller Feeler maachen an, Wichteg, wéi een Algorithmen designen déi kënne verhënneren datt Modeller Feeler maachen. Dëst huet natierlech zu méi 'aha' Momenter gefouert a schliisslech zu der Schafung vu Robust Intelligence.

Kënnt Dir d'Genesisgeschicht hannert Robust Intelligenz deelen?

Robust Intelligenz huet ugefaang mat Fuerschung iwwer wat am Ufank en theoretesche Problem war: wat sinn d'Garantien déi mir kënne fir Entscheedunge mat AI Modeller huelen. De Kojin war e Student um Harvard, a mir hunn zesumme geschafft, ufanks Fuerschungspabeieren geschriwwen. Also, et fänkt u mam Schreiwen vun Aarbechten un, déi opzeweisen wat grondsätzlech méiglech an onméiglech ass, theoretesch. Dës Resultater sinn spéider weider op e Programm fir Algorithmen a Modeller ze designen déi robust sinn fir AI Feeler. Mir bauen dann Systemer déi dës Algorithmen an der Praxis kënne lafen. Duerno war en natierlechen nächste Schrëtt eng Firma ze grënnen, wou Organisatiounen esou e System benotze kënnen.

Vill vun den Themen déi Robust Intelligence upakt si stille Feeler, wat sinn dat a wat mécht se sou geféierlech?

Ier Dir eng technesch Definitioun vu rouege Feeler gëtt, ass et derwäert e Schrëtt zréck ze huelen a verstoen firwat mir eis iwwer AI këmmeren solle Feeler maachen an der éischter Plaz. De Grond firwat mir eis ëm AI Modeller këmmeren déi Feeler maachen, ass d'Konsequenze vun dëse Feeler. Eis Welt benotzt AI fir kritesch Entscheedungen ze automatiséieren: wien kritt e Geschäftsprêt a mat wéi engem Zënssaz, wien kritt Krankeversécherung a mat wéi engem Taux, wéi eng Quartiere solle d'Police patrouilléieren, wien ass héchstwahrscheinlech e Spëtzekandidat fir eng Aarbecht, wéi solle mer Fluchhafen Sécherheet organiséieren, etc. D'Tatsaach, datt AI Modeller extrem Feeler ufälleg sinn, bedeit datt mir bei der Automatiséierung vun dëse kriteschen Entscheedunge vill Risiko ierwen. Bei Robust Intelligence nenne mir dëst "AI Risk" an eis Missioun an der Firma ass AI Risk ze eliminéieren.

Stille Feeler sinn AI Modeller Feeler wou den AI Modell Input kritt an eng Prognose oder Entscheedung produzéiert déi falsch oder partiell als Ausgang ass. Also, op der Uewerfläch, gesäit alles fir de System OK aus, an deem den AI Modell mécht wat et aus enger funktioneller Perspektiv soll maachen. Awer d'Prognose oder d'Entscheedung ass falsch. Dës Feeler si roueg well de System net weess datt et e Feeler ass. Dëst ka vill méi schlëmm sinn wéi de Fall an deem en AI Modell keen Output produzéiert, well et kann laang daueren fir Organisatiounen ze realiséieren datt hiren AI System defekt ass. Dann, AI Risiko gëtt AI Feeler déi schlëmm Konsequenze kënnen hunn.

Robust Intelligenz huet am Wesentlechen eng AI Firewall entworf, eng Iddi déi virdru als onméiglech ugesi gouf. Firwat ass dat esou eng technesch Erausfuerderung?

Ee Grond datt d'AI Firewall sou eng Erausfuerderung ass, ass well et géint de Paradigma geet, déi d'ML Gemeinschaft hat. De fréiere Paradigma vun der ML Gemeinschaft war datt fir Feeler ze läschen, muss ee méi Daten fidderen, inklusiv schlecht Daten op Modeller. Doduerch trainéieren d'Modeller sech a léiere wéi een d'Feeler selwer korrigéiere kann. De Problem mat där Approche ass datt et d'Genauegkeet vum Modell drastesch erofgeet. Déi bekanntst Resultater fir Biller, zum Beispill, verursaache AI ​​Modellgenauegkeet vun 98.5% op ongeféier 37%.

D'AI Firewall bitt eng aner Léisung. Mir entkoppelen de Problem fir e Feeler z'identifizéieren vun der Roll vun der Schafung vun enger Prognose, dat heescht datt d'Firewall op eng spezifesch Aufgab konzentréiere kann: bestëmmen ob en Datepunkt eng falsch Prognose produzéiert.

Dëst war eng Erausfuerderung u sech wéinst der Schwieregkeet fir eng Prognose op engem eenzegen Datepunkt ze ginn. Et gi vill Grënn firwat Modeller Feeler maachen, sou datt eng Technologie bauen déi dës Feeler viraussoe kann war keng einfach Aufgab. Mir si ganz glécklech déi Ingenieuren ze hunn déi mir maachen.

Wéi kann de System hëllefen AI Bias ze vermeiden?

Modellbias kënnt aus enger Diskrepanz tëscht den Donnéeën op deem de Modell trainéiert gouf an den Daten déi se benotzt fir Prognosen ze maachen. Zréck op AI Risiko, Bias ass e grousst Thema dat u stille Feeler zougeschriwwen ass. Zum Beispill ass dëst dacks en Thema mat ënnerrepresentéierte Populatiounen. E Modell kann Bias hunn, well et manner Daten vun där Bevëlkerung gesinn huet, wat d'Leeschtung vun deem Modell an d'Genauegkeet vu senge Prognosen dramatesch beaflosst. D'AI Firewall kann Organisatiounen op dës Datediskrepanzen alarméieren an dem Modell hëllefen richteg Entscheedungen ze treffen.

Wat sinn e puer vun den anere Risiken fir Organisatiounen déi eng AI Firewall hëlleft ze verhënneren?

All Firma déi AI benotzt fir Entscheedungen ze automatiséieren, besonnesch kritesch Entscheedungen, féiert automatesch Risiko. Schlecht Donnéeën kéinte sou kleng sinn wéi eng Null anstatt eng anzeginn an ëmmer nach bedeitend Konsequenze féieren. Egal ob de Risiko falsch medizinesch Prognosen oder falsch Prognosen iwwer Prêten ass, hëlleft d'AI Firewall Organisatiounen Risiko ganz ze vermeiden.

Gëtt et nach eppes wat Dir iwwer Robust Intelligenz deele wëllt?

Robust Intelligenz wiisst séier a mir kréien vill super Kandidaten déi sech fir Positiounen bewerben. Awer eppes wat ech wierklech wëll ënnersträichen fir d'Leit déi iwwerluechten ze gëllen ass datt déi wichtegst Qualitéit déi mir bei de Kandidate sichen hir Passioun fir d'Missioun ass. Mir kréie vill Kandidaten treffen déi technesch staark sinn, also ass et wierklech drop ze verstoen ob se wierklech passionéiert sinn iwwer d'Eliminatioun vun AI Risiko fir d'Welt eng méi sécher a besser Plaz ze maachen.

An der Welt, an där mir goen, wäerte vill Entscheedungen, déi de Moment vun de Mënschen geholl ginn, automatiséiert ginn. Ob mir et gären oder net, dat ass e Fakt. Gitt dat, all vun eis bei Robust Intelligence wëllen datt automatiséiert Entscheedunge verantwortlech gemaach ginn. Also, jiddereen deen opgereegt ass en Impakt ze maachen, dee versteet wéi dëst d'Liewe vun de Leit beaflosse kann, ass e Kandidat dee mir sichen fir bei Robust Intelligence matzemaachen. Mir sichen no där Leidenschaft. Mir sichen no de Leit déi dës Technologie kreéieren déi d'ganz Welt benotzt.

Merci fir dee super Interview, ech hu gär iwwer Är Meenung iwwer d'Verhënnerung vun AI Bias geléiert an iwwer d'Noutwendegkeet vun enger AI Firewall, Lieser déi méi gewuer ginn sollten besichen Robust Intelligenz.

A founding partner of unite.AI & e Member vun der Forbes Technology Council, Den Antoine ass a futuristesch déi passionéiert ass iwwer d'Zukunft vun AI & Robotik.

Hien ass och de Grënner vun Securities.io, eng Websäit déi sech op d'Investitioun an d'Stéierungstechnologie konzentréiert.