škrbina Yotam Oren, izvršni direktor i suosnivač Mona Labsa - serija intervjua - Unite.AI
Povežite se s nama

Intervjui

Yotam Oren, izvršni direktor i suosnivač Mona Labsa – serija intervjua

mm

Objavljeno

 on

Yotam Oren, izvršni je direktor i suosnivač Mona Labs, platforma koja poduzećima omogućuje transformaciju AI inicijativa iz laboratorijskih eksperimenata u skalabilne poslovne operacije istinskim razumijevanjem kako se ML modeli ponašaju u stvarnim poslovnim procesima i aplikacijama.

Mona automatski analizira ponašanje vaših modela strojnog učenja u zaštićenim segmentima podataka iu kontekstu poslovnih funkcija, kako bi otkrila potencijalnu pristranost umjetne inteligencije. Mona nudi mogućnost generiranja potpunih izvješća o pravednosti koja zadovoljavaju industrijske standarde i propise te nudi povjerenje da je AI aplikacija usklađena i bez ikakvih pristranosti.

Što vas je na početku privuklo informatici?

Informatika je popularna karijera u mojoj obitelji, tako da je uvijek bila na pameti kao održiva opcija. Naravno, izraelska kultura je vrlo tehnološka. Slavimo inovativne tehnologe i uvijek sam imao dojam da će mi CS ponuditi stazu za rast i postignuća.

Unatoč tome, to mi je postala osobna strast tek kad sam ušao u sveučilišnu dob. Nisam bio jedno od one djece koja su počela kodirati u srednjoj školi. U mladosti sam bio previše zauzet igranjem košarke da bih obraćao pažnju na računala. Nakon srednje škole, proveo sam blizu 5 godina u vojsci, na operativnim/borbenim rukovodećim ulogama. Tako da sam, na neki način, počeo više učiti o informatici tek kad sam trebao odabrati akademski smjer na sveučilištu. Ono što je odmah zaokupilo moju pozornost je da informatika kombinira rješavanje problema i učenje jezika (ili jezika). Dvije su me stvari posebno zanimale. Od tada sam se navukao.

Od 2006. do 2008. radili ste na mapiranju i navigaciji za mali startup, koji su bili neki od vaših ključnih zaključaka iz tog razdoblja?

Moja uloga u Telmapu bila je izgradnja tražilice na temelju karti i podataka o lokaciji.

Bili su to vrlo rani dani "velikih podataka" u poduzeću. Nismo to čak ni zvali tako, ali prikupljali smo goleme skupove podataka i pokušavali izvući najutjecajnije i najrelevantnije uvide kako bismo ih predstavili našim krajnjim korisnicima.

Jedna od zapanjujućih spoznaja koje sam imao je da su tvrtke (uključujući i nas) koristile tako malo svojih podataka (da ne spominjem javno dostupne vanjske podatke). Bilo je toliko potencijala za nove uvide, bolje procese i iskustva.

Drugi zaključak je da se mogućnost dobivanja više naših podataka oslanjala, naravno, na bolju arhitekturu, bolju infrastrukturu i tako dalje.

Možete li podijeliti priču o nastanku iza Mona Labsa?

Nas troje, suosnivači, bavili smo se podatkovnim proizvodima tijekom svoje karijere.

Nemo, glavni tehnološki direktor, moj je prijatelj s fakulteta i kolega te jedan od prvih zaposlenika Google Tel Aviva. Tamo je pokrenuo proizvod pod nazivom Google Trends, koji je imao puno napredne analitike i strojnog učenja temeljenog na podacima tražilice. Itai, drugi suosnivač i glavni proizvodni direktor, bio je u Nemovom timu u Googleu (i on i ja smo se upoznali preko Nema). Njih dvoje uvijek su bili frustrirani što su sustavi vođeni umjetnom inteligencijom ostali bez nadzora nakon početnog razvoja i testiranja. Unatoč poteškoćama u ispravnom testiranju ovih sustava prije proizvodnje, timovi još uvijek nisu znali koliko su njihovi prediktivni modeli uspjeli tijekom vremena. Osim toga, činilo se da su povratne informacije o sustavima umjetne inteligencije čuli jedino kada su stvari išle loše i kada je razvojni tim pozvan na "požarnu vježbu" kako bi se riješili katastrofalni problemi.

Otprilike u isto vrijeme bio sam konzultant u McKinsey & Co, a jedna od najvećih prepreka za skaliranje AI i Big Data programa u velikim poduzećima bio je nedostatak povjerenja koje su poslovni dionici imali u te programe.

Zajednička nit ovdje postala je jasna Nemu, Itaiju i meni u razgovorima. Industrija je trebala infrastrukturu za nadzor AI/ML sustava u proizvodnji. Osmislili smo viziju da pružimo ovu vidljivost kako bismo povećali povjerenje poslovnih dionika i omogućili AI timovima da uvijek imaju uvid u to kako njihovi sustavi rade i da se ponavljaju učinkovitije.

I tada je osnovana Mona.

Koji su neki od trenutačnih problema s nedostatkom AI transparentnosti?

U mnogim industrijama, organizacije su već potrošile desetke milijuna dolara u svoje programe umjetne inteligencije i imale su početni uspjeh u laboratoriju iu implementacijama malih razmjera. No povećanje, postizanje širokog prihvaćanja i navođenje poduzeća da se zapravo oslanja na AI bio je veliki izazov za gotovo sve.

Zašto se ovo događa? Pa, počinje s činjenicom da se veliko istraživanje ne prevodi automatski u sjajne proizvode (Kupac nam je jednom rekao: "ML modeli su poput automobila, u trenutku kada izađu iz laboratorija, gube 20% svoje vrijednosti"). Sjajni proizvodi imaju sustave podrške. Postoje alati i procesi koji osiguravaju održivost kvalitete tijekom vremena te da se problemi rano uoče i učinkovito riješe. Sjajni proizvodi također imaju kontinuiranu petlju povratnih informacija, imaju ciklus poboljšanja i plan. Posljedično, izvrsni proizvodi zahtijevaju duboku i stalnu transparentnost performansi.

Kada nedostaje transparentnosti, na kraju imate:

  • Problemi koji neko vrijeme ostanu skriveni, a zatim izbiju na površinu uzrokujući "vatrogasne vježbe"
  • Dugotrajna i ručna ispitivanja i ublažavanja
  • Program umjetne inteligencije u koji poslovni korisnici i sponzori ne vjeruju i koji na kraju ne uspijeva skalirati

Koji su neki od izazova koji stoje iza stvaranja transparentnih i pouzdanih modela za predviđanje?

Transparentnost je, naravno, važan faktor u postizanju povjerenja. Transparentnost može doći u mnogo oblika. Postoji jedna transparentnost predviđanja koja može uključivati ​​prikazivanje razine povjerenja korisniku ili davanje objašnjenja/obrazloženja za predviđanje. Transparentnost pojedinačnog predviđanja uglavnom ima za cilj pomoći korisniku da se lakše snađe u predviđanju. A tu je i ukupna transparentnost koja može uključivati ​​informacije o točnosti predviđanja, neočekivanim rezultatima i potencijalnim problemima. AI timu je potrebna sveukupna transparentnost.

Najizazovniji dio sveukupne transparentnosti je rano otkrivanje problema, upozoravanje relevantnog člana tima kako bi mogli poduzeti korektivne mjere prije nego što dođe do katastrofe.

Zašto je teško rano otkriti probleme:

  • Problemi često počinju mali i tinjaju, prije nego što na kraju izbiju na površinu.
  • Problemi često nastaju zbog nekontroliranih ili vanjskih čimbenika, poput izvora podataka.
  • Postoji mnogo načina da se “podijeli svijet” i iscrpno traženje problema u malim džepovima može rezultirati velikom bukom (umor od upozorenja), barem kada se to radi na naivan način.

Još jedan izazovan aspekt pružanja transparentnosti je čista proliferacija slučajeva upotrebe umjetne inteligencije. Zbog toga je pristup jednake veličine gotovo nemoguć. Svaki slučaj upotrebe umjetne inteligencije može uključivati ​​različite strukture podataka, različite poslovne cikluse, različite metrike uspjeha, a često i različite tehničke pristupe, pa čak i nizove.

Dakle, to je monumentalan zadatak, ali transparentnost je tako temeljna za uspjeh AI programa, tako da to morate učiniti.

Možete li podijeliti neke detalje o rješenjima za NLU/NLP modele i chatbotove?

Razgovorna umjetna inteligencija jedna je od Moninih temeljnih vertikala. Ponosni smo što podržavamo inovativne tvrtke sa širokim rasponom slučajeva upotrebe umjetne inteligencije za razgovor, uključujući jezične modele, chatbotove i još mnogo toga.

Zajednički čimbenik u ovim slučajevima upotrebe jest da modeli rade blizu (a ponekad i vidljivo) korisnicima, pa su rizici nedosljedne izvedbe ili lošeg ponašanja veći. Za konverzacijske AI timove postaje toliko važno razumjeti ponašanje sustava na granularnoj razini, što je područje prednosti Monina rješenja za nadzor.

Ono što Monino rješenje čini, a što je prilično jedinstveno, jest sustavno filtriranje grupa razgovora i pronalaženje džepova u kojima se modeli (ili botovi) loše ponašaju. To omogućuje razgovornim AI timovima da rano identificiraju probleme i prije nego što ih korisnici primijete. Ova je sposobnost ključni pokretač odluka za konverzacijske AI timove pri odabiru rješenja za nadzor.

Ukratko, Mona pruža end-to-end rješenje za konverzacijski AI nadzor. Započinje osiguranjem postojanja jedinstvenog izvora informacija o ponašanju sustava tijekom vremena, a nastavlja se kontinuiranim praćenjem ključnih pokazatelja performansi i proaktivnim uvidima u džepove lošeg ponašanja – što timovima omogućuje poduzimanje preventivnih, učinkovitih korektivnih mjera.

Možete li ponuditi neke pojedinosti o Moninom sustavu uvida?

Naravno. Počnimo s motivacijom. Cilj mehanizma uvida je otkriti anomalije korisnicima, s pravom količinom kontekstualnih informacija i bez stvaranja buke ili dovođenja do zamora upozorenja.

Insight engine je jedinstveni analitički tijek rada. U ovom tijeku rada, mehanizam traži anomalije u svim segmentima podataka, dopuštajući rano otkrivanje problema kada su još "mali", i prije nego što utječu na cijeli skup podataka i nizvodne poslovne KPI-jeve. Zatim koristi vlastiti algoritam za otkrivanje temeljnih uzroka anomalija i osigurava da se svaka anomalija upozori samo jednom kako bi se izbjegla buka. Podržane vrste anomalija uključuju: anomalije vremenskih nizova, pomake, odstupanja, degradaciju modela i više.

Insight engine je visoko prilagodljiv putem Monine intuitivne konfiguracije bez koda/niskog koda. Konfigurabilnost motora čini Monu najfleksibilnijim rješenjem na tržištu, pokrivajući širok raspon slučajeva uporabe (npr. paketno i strujanje, s/bez poslovne povratne informacije/osnovne istine, preko verzija modela ili između vlaka i zaključivanja, i još mnogo toga ).

Naposljetku, ovaj motor uvida podržan je nadzornom pločom za vizualizaciju, na kojoj se mogu vidjeti uvidi, i skupom alata za istraživanje kako bi se omogućila analiza uzroka i daljnje istraživanje kontekstualnih informacija. Insight engine također je u potpunosti integriran s sustavom obavijesti koji omogućuje unos uvida u radna okruženja korisnika, uključujući e-poštu, platforme za suradnju i tako dalje.

31. siječnja god. Mona otkrivena njegovo novo rješenje AI pravednosti, možete li s nama podijeliti detalje o tome što je to značajka i zašto je važna?

AI pravičnost znači osigurati da algoritmi i sustavi vođeni umjetnom inteligencijom općenito donose nepristrane i pravične odluke. Rješavanje i sprječavanje pristranosti u sustavima umjetne inteligencije je ključno jer može dovesti do značajnih posljedica u stvarnom svijetu. Uz sve veću važnost umjetne inteligencije, utjecaj na svakodnevni život ljudi bio bi vidljiv na sve više mjesta, uključujući automatizaciju naše vožnje, točnije otkrivanje bolesti, poboljšanje našeg razumijevanja svijeta, pa čak i stvaranje umjetnosti. Ako ne možemo vjerovati da je pošteno i nepristrano, kako bismo dopustili da se nastavi širiti?

Jedan od glavnih uzroka pristranosti u AI jednostavno je sposobnost podataka o obuci modela da u potpunosti predstavljaju stvarni svijet. To može proizaći iz povijesne diskriminacije, podzastupljenosti određenih skupina ili čak namjerne manipulacije podacima. Na primjer, sustav za prepoznavanje lica treniran na pretežno svijetloputim osobama vjerojatno će imati višu stopu pogreške u prepoznavanju osoba tamnije kože. Slično tome, jezični model obučen na tekstualnim podacima iz uskog skupa izvora može razviti pristranosti ako su podaci iskrivljeni prema određenim pogledima na svijet, o temama kao što su religija, kultura i tako dalje.

Monino AI fairness rješenje daje AI i poslovnim timovima povjerenje da je njihov AI bez predrasuda. U reguliranim sektorima, Monino rješenje može pripremiti timove za spremnost za usklađivanje.

Monino rješenje za pravednost posebno je jer se nalazi na platformi Mona – most između AI podataka i modela i njihovih implikacija u stvarnom svijetu. Mona razmatra sve dijelove poslovnog procesa koji AI model služi u proizvodnji, kako bi povezala podatke o obuci, ponašanje modela i stvarne rezultate u stvarnom svijetu kako bi pružila najopsežniju procjenu pravednosti.

Drugo, ima jedinstveni analitički mehanizam koji omogućuje fleksibilnu segmentaciju podataka za kontrolu relevantnih parametara. To omogućuje točne procjene korelacija u pravom kontekstu, izbjegavajući Simpsonov paradoks i pružajući duboku stvarnu "ocjenu pristranosti" za bilo koju metriku izvedbe i za bilo koju zaštićenu značajku.

Dakle, općenito bih rekao da je Mona temeljni element za timove koji trebaju izgraditi i skalirati odgovornu umjetnu inteligenciju.

Koja je vaša vizija budućnosti umjetne inteligencije?

Ovo je veliko pitanje.

Mislim da je jednostavno predvidjeti da će AI nastaviti rasti u upotrebi i utjecaju u raznim industrijskim sektorima i aspektima ljudskih života. Međutim, teško je ozbiljno shvatiti viziju koja je detaljna i koja u isto vrijeme pokušava pokriti sve slučajeve upotrebe i implikacije umjetne inteligencije u budućnosti. Jer nitko zapravo ne zna dovoljno da tu sliku oslika vjerodostojno.

Uz to, ono što sigurno znamo je da će AI biti u rukama više ljudi i služiti u više svrha. Stoga će se potreba za upravljanjem i transparentnošću znatno povećati.

Stvarna vidljivost AI-ja i načina na koji funkcionira igrat će dvije primarne uloge. Prvo, pomoći će uliti povjerenje u ljude i ukloniti prepreke otpora za brže usvajanje. Drugo, pomoći će onome tko upravlja umjetnom inteligencijom da osigura da ne izmakne kontroli.

Hvala vam na sjajnom intervjuu, čitatelji koji žele saznati više neka ga posjete Mona Labs.

Osnivač unite.AI i član udruge Forbesovo tehnološko vijeće, Antoine je a futurist koji je strastven prema budućnosti umjetne inteligencije i robotike.

Također je i osnivač Vrijednosni papiri.io, web stranica koja se fokusira na ulaganje u disruptivnu tehnologiju.