stubs Jotams Orens, Mona Labs izpilddirektors un līdzdibinātājs — interviju sērija — Unite.AI
Savienoties ar mums

Intervijas

Jotams Orens, Mona Labs izpilddirektors un līdzdibinātājs — interviju sērija

mm

Izdots

 on

Jotams Orens ir uzņēmuma izpilddirektors un līdzdibinātājs Mona Labs, platforma, kas ļauj uzņēmumiem pārveidot AI iniciatīvas no laboratorijas eksperimentiem mērogojamās uzņēmējdarbības operācijās, patiesi izprotot, kā ML modeļi darbojas reālos biznesa procesos un lietojumprogrammās.

Mona automātiski analizē jūsu mašīnmācīšanās modeļu uzvedību aizsargātajos datu segmentos un biznesa funkciju kontekstā, lai noteiktu iespējamo AI novirzi. Mona piedāvā iespēju ģenerēt pilnīgus godīguma pārskatus, kas atbilst nozares standartiem un noteikumiem, un nodrošina pārliecību, ka AI lietojumprogramma ir saderīga un bez jebkādām novirzēm.

Kas jūs sākotnēji piesaistīja datorzinātnēs?

Datorzinātnes manā ģimenē ir populārs karjeras ceļš, tāpēc tas vienmēr bija prātā kā dzīvotspējīgs risinājums. Protams, Izraēlas kultūra ir ļoti pro-tech. Mēs slavējam inovatīvus tehnologus, un man vienmēr ir bijis priekšstats, ka CS man piedāvās izaugsmes un sasniegumu skrejceļu.

Neskatoties uz to, tas kļuva par personisku aizraušanos tikai tad, kad es sasniedzu universitātes vecumu. Es nebiju no tiem bērniem, kuri sāka kodēt vidusskolā. Jaunībā biju pārāk aizņemts ar basketbola spēlēšanu, lai pievērstu uzmanību datoriem. Pēc vidusskolas gandrīz 5 gadus pavadīju armijā, vadot operācijas/kaujas vadītājus. Tāpēc savā ziņā es tiešām sāku vairāk mācīties par datorzinātnēm tikai tad, kad man vajadzēja izvēlēties akadēmisko virzienu universitātē. Manu uzmanību uzreiz piesaistīja tas, ka datorzinātnes apvienoja problēmu risināšanu un valodas (vai valodu) mācīšanos. Divas lietas, kas mani īpaši interesēja. Kopš tā laika es biju sajūsmā.

No 2006. gada līdz 2008. gadam jūs strādājāt pie kartēšanas un navigācijas nelielam jaunuzņēmumam. Kādas bija jūsu galvenās iezīmes no šī laikmeta?

Mana loma Telmap bija meklētājprogrammas izveide, pamatojoties uz kartes un atrašanās vietas datiem.

Tie bija ļoti agrīnie “lielo datu” laiki uzņēmumā. Mēs to pat tā nesaucām, bet ieguvām milzīgas datu kopas un centāmies gūt ietekmīgākos un atbilstošākos ieskatus, ko parādīt mūsu galalietotājiem.

Viena no pārsteidzošajām atziņām bija tāda, ka uzņēmumi (tostarp mēs) izmantoja tik maz savu datu (nemaz nerunājot par publiski pieejamiem ārējiem datiem). Bija tik daudz potenciāla jaunām atziņām, labākiem procesiem un pieredzei.

Otrs aspekts bija tāds, ka iespēja iegūt vairāk datu, protams, bija atkarīga no labākas arhitektūras, labākas infrastruktūras un tā tālāk.

Vai jūs varētu padalīties ar Mona Labs ģenēzes stāstu?

Mēs trīs, līdzdibinātāji, savas karjeras laikā esam strādājuši ar datu produktiem.

Nemo, galvenais tehnoloģiju speciālists, ir mans koledžas draugs un kursabiedrs, kā arī viens no pirmajiem Google Telavivas darbiniekiem. Viņš tur izveidoja produktu ar nosaukumu Google Trends, kurā bija daudz uzlabotas analīzes un mašīnmācīšanās, pamatojoties uz meklētājprogrammu datiem. Itai, otrs līdzdibinātājs un galvenais produktu virsnieks, strādāja Nemo komandā Google (un viņš un es tikāmies ar Nemo starpniecību). Viņi abi vienmēr bija neapmierināti, ka mākslīgā intelekta vadītās sistēmas pēc sākotnējās izstrādes un testēšanas tika atstātas bez uzraudzības. Neskatoties uz grūtībām pareizi pārbaudīt šīs sistēmas pirms ražošanas, komandas joprojām nezināja, cik labi laika gaitā darbojas viņu prognozēšanas modeļi. Turklāt šķita, ka vienīgā reize, kad viņi dzirdēja atsauksmes par AI sistēmām, bija tad, kad viss noritēja slikti un izstrādes komanda tika aicināta uz “ugunsdzēsības treniņu”, lai novērstu katastrofālas problēmas.

Aptuveni tajā pašā laikā es biju konsultants uzņēmumā McKinsey & Co, un viens no lielākajiem šķēršļiem, ko es redzēju AI un lielo datu programmu mērogošanai lielos uzņēmumos, bija uzņēmumu ieinteresēto personu neuzticēšanās šīm programmām.

Kopīgais pavediens šeit kļuva skaidrs Nemo, Itai un man sarunās. Nozarei bija nepieciešama infrastruktūra, lai uzraudzītu AI/ML sistēmas ražošanā. Mēs izstrādājām vīziju nodrošināt šo atpazīstamību, lai palielinātu biznesa ieinteresēto pušu uzticību un ļautu AI komandām vienmēr uzzināt, kā darbojas viņu sistēmas, un veikt daudz efektīvākas darbības.

Un tieši tad tika dibināta Mona.

Kādas ir dažas no pašreizējām problēmām, kas saistītas ar AI pārredzamības trūkumu?

Daudzās nozarēs organizācijas jau ir iztērējušas desmitiem miljonu dolāru savām AI programmām un ir pieredzējušas dažus sākotnējos panākumus laboratorijā un neliela mēroga izvietošanā. Taču mērogošanas palielināšana, plašas ieviešanas panākšana un uzņēmuma faktiskā paļaušanās uz AI ir bijis milzīgs izaicinājums gandrīz ikvienam.

Kāpēc tas notiek? Nu, tas sākas ar faktu, ka lieliski pētījumi automātiski nepārvēršas par lieliskiem produktiem (Kāds klients mums reiz teica: “ML modeļi ir kā automašīnas, mirklī, kad tie atstāj laboratoriju, tie zaudē 20% no savas vērtības”). Lieliskiem produktiem ir atbalsta sistēmas. Ir rīki un procesi, kas nodrošina kvalitātes saglabāšanu laika gaitā un problēmu savlaicīgu atklāšanu un efektīvu risināšanu. Lieliskiem produktiem ir arī nepārtraukta atgriezeniskā saite, tiem ir uzlabošanas cikls un ceļvedis. Līdz ar to lieliskiem produktiem ir nepieciešama dziļa un pastāvīga darbības caurskatāmība.

Ja trūkst pārskatāmības, jūs nonākat pie:

  • Problēmas, kas kādu laiku paliek paslēptas un pēc tam uzsprāgst virsmā, izraisot “ugunsdzēsības treniņus”
  • Ilgstošas ​​un manuālas izmeklēšanas un mazināšanas pasākumi
  • AI programma, kurai biznesa lietotāji un sponsori neuzticas, un galu galā tā netiek mērogota

Kādas ir problēmas, kas saistītas ar prognozēšanas modeļu pārredzamību un uzticamību?

Pārredzamība, protams, ir svarīgs faktors, lai panāktu uzticību. Pārredzamība var izpausties dažādos veidos. Pastāv viena prognozēšanas pārredzamība, kas var ietvert uzticamības līmeņa parādīšanu lietotājam vai prognozes skaidrojuma/pamatojuma sniegšanu. Viena prognožu caurspīdīguma mērķis galvenokārt ir palīdzēt lietotājam apmierināties ar prognozēm. Un tad ir vispārēja pārredzamība, kas var ietvert informāciju par paredzamo precizitāti, negaidītiem rezultātiem un iespējamām problēmām. AI komandai ir nepieciešama vispārēja pārredzamība.

Visgrūtākā vispārējās pārredzamības daļa ir problēmu agrīna atklāšana, brīdinot attiecīgo komandas locekli, lai viņš varētu veikt koriģējošus pasākumus, pirms notiek katastrofas.

Kāpēc ir grūti laikus atklāt problēmas:

  • Problēmas bieži sākas mazas un izzūd, pirms galu galā izplūst virspusē.
  • Problēmas bieži rodas nekontrolējamu vai ārēju faktoru, piemēram, datu avotu, dēļ.
  • Ir daudz veidu, kā “sadalīt pasauli”, un, izsmeļoši meklējot problēmas mazās kabatās, var rasties liels troksnis (trauksmīgs nogurums), vismaz tad, ja tas tiek darīts naivā pieejā.

Vēl viens sarežģīts pārredzamības nodrošināšanas aspekts ir AI izmantošanas gadījumu milzīgais izplatība. Tādējādi universāla pieeja ir gandrīz neiespējama. Katrs AI lietošanas gadījums var ietvert dažādas datu struktūras, dažādus biznesa ciklus, dažādus veiksmes rādītājus un bieži vien dažādas tehniskās pieejas un pat steks.

Tātad, tas ir milzīgs uzdevums, taču pārredzamība ir tik būtiska AI programmu panākumiem, tāpēc jums tas ir jādara.

Vai jūs varētu sniegt sīkāku informāciju par NLU/NLP modeļu un tērzēšanas robotu risinājumiem?

Sarunu AI ir viena no Monas galvenajām vertikālēm. Mēs esam lepni atbalstīt novatoriskus uzņēmumus ar plašu sarunvalodas AI lietošanas gadījumu klāstu, tostarp valodu modeļiem, tērzēšanas robotiem un citiem.

Kopīgs faktors šajos lietošanas gadījumos ir tas, ka modeļi darbojas tuvu (un dažreiz arī redzami) klientiem, tāpēc ir augstāks nekonsekventas veiktspējas vai sliktas darbības risks. Sarunu AI komandām kļūst tik svarīgi izprast sistēmas uzvedību detalizētā līmenī, kas ir Mona uzraudzības risinājuma stiprā puse.

Tas, ko dara Monas risinājums, ir diezgan unikāls, ir sistemātiska sarunu grupu izsijāšana un kabatu atrašana, kurās modeļi (vai robotprogrammatūra) nepareizi uzvedas. Tas ļauj sarunvalodas AI komandām savlaicīgi identificēt problēmas un pirms klienti tās pamana. Šī iespēja ir būtisks lēmumu pieņēmējs sarunvalodas AI komandām, izvēloties uzraudzības risinājumus.

Rezumējot, Mona nodrošina pilnīgu risinājumu sarunvalodas AI uzraudzībai. Tas sākas ar vienota informācijas avota nodrošināšanu par sistēmu darbību laika gaitā, un turpinās ar pastāvīgu galveno darbības rādītāju izsekošanu un proaktīvu ieskatu par nepareizas rīcības vietām, ļaujot komandām veikt preventīvus, efektīvus koriģējošus pasākumus.

Vai jūs varētu sniegt sīkāku informāciju par Monas ieskatu dzinēju?

Protams. Sāksim ar motivāciju. Ieskata dzinēja mērķis ir parādīt lietotājiem anomālijas, izmantojot tikai pareizo kontekstuālās informācijas daudzumu un neradot troksni vai nogurumu.

Ieskata programma ir unikāla analītiska darbplūsma. Šajā darbplūsmā programma meklē anomālijas visos datu segmentos, ļaujot agrīni atklāt problēmas, kad tās joprojām ir “mazas”, un pirms tās ietekmē visu datu kopu un pakārtotos biznesa KPI. Pēc tam tas izmanto patentētu algoritmu, lai noteiktu anomāliju galvenos cēloņus, un nodrošina, ka par katru anomāliju tiek brīdināts tikai vienu reizi, lai izvairītos no trokšņa. Atbalstītie anomāliju veidi ir šādi: laikrindu anomālijas, novirzes, novirzes, modeļa degradācija un daudz kas cits.

Insight dzinējs ir ļoti pielāgojams, izmantojot Mona intuitīvo bezkoda/zema koda konfigurāciju. Dzinēja konfigurējamība padara Mona par elastīgāko risinājumu tirgū, kas aptver plašu lietošanas gadījumu klāstu (piemēram, pakešu un straumēšanu, ar/bez biznesa atgriezenisko saiti/patiesību, dažādās modeļu versijās vai starp vilcienu un secinājumu utt. ).

Visbeidzot, šo ieskatu programmu atbalsta vizualizācijas informācijas panelis, kurā var skatīt ieskatus, un izmeklēšanas rīku komplekts, kas ļauj veikt pamatcēloņu analīzi un tālāku kontekstuālās informācijas izpēti. Ieskatu dzinējs ir arī pilnībā integrēts ar paziņojumu dzinēju, kas ļauj sniegt ieskatu lietotāju darba vidēs, tostarp e-pastā, sadarbības platformās un tā tālāk.

31. janvārī, Mona atklāja tā jaunais AI godīguma risinājums, vai jūs varētu ar mums pastāstīt sīkāku informāciju par to, kas ir šī funkcija un kāpēc tā ir svarīga?

AI godīgums ir nodrošināt, lai algoritmi un AI vadītas sistēmas kopumā pieņemtu objektīvus un taisnīgus lēmumus. Ir ļoti svarīgi novērst un novērst novirzes AI sistēmās, jo tās var radīt ievērojamas sekas reālajā pasaulē. Pieaugot AI nozīmei, ietekme uz cilvēku ikdienas dzīvi būtu redzama arvien vairāk vietās, tostarp automatizējot mūsu braukšanu, precīzāk nosakot slimības, uzlabojot mūsu izpratni par pasauli un pat radot mākslu. Ja mēs nevaram paļauties uz to, ka tas ir godīgs un objektīvs, kā mēs ļautu tam turpināt izplatīties?

Viens no galvenajiem AI aizspriedumu cēloņiem ir vienkārši modeļu apmācības datu spēja pilnībā atspoguļot reālo pasauli. Tas var rasties no vēsturiskas diskriminācijas, noteiktu grupu nepietiekamas pārstāvības vai pat tīšas manipulācijas ar datiem. Piemēram, sejas atpazīšanas sistēmai, kas apmācīta pārsvarā gaišādainiem indivīdiem, visticamāk, būs lielāks kļūdu līmenis, atpazīstot personas ar tumšākiem ādas toņiem. Līdzīgi valodas modelis, kas apmācīts, izmantojot teksta datus no šaura avotu kopuma, var radīt aizspriedumus, ja dati ir novirzīti uz noteiktiem pasaules uzskatiem, tādām tēmām kā reliģija, kultūra un tā tālāk.

Monas AI godīguma risinājums sniedz AI un biznesa komandām pārliecību, ka viņu mākslīgais intelekts ir bez aizspriedumiem. Regulētajās nozarēs Mona risinājums var sagatavot komandas atbilstības gatavībai.

Mona godīguma risinājums ir īpašs, jo tas atrodas Mona platformā — tilts starp AI datiem un modeļiem un to reālajām sekām. Mona aplūko visas biznesa procesa daļas, ko AI modelis izmanto ražošanā, lai korelētu starp apmācības datiem, modeļa uzvedību un faktiskajiem rezultātiem reālajā pasaulē, lai nodrošinātu visplašāko godīguma novērtējumu.

Otrkārt, tam ir unikāls analītiskais dzinējs, kas ļauj elastīgi segmentēt datus, lai kontrolētu attiecīgos parametrus. Tas nodrošina precīzu korelāciju novērtējumu pareizajā kontekstā, izvairoties no Simpsona paradoksa un nodrošinot dziļu reālu "novirzes rezultātu" jebkurai veiktspējas metrikai un jebkurai aizsargātai funkcijai.

Tātad kopumā es teiktu, ka Mona ir pamatelements komandām, kurām jāveido un jāmēro atbildīgs AI.

Kāds ir jūsu redzējums par AI nākotni?

Tas ir liels jautājums.

Manuprāt, ir viegli paredzēt, ka AI turpinās pieaugt izmantošanas un ietekmes pieaugumā dažādās rūpniecības nozarēs un cilvēku dzīves jomās. Tomēr ir grūti uztvert nopietni redzējumu, kas ir detalizēts un tajā pašā laikā mēģina aptvert visus AI lietošanas gadījumus un sekas nākotnē. Jo neviens īsti nezina pietiekami daudz, lai uzzīmētu šo attēlu ticami.

To sakot, mēs noteikti zinām, ka AI būs vairāk cilvēku rokās un kalpos vairākiem mērķiem. Tādējādi ievērojami pieaugs nepieciešamība pēc pārvaldības un pārredzamības.

Reālai AI redzamībai un tā darbībai būs divas galvenās lomas. Pirmkārt, tas palīdzēs iedvest cilvēkos uzticību un pacels pretestības barjeras ātrākai adopcijai. Otrkārt, tas palīdzēs ikvienam, kas izmanto AI, nodrošināt, ka tas neizkļūst no rokām.

Paldies par lielisko interviju, lasītājiem, kuri vēlas uzzināt vairāk, vajadzētu apmeklēt Mona Labs.

Unite.AI dibinātājs un biedrs Forbes tehnoloģiju padome, Antuāns ir a futūrists kurš aizraujas ar AI un robotikas nākotni.

Viņš ir arī dibinātājs Vērtspapīri.io, vietne, kas koncentrējas uz ieguldījumiem traucējošās tehnoloģijās.