ciot Yotam Oren, CEO și cofondator al Mona Labs - Seria de interviuri - Unite.AI
Conectează-te cu noi

interviuri

Yotam Oren, CEO și cofondator al Mona Labs – Seria de interviuri

mm

Publicat

 on

Yotam Oren, este CEO și cofondator al Mona Labs, o platformă care permite întreprinderilor să transforme inițiativele AI din experimente de laborator în operațiuni de afaceri scalabile, înțelegând cu adevărat modul în care modelele ML se comportă în procesele și aplicațiile de afaceri reale.

Mona analizează automat comportamentul modelelor dvs. de învățare automată pe segmentele de date protejate și în contextul funcțiilor de afaceri, pentru a detecta potențialele părtiniri ale AI. Mona oferă posibilitatea de a genera rapoarte complete de corectitudine care îndeplinesc standardele și reglementările din industrie și oferă încredere că aplicația AI este conformă și lipsită de orice părtinire.

Ce te-a atras inițial către informatică?

Informatica este o cale de carieră populară în familia mea, așa că a fost întotdeauna în mintea mea ca o opțiune viabilă. Desigur, cultura israeliană este foarte pro-tech. Sărbătorim tehnologii inovatori și întotdeauna am avut percepția că CS îmi va oferi o pistă pentru creștere și realizare.

Cu toate acestea, a devenit o pasiune personală abia când am ajuns la vârsta universitară. Nu am fost unul dintre acei copii care au început să facă coduri la gimnaziu. În tinerețe, eram prea ocupat să joc baschet pentru a fi atent la computere. După liceu, am petrecut aproape 5 ani în armată, în roluri de conducere operaționale/de luptă. Deci, într-un fel, am început să învăț mai mult despre informatică abia atunci când trebuia să aleg o specializare academică la universitate. Ceea ce mi-a captat imediat atenția a fost faptul că informatica combina rezolvarea problemelor și învățarea unei limbi (sau limbi). Două lucruri care m-au interesat în mod deosebit. De atunci, am fost cucerit.

Din 2006 până în 2008 ai lucrat la cartografiere și navigare pentru un mic startup, care au fost câteva dintre concluziile tale cheie din această eră?

Rolul meu la Telmap a fost construirea unui motor de căutare deasupra datelor de hărți și locații.

Acestea au fost primele zile ale „big data” în întreprindere. Nici măcar nu o spuneam așa, dar achiziționam seturi de date enorme și încercam să obținem cele mai impactante și relevante perspective pentru a le prezenta utilizatorilor finali.

Una dintre realizările izbitoare pe care le-am avut a fost că companiile (inclusiv noi) au folosit atât de puțin din datele lor (ca să nu mai vorbim de datele externe disponibile publicului). Exista atât de mult potențial pentru noi perspective, procese și experiențe mai bune.

Cealaltă concluzie a fost că posibilitatea de a obține mai multe din datele noastre se bazează, desigur, pe arhitecturi mai bune, infrastructură mai bună și așa mai departe.

Ați putea împărtăși povestea genezei din spatele Mona Labs?

Noi trei, co-fondatorii, am folosit produse de date de-a lungul carierei noastre.

Nemo, directorul de tehnologie, este prietenul meu de facultate și coleg de clasă și unul dintre primii angajați ai Google Tel Aviv. A început acolo un produs numit Google Trends, care avea o mulțime de analize avansate și învățare automată bazate pe datele motoarelor de căutare. Itai, celălalt co-fondator și director de produs, a făcut parte din echipa lui Nemo la Google (și el și cu mine ne-am cunoscut prin Nemo). Cei doi au fost întotdeauna frustrați că sistemele bazate pe inteligență artificială au fost lăsate nemonitorizate după dezvoltarea și testarea inițială. În ciuda dificultăților de a testa corect aceste sisteme înainte de producție, echipele încă nu știau cât de bine s-au descurcat modelele lor predictive de-a lungul timpului. În plus, se părea că singura dată când au auzit feedback despre sistemele AI a fost atunci când lucrurile au mers prost și echipa de dezvoltare a fost chemată pentru un „exercițiu de incendiu” pentru a remedia probleme catastrofale.

Cam în același timp, eram consultant la McKinsey & Co, iar una dintre cele mai mari bariere pe care le-am văzut în calea extinderii programelor de AI și Big Data în întreprinderile mari a fost lipsa de încredere pe care o aveau părțile interesate de afaceri în acele programe.

Firul comun aici a devenit clar pentru Nemo, Itai și pentru mine în conversații. Industria avea nevoie de infrastructura pentru a monitoriza sistemele AI/ML în producție. Am venit cu viziunea de a oferi această vizibilitate pentru a crește încrederea părților interesate de afaceri și pentru a permite echipelor de inteligență artificială să aibă întotdeauna un control asupra modului în care funcționează sistemele lor și să repete mai eficient.

Și atunci a fost fondată Mona.

Care sunt unele dintre problemele actuale legate de lipsa transparenței AI?

În multe industrii, organizațiile au cheltuit deja zeci de milioane de dolari în programele lor AI și au înregistrat un anumit succes inițial în laborator și în implementări la scară mică. Dar extinderea, obținerea adoptării pe scară largă și determinarea afacerii să se bazeze efectiv pe AI a fost o provocare masivă pentru aproape toată lumea.

De ce se întâmplă asta? Ei bine, începe cu faptul că cercetarea excelentă nu se traduce automat în produse grozave (Un client ne-a spus odată: „Modelele ML sunt ca mașinile, în momentul în care părăsesc laboratorul, își pierd 20% din valoare”). Produsele grozave au sisteme suport. Există instrumente și procese pentru a se asigura că calitatea este susținută în timp și că problemele sunt depistate din timp și abordate eficient. Produsele grozave au, de asemenea, o buclă de feedback continuă, au un ciclu de îmbunătățire și o foaie de parcurs. În consecință, produsele excelente necesită o transparență profundă și constantă a performanței.

Când există lipsă de transparență, ajungi cu:

  • Probleme care rămân ascunse o perioadă de timp și apoi izbucnesc la suprafață provocând „exerciții de incendiu”
  • Investigații și atenuări manuale și lungi
  • Un program AI în care utilizatorii și sponsorii de afaceri nu au încredere și, în cele din urmă, nu se extinde

Care sunt unele dintre provocările din spatele transformării modelelor predictive transparente și de încredere?

Transparența este un factor important în obținerea încrederii, desigur. Transparența poate apărea sub mai multe forme. Există o singură transparență a predicției, care poate include afișarea nivelului de încredere pentru utilizator sau furnizarea unei explicații/rațiuni pentru predicție. Transparența predicției unice are ca scop în principal să ajute utilizatorul să se simtă confortabil cu predicția. Și apoi, există o transparență generală care poate include informații despre acuratețea predictivă, rezultate neașteptate și probleme potențiale. Echipa AI are nevoie de transparență generală.

Cea mai dificilă parte a transparenței generale este detectarea timpurie a problemelor, alertând membrul echipei relevante, astfel încât să poată lua măsuri corective înainte de apariția catastrofelor.

De ce este dificil să detectați problemele devreme:

  • Problemele încep adesea mici și se fierb, înainte de a ieși în cele din urmă la suprafață.
  • Problemele încep adesea din cauza unor factori externi sau necontrolați, cum ar fi sursele de date.
  • Există multe modalități de a „împărți lumea” și căutarea exhaustivă a problemelor în buzunarele mici poate duce la mult zgomot (oboseală de alertă), cel puțin atunci când acest lucru se face într-o abordare naivă.

Un alt aspect provocator al asigurării transparenței este proliferarea absolută a cazurilor de utilizare a AI. Acest lucru face ca o abordare unică pentru toate să fie aproape imposibilă. Fiecare caz de utilizare a AI poate include diferite structuri de date, diferite cicluri de afaceri, diferite metrici de succes și adesea abordări tehnice diferite și chiar stive.

Deci, este o sarcină monumentală, dar transparența este atât de fundamentală pentru succesul programelor AI, așa că trebuie să o faci.

Ați putea împărtăși câteva detalii despre soluțiile pentru modelele NLU / NLP și chatbot-uri?

AI conversațional este una dintre principalele verticale ale Monei. Suntem mândri să sprijinim companiile inovatoare cu o gamă largă de cazuri de utilizare a inteligenței artificiale conversaționale, inclusiv modele lingvistice, chatbot și multe altele.

Un factor comun în aceste cazuri de utilizare este faptul că modelele funcționează aproape (și uneori vizibil) de clienți, astfel încât riscurile de performanță inconsecventă sau de comportament prost sunt mai mari. Devine atât de important pentru echipele de IA conversaționale să înțeleagă comportamentul sistemului la nivel granular, care este un domeniu al punctelor forte ale soluției de monitorizare Mona.

Ceea ce face soluția Monei, care este destul de unică, este să cerne în mod sistematic grupuri de conversații și să găsească buzunare în care modelele (sau roboții) se comportă prost. Acest lucru permite echipelor AI conversaționale să identifice problemele din timp și înainte ca clienții să le observe. Această capacitate este un factor critic de decizie pentru echipele de IA conversaționale atunci când selectează soluții de monitorizare.

Pentru a rezuma, Mona oferă o soluție end-to-end pentru monitorizarea AI conversațională. Începe cu asigurarea existenței unei singure surse de informații pentru comportamentul sistemelor de-a lungul timpului și continuă cu urmărirea continuă a indicatorilor cheie de performanță și informații proactive despre buzunarele de comportament neadecvat – permițând echipelor să ia măsuri corective preventive și eficiente.

Ați putea oferi câteva detalii despre motorul de perspectivă al Monei?

Sigur. Să începem cu motivația. Obiectivul motorului de insight este să scoată la iveală anomaliile utilizatorilor, cu cantitatea potrivită de informații contextuale și fără a crea zgomot sau a duce la oboseală de alertă.

Motorul de perspectivă este un flux de lucru analitic unic. În acest flux de lucru, motorul caută anomalii în toate segmentele de date, permițând detectarea timpurie a problemelor atunci când acestea sunt încă „mici” și înainte ca acestea să afecteze întregul set de date și KPI-urile de afaceri din aval. Apoi utilizează un algoritm proprietar pentru a detecta cauzele principale ale anomaliilor și se asigură că fiecare anomalie este alertată o singură dată, astfel încât zgomotul să fie evitat. Tipurile de anomalii acceptate includ: anomalii ale seriei cronologice, derive, valori aberante, degradarea modelului și multe altele.

Motorul de insight este foarte personalizabil prin configurația intuitivă fără cod/low-code a Mona. Configurabilitatea motorului face din Mona cea mai flexibilă soluție de pe piață, acoperind o gamă largă de cazuri de utilizare (de exemplu, lot și streaming, cu/fără feedback de afaceri/adevăr la sol, între versiunile de model sau între tren și inferență și multe altele ).

În cele din urmă, acest motor de informații este susținut de un tablou de bord de vizualizare, în care pot fi vizualizate informații și de un set de instrumente de investigare pentru a permite analiza cauzei principale și explorarea în continuare a informațiilor contextuale. Motorul de informații este, de asemenea, complet integrat cu un motor de notificare care permite furnizarea de informații către mediile de lucru proprii ale utilizatorilor, inclusiv e-mail, platforme de colaborare și așa mai departe.

Pe 31 ianuarie, Mona a dezvăluit noua sa soluție de corectitudine AI, ați putea să ne împărtășiți detalii despre ce este această caracteristică și de ce este importantă?

Corectitudinea AI se referă la asigurarea faptului că algoritmii și sistemele bazate pe inteligența artificială în general iau decizii imparțiale și echitabile. Abordarea și prevenirea părtinirilor în sistemele AI este crucială, deoarece acestea pot avea consecințe semnificative în lumea reală. Odată cu creșterea proeminenței AI, impactul asupra vieții de zi cu zi a oamenilor ar fi vizibil în tot mai multe locuri, inclusiv automatizarea conducerii, detectarea mai precisă a bolilor, îmbunătățirea înțelegerii noastre despre lume și chiar crearea de artă. Dacă nu putem avea încredere că este corect și imparțial, cum i-am permite să continue să se răspândească?

Una dintre cauzele majore ale distorsiunilor în IA este pur și simplu capacitatea datelor de antrenament model de a reprezenta lumea reală în întregime. Acest lucru poate rezulta din discriminarea istorică, subreprezentarea anumitor grupuri sau chiar manipularea intenționată a datelor. De exemplu, un sistem de recunoaștere facială antrenat pe indivizi predominant cu pielea deschisă la culoare este probabil să aibă o rată de eroare mai mare în recunoașterea persoanelor cu tonuri de piele mai închise. În mod similar, un model de limbă instruit pe date text dintr-un set restrâns de surse poate dezvolta părtiniri dacă datele sunt înclinate către anumite viziuni asupra lumii, pe subiecte precum religia, cultura și așa mai departe.

Soluția de corectitudine AI de la Mona oferă AI și echipelor de afaceri încredere că AI-ul lor este lipsit de părtiniri. În sectoarele reglementate, soluția Mona poate pregăti echipele pentru pregătirea conformității.

Soluția de corectitudine a lui Mona este specială, deoarece se află pe platforma Mona – o punte între datele și modelele AI și implicațiile lor în lumea reală. Mona analizează toate părțile procesului de afaceri pe care modelul AI le servește în producție, pentru a corela între datele de instruire, comportamentul modelului și rezultatele reale din lumea reală, pentru a oferi cea mai cuprinzătoare evaluare a corectitudinii.

În al doilea rând, are un motor analitic unic, care permite segmentarea flexibilă a datelor pentru a controla parametrii relevanți. Acest lucru permite evaluări precise ale corelațiilor în contextul potrivit, evitând Paradoxul lui Simpson și oferind un „scor de părtinire” real profund pentru orice metrică de performanță și pentru orice caracteristică protejată.

Așadar, în general, aș spune că Mona este un element de bază pentru echipele care trebuie să construiască și să creeze o IA responsabilă.

Care este viziunea ta pentru viitorul AI?

Aceasta este o mare întrebare.

Cred că este simplu de prezis că AI va continua să crească în utilizare și impact într-o varietate de sectoare industriale și fațete ale vieții oamenilor. Cu toate acestea, este greu să iei în serios o viziune care este detaliată și, în același timp, încearcă să acopere toate cazurile de utilizare și implicațiile AI în viitor. Pentru că nimeni nu știe cu adevărat suficient pentru a picta această imagine credibil.

Acestea fiind spuse, ceea ce știm cu siguranță este că AI va fi în mâinile mai multor oameni și va servi mai multor scopuri. Nevoia de guvernanță și transparență va crește, prin urmare, în mod semnificativ.

Vizibilitatea reală a inteligenței artificiale și a modului în care funcționează va juca două roluri principale. În primul rând, va ajuta la insuflarea încrederii în oameni și la ridicarea barierelor de rezistență pentru o adoptare mai rapidă. În al doilea rând, va ajuta pe oricine operează AI să se asigure că nu scapă de sub control.

Mulțumim pentru interviul minunat, cititorii care doresc să afle mai multe ar trebui să viziteze Mona Labs.

Un partener fondator al unit.AI și un membru al Consiliul Tehnologic Forbes, Antoine este un futurist care este pasionat de viitorul AI și al roboticii.

El este, de asemenea, fondatorul Securities.io, un site web care se concentrează pe investițiile în tehnologie disruptivă.