taló Yotam Oren, CEO i cofundador de Mona Labs - Sèrie d'entrevistes - Unite.AI
Connecteu-vos amb nosaltres

entrevistes

Yotam Oren, CEO i cofundador de Mona Labs - Sèrie d'entrevistes

mm

publicat

 on

Yotam Oren, és el CEO i cofundador de Mona Labs, una plataforma que permet a les empreses transformar iniciatives d'IA des d'experiments de laboratori en operacions empresarials escalables entenent realment com es comporten els models de ML en els processos i aplicacions empresarials reals.

Mona analitza automàticament el comportament dels vostres models d'aprenentatge automàtic en els segments de dades protegits i en el context de les funcions empresarials, per tal de detectar possibles biaixos de la IA. Mona ofereix la possibilitat de generar informes d'equitat complets que compleixin els estàndards i regulacions de la indústria, i ofereix la confiança que l'aplicació d'IA compleix i no té cap biaix.

Què et va atraure inicialment de la informàtica?

La informàtica és una carrera professional popular a la meva família, per la qual cosa sempre va estar al capdavant com una opció viable. Per descomptat, la cultura israeliana és molt pro-tecnològica. Celebrem els tecnòlegs innovadors i sempre vaig tenir la percepció que CS m'oferiria una pista de creixement i assoliment.

Tot i això, només es va convertir en una passió personal quan vaig arribar a l'edat universitària. No era un d'aquells nens que van començar a programar a l'escola secundària. En la meva joventut, estava massa ocupat jugant a bàsquet per prestar atenció als ordinadors. Després de l'escola secundària, vaig passar prop de 5 anys a l'exèrcit, en funcions de lideratge operacional/de combat. Així que, d'alguna manera, només vaig començar a aprendre més sobre informàtica quan havia de triar una carrera acadèmica a la universitat. El que em va cridar l'atenció immediatament va ser que la informàtica combinava la resolució de problemes i l'aprenentatge d'un idioma (o idiomes). Dues coses que m'interessen especialment. A partir d'aleshores em vaig enganxar.

Del 2006 al 2008 vau treballar en mapeig i navegació per a una petita startup, quins van ser alguns dels vostres punts clau d'aquesta època?

La meva funció a Telmap era crear un motor de cerca a sobre de dades de mapes i ubicació.

Aquests van ser els primers dies de "big data" a l'empresa. Ni tan sols ho dèiem així, però estàvem adquirint conjunts de dades enormes i intentant extreure els coneixements més impactants i rellevants per mostrar als nostres usuaris finals.

Una de les constatacions sorprenents que vaig tenir va ser que les empreses (inclosos nosaltres) feien ús de tan poc de les seves dades (per no parlar de les dades externes disponibles públicament). Hi havia molt potencial per a nous coneixements, millors processos i experiències.

L'altra conclusió va ser que poder obtenir més dades de les nostres dades depenia, per descomptat, de tenir millors arquitectures, una millor infraestructura, etc.

Podries compartir la història de la gènesi darrere de Mona Labs?

Nosaltres, cofundadors, hem estat al voltant de productes de dades al llarg de la nostra carrera.

En Nemo, el director de tecnologia, és el meu amic de la universitat i company de classe, i un dels primers empleats de Google Tel Aviv. Allà va començar un producte anomenat Google Trends, que tenia moltes anàlisis avançades i aprenentatge automàtic basat en dades del motor de cerca. Itai, l'altre cofundador i director de producte, era a l'equip de Nemo a Google (i ell i jo ens vam conèixer a través de Nemo). Els dos sempre estaven frustrats perquè els sistemes impulsats per IA no es controlessin després del desenvolupament i proves inicials. Tot i les dificultats per provar correctament aquests sistemes abans de la producció, els equips encara no sabien com ho feien els seus models predictius amb el pas del temps. A més, semblava que l'única vegada que van sentir comentaris sobre els sistemes d'IA va ser quan les coses van anar malament i es va demanar a l'equip de desenvolupament un "simulacre d'incendi" per solucionar problemes catastròfics.

Al mateix temps, vaig ser consultor de McKinsey & Co, i una de les barreres més grans que vaig veure per a l'escalada dels programes d'IA i Big Data a les grans empreses va ser la falta de confiança que tenien les parts interessades empresarials en aquests programes.

El fil comú aquí va quedar clar per a Nemo, Itai i jo mateix en les converses. La indústria necessitava la infraestructura per supervisar els sistemes d'IA/ML en producció. Vam tenir la visió de proporcionar aquesta visibilitat per augmentar la confiança de les parts interessades del negoci i permetre que els equips d'IA tinguin sempre un control sobre com funcionen els seus sistemes i iterin de manera més eficient.

I va ser llavors quan es va fundar Mona.

Quins són alguns dels problemes actuals amb la manca de transparència de la IA?

En moltes indústries, les organitzacions ja han gastat desenes de milions de dòlars en els seus programes d'IA i han tingut un èxit inicial al laboratori i en desplegaments a petita escala. Però augmentar, aconseguir una adopció àmplia i aconseguir que l'empresa confiï realment en la IA ha estat un repte enorme per a gairebé tothom.

Per què passa això? Bé, comença amb el fet que una gran investigació no es tradueix automàticament en grans productes (un client ens va dir una vegada: "Els models ML són com els cotxes, en el moment que surten del laboratori, perden el 20% del seu valor"). Els grans productes tenen sistemes de suport. Hi ha eines i processos per garantir que la qualitat es mantingui al llarg del temps i que els problemes es detectin aviat i s'aborden de manera eficient. Els grans productes també tenen un bucle de feedback continu, tenen un cicle de millora i un full de ruta. En conseqüència, els grans productes requereixen una transparència de rendiment profunda i constant.

Quan hi ha falta de transparència, acabes amb:

  • Problemes que romanen ocults durant un temps i després van irrompre a la superfície provocant "exercicis d'incendi"
  • Investigacions i mitigacions llargues i manuals
  • Un programa d'IA en el qual els usuaris i patrocinadors empresarials no confien i, finalment, no s'escala

Quins són alguns dels reptes darrere de fer que els models predictius siguin transparents i fiables?

La transparència és un factor important per aconseguir la confiança, és clar. La transparència pot tenir moltes formes. Hi ha una única transparència de predicció que pot incloure mostrar el nivell de confiança per a l'usuari o proporcionar una explicació o justificació de la predicció. La transparència de predicció única està destinada principalment a ajudar l'usuari a sentir-se còmode amb la predicció. I després, hi ha una transparència general que pot incloure informació sobre la precisió predictiva, resultats inesperats i problemes potencials. L'equip d'IA necessita una transparència general.

La part més difícil de la transparència general és detectar els problemes amb antelació, alertant el membre de l'equip rellevant perquè pugui prendre mesures correctores abans que es produeixin catàstrofes.

Per què és difícil detectar problemes aviat:

  • Els problemes sovint comencen a poc a poc i es couen a foc lent, abans d'esclatar a la superfície.
  • Els problemes sovint comencen a causa de factors externs o incontrolables, com ara les fonts de dades.
  • Hi ha moltes maneres de "dividir el món" i la recerca exhaustiva de problemes a les butxaques petites pot provocar molt de soroll (alerta de fatiga), almenys quan això es fa amb un enfocament ingenu.

Un altre aspecte difícil de proporcionar transparència és la gran proliferació de casos d'ús de la IA. Això fa que un enfocament de mida única sigui gairebé impossible. Cada cas d'ús de la IA pot incloure diferents estructures de dades, diferents cicles de negoci, diferents mètriques d'èxit i sovint diferents enfocaments tècnics i fins i tot piles.

Per tant, és una tasca monumental, però la transparència és tan fonamental per a l'èxit dels programes d'IA, així que cal fer-ho.

Podríeu compartir alguns detalls sobre les solucions per als models NLU / NLP i els Chatbots?

La IA conversacional és un dels principals verticals de Mona. Estem orgullosos de donar suport a empreses innovadores amb una àmplia gamma de casos d'ús d'IA conversacional, inclosos models d'idioma, chatbots i molt més.

Un factor comú en aquests casos d'ús és que els models funcionen a prop (i de vegades visiblement) dels clients, de manera que els riscos de rendiment inconsistent o mal comportament són més grans. Esdevé tan important que els equips d'IA conversacionals entenguin el comportament del sistema a un nivell granular, que és un dels punts forts de la solució de monitorització de Mona.

El que fa la solució de Mona que és força singular és tamisar de manera sistemàtica grups de converses i trobar butxaques en què els models (o robots) es comporten malament. Això permet als equips d'IA conversacionals identificar els problemes abans que els clients els notin. Aquesta capacitat és un factor de decisió crític per als equips d'IA conversacionals a l'hora de seleccionar solucions de monitorització.

Per resumir-ho, Mona ofereix una solució d'extrem a extrem per al monitoratge d'IA conversacional. Comença per garantir que hi ha una única font d'informació per al comportament dels sistemes al llarg del temps i continua amb un seguiment continu dels indicadors clau de rendiment i informació proactiva sobre les bosses de mal comportament, cosa que permet als equips prendre mesures correctives preventives i eficients.

Podries oferir alguns detalls sobre el motor d'informació de Mona?

Segur. Comencem per la motivació. L'objectiu del motor d'informació és detectar anomalies als usuaris, amb la quantitat adequada d'informació contextual i sense crear soroll ni provocar fatiga d'alerta.

El motor d'informació és un flux de treball analític únic. En aquest flux de treball, el motor cerca anomalies en tots els segments de les dades, la qual cosa permet la detecció precoç dels problemes quan encara són "petits" i abans que afectin tot el conjunt de dades i els KPI empresarials posteriors. A continuació, utilitza un algorisme propietari per detectar les causes fonamentals de les anomalies i s'assegura que cada anomalia només s'avisa una vegada per evitar el soroll. Els tipus d'anomalies admesos inclouen: anomalies de sèrie temporal, deriva, valors atípics, degradació del model i molt més.

El motor d'informació és altament personalitzable mitjançant la configuració intuïtiva sense codi/codi baix de Mona. La configurabilitat del motor fa que Mona sigui la solució més flexible del mercat, que cobreix una àmplia gamma de casos d'ús (p. ex., lots i streaming, amb/sense comentaris empresarials / veritat de terra, entre versions de model o entre tren i inferència, i molt més). ).

Finalment, aquest motor d'informació compta amb el suport d'un tauler de visualització, en el qual es poden veure els coneixements, i d'un conjunt d'eines d'investigació per permetre l'anàlisi de la causa arrel i una exploració addicional de la informació contextual. El motor d'informació també està totalment integrat amb un motor de notificacions que permet donar informació als entorns de treball dels propis usuaris, com ara el correu electrònic, les plataformes de col·laboració, etc.

El 31 de gener, Mona va donar a conèixer la seva nova solució d'equitat en IA, podríeu compartir amb nosaltres detalls sobre què és aquesta característica i per què és important?

L'equitat de la IA consisteix a garantir que els algorismes i els sistemes basats en IA en general prenguin decisions imparcials i equitatives. Abordar i prevenir els biaixos en els sistemes d'IA és crucial, ja que poden tenir conseqüències importants en el món real. Amb el protagonisme creixent de la IA, l'impacte en la vida diària de les persones seria visible en cada cop més llocs, incloent-hi l'automatització de la nostra conducció, la detecció de malalties amb més precisió, la millora de la nostra comprensió del món i, fins i tot, la creació d'art. Si no podem confiar que sigui just i imparcial, com permetríem que es continuï estenent?

Una de les principals causes dels biaixos en IA és simplement la capacitat de les dades d'entrenament del model per representar el món real en la seva totalitat. Això pot derivar d'una discriminació històrica, una infrarepresentació de determinats grups o fins i tot una manipulació intencionada de dades. Per exemple, un sistema de reconeixement facial entrenat en individus predominantment de pell clara és probable que tingui una taxa d'error més alta a l'hora de reconèixer individus amb tons de pell més foscos. De la mateixa manera, un model de llenguatge entrenat amb dades de text d'un conjunt reduït de fonts pot desenvolupar biaixos si les dades estan esbiaixades cap a determinades visions del món, sobre temes com la religió, la cultura, etc.

La solució d'equitat de la IA de Mona ofereix a la IA i als equips empresarials la confiança que la seva IA està lliure de biaixos. En els sectors regulats, la solució de Mona pot preparar els equips per a la preparació del compliment.

La solució d'equitat de Mona és especial perquè es troba a la plataforma Mona: un pont entre les dades i els models d'IA i les seves implicacions en el món real. Mona analitza totes les parts del procés empresarial que serveix el model d'IA a la producció, per correlacionar les dades d'entrenament, el comportament del model i els resultats reals del món real per tal de proporcionar l'avaluació més completa de l'equitat.

En segon lloc, té un motor analític únic que permet una segmentació flexible de les dades per controlar els paràmetres rellevants. Això permet avaluacions de correlacions precises en el context adequat, evitant la paradoxa de Simpson i proporcionant una "puntuació de biaix" real profunda per a qualsevol mètrica de rendiment i sobre qualsevol característica protegida.

Per tant, en general, diria que Mona és un element fonamental per als equips que necessiten construir i escalar una IA responsable.

Quina és la teva visió del futur de la IA?

Aquesta és una gran pregunta.

Crec que és senzill predir que la IA continuarà creixent en l'ús i l'impacte en diversos sectors industrials i facetes de la vida de les persones. No obstant això, és difícil prendre's seriosament una visió detallada i, alhora, tracta de cobrir tots els casos d'ús i implicacions de la IA en el futur. Perquè ningú en sap prou com per pintar aquesta imatge de manera creïble.

Dit això, el que sabem amb seguretat és que la IA estarà en mans de més persones i servirà per a més propòsits. Per tant, la necessitat de governança i transparència augmentarà significativament.

La visibilitat real de la IA i el seu funcionament tindrà dos papers principals. En primer lloc, ajudarà a inculcar confiança en les persones i a aixecar les barreres de resistència per a una adopció més ràpida. En segon lloc, ajudarà a qui utilitzi IA a assegurar-se que no se'ns escapa de les mans.

Gràcies per la gran entrevista, els lectors que vulguin aprendre més haurien de visitar Mona Labs.

Soci fundador de unit.AI i membre de la Consell Tecnològic de Forbes, Antoine és un futurista apassionat pel futur de la IA i la robòtica.

També és el fundador de Securities.io, un lloc web que se centra a invertir en tecnologia disruptiva.