Stumm Yotam Oren, CEO & Cofounder vu Mona Labs - Interview Series - Unite.AI
Connect mat eis

Interviewen

Yotam Oren, CEO a Matgrënner vu Mona Labs - Interview Serie

mm

publizéiert

 on

Yotam Oren, ass de CEO & Cofounder vun Mona Labs, eng Plattform déi Entreprisen et erméiglecht AI Initiativen aus Labo Experimenter an skalierbare Geschäftsoperatiounen ze transforméieren andeems se wierklech verstoen wéi ML Modeller sech an echte Geschäftsprozesser an Uwendungen behuelen.

Mona analyséiert automatesch d'Behuele vun Äre Maschinnléiermodeller iwwer geschützte Datesegmenter an am Kontext vun de Geschäftsfunktiounen, fir potenziell AI Bias z'entdecken. Mona bitt d'Fäegkeet fir komplett Fairness Berichter ze generéieren déi d'Industrienormen a Reglementer entspriechen, a bitt Vertrauen datt d'AI Applikatioun konform ass a gratis vun all Viraussetzung.

Wat huet Iech am Ufank un d'Informatik ugezunn?

Informatik ass e populäre Karriärwee a menger Famill, sou datt et ëmmer am Réck war als eng viabel Optioun. Natierlech ass d'israelesch Kultur ganz pro-Tech. Mir feieren innovativ Technologen an ech hat ëmmer d'Perceptioun datt CS mir eng Pist fir Wuesstem an Erreeche géif ubidden.

Trotzdem gouf et nëmmen eng perséinlech Leidenschaft wann ech den Unisalter erreecht hunn. Ech war net ee vun deene Kanner, déi an der Mëttelschoul ugefaang hunn ze codéieren. A menger Jugend war ech ze beschäftegt Basketball ze spillen fir op Computeren opzepassen. Nom Lycée hunn ech bal 5 Joer am Militär verbruecht, an operationell / Kampf Leadership Rollen. Also, op eng Manéier, hunn ech wierklech just ugefaang iwwer Informatik méi ze léieren wann ech en akademesche Major op der Uni muss wielen. Wat meng Opmierksamkeet direkt gefaangen huet war datt d'Informatik d'Problemer ze léisen kombinéiert an eng Sprooch (oder Sproochen) ze léieren. Zwou Saache war ech besonnesch interesséiert. Vun do un war ech ugeschloss.

Vun 2006 bis 2008 hutt Dir un der Kartéierung an der Navigatioun fir e klenge Startup geschafft, wat waren e puer vun Äre wichtegsten Ausnamen aus dëser Ära?

Meng Roll bei Telmap war eng Sichmotor opzebauen uewen op Kaart- a Standortdaten.

Dëst waren déi ganz fréi Deeg vu "Big Data" an der Entreprise. Mir hunn et net emol esou genannt, awer mir hunn enorm Datesätz erfaasst a probéiert déi beaflosst an relevant Abléck ze zéien fir eis Endverbraucher ze weisen.

Eng vun de markant Erkenntnisser, déi ech hat, war datt d'Firmen (och eis) sou wéineg vun hiren Donnéeë benotzt hunn (fir net ze schwätzen iwwer ëffentlech verfügbar extern Donnéeën). Et war sou vill Potenzial fir nei Abléck, besser Prozesser an Erfahrungen.

Déi aner Ausnam war datt et méi vun eisen Donnéeën ze kréien ass, natierlech op besser Architekturen, besser Infrastruktur an sou weider.

Kënnt Dir d'Genesisgeschicht hannert Mona Labs deelen?

Déi dräi vun eis, Matgrënner, goufen ronderëm daten Produiten uechter eis Carrière.

Nemo, de Chef Technologie Offizéier, ass mäi Kolleg Frënd a Klassekomeroden, an ee vun den éischte Mataarbechter vu Google Tel Aviv. Hien huet do e Produkt ugefaang mam Numm Google Trends, dee vill fortgeschratt Analyse a Maschinnléiere baséiert op Sichmotordaten. Den Itai, deen anere Matgrënner a Chef Produkt Offizéier, war am Nemo Team bei Google (an hien an ech hu sech duerch Nemo kennegeléiert). Déi zwee vun hinnen waren ëmmer frustréiert datt AI-gedriwwe Systemer no der initialer Entwécklung an Tester onkontrolléiert goufen. Trotz Schwieregkeeten fir dës Systemer richteg virun der Produktioun ze testen, wossten d'Equipen nach ëmmer net wéi gutt hir prévisiv Modeller iwwer Zäit gemaach hunn. Zousätzlech huet et geschéngt datt déi eenzeg Kéier wou se e Feedback iwwer AI Systemer héieren hunn, war wann d'Saache schlecht gaangen sinn an d'Entwécklungsteam fir eng "Feierübung" geruff gouf fir katastrophal Themen ze fixéieren.

Ëm déiselwecht Zäit war ech e Beroder bei McKinsey & Co, an eng vun de gréisste Barrièren, déi ech gesinn hunn fir AI a Big Data Programmer ze scaléieren a groussen Entreprisen, war de Mangel u Vertrauen, datt d'Geschäftsinteresséiert an dëse Programmer haten.

De gemeinsame Fuedem hei gouf dem Nemo, dem Itai a mir a Gespréicher kloer. D'Industrie brauch d'Infrastruktur fir AI / ML Systemer an der Produktioun ze iwwerwaachen. Mir sinn mat der Visioun komm fir dës Visibilitéit ze bidden fir d'Vertraue vun de Geschäftsakteuren ze erhéijen, an AI Teams z'erméiglechen ëmmer e Grëff ze hunn wéi hir Systemer et maachen a méi effizient ze iteréieren.

An do gouf d'Mona gegrënnt.

Wat sinn e puer vun den aktuellen Themen mat Mangel un AI Transparenz?

A ville Industrien hunn Organisatiounen schonn zéngdausende vu Millioune Dollar an hir AI Programmer ausginn, an hunn e puer initialen Erfolleg am Labo an a klenge Skala Deployementer gesinn. Awer d'Skaléieren, eng breet Adoptioun z'erreechen an d'Geschäft ze kréien fir tatsächlech op AI ze vertrauen war eng massiv Erausfuerderung fir bal jiddereen.

Firwat geschitt dat? Gutt, et fänkt mat der Tatsaach un datt grouss Fuerschung net automatesch op super Produkter iwwersetzt (E Client huet eis eemol gesot: "ML Modeller si wéi Autoen, de Moment wou se de Labo verloossen, verléieren se 20% vun hirem Wäert"). Grouss Produkter hunn ënnerstëtzend Systemer. Et gi Tools a Prozesser fir sécherzestellen datt d'Qualitéit iwwer Zäit nohalteg ass, an datt Themen fréi gefaangen an effizient behandelt ginn. Grouss Produkter hunn och eng kontinuéierlech Feedback Loop, si hunn e Verbesserungszyklus an e Fahrplang. Dofir erfuerderen super Produkter déif a konstant Leeschtungstransparenz.

Wann et Mangel un Transparenz ass, kënnt Dir op:

  • Themen déi eng Zäit laang verstoppt bleiwen an dann an d'Uewerfläch platzen a "Feierübungen" verursaachen
  • Laang a manuell Ermëttlungen a Mitigungen
  • En AI Programm deen net vun de Geschäftsbenotzer a Sponsoren vertraut gëtt a schlussendlech net klappt

Wat sinn e puer vun den Erausfuerderunge hannert prévisiv Modeller transparent an zouverlässeg ze maachen?

Transparenz ass natierlech e wichtege Faktor fir Vertrauen z'erreechen. Transparenz kann a ville Formen kommen. Et gëtt eng eenzeg Prognose Transparenz déi den Niveau vum Vertrauen dem Benotzer weisen kann, oder eng Erklärung / Begrënnung fir d'Prognose ubidden. Transparenz vun enger eenzeger Prognose ass meeschtens zielt fir de Benotzer ze hëllefen sech bequem mat der Prognose ze kréien. An dann gëtt et allgemeng Transparenz déi Informatioun iwwer prévisiv Genauegkeet, onerwaart Resultater a potenziell Themen enthält. Allgemeng Transparenz ass vum AI Team gebraucht.

Dee schwieregsten Deel vun der allgemenger Transparenz ass d'Problemer fréi z'entdecken, den zoustännegen Teammember ze alarméieren sou datt se Korrekturaktioune kënne huelen ier Katastrophen optrieden.

Firwat et Erausfuerderung ass Problemer fréi z'entdecken:

  • Themen fänken dacks kleng a simmer, ier se schliisslech an d'Uewerfläch platzen.
  • Themen fänken dacks un duerch onkontrolléierbar oder extern Faktoren, wéi Datenquellen.
  • Et gi vill Manéiere fir "d'Welt opzedeelen" an ustrengend no Probleemer a klenge Taschen ze sichen, kann zu vill Kaméidi féieren (alarm Middegkeet), op d'mannst wann dëst an enger naiver Approche gemaach gëtt.

En aneren usprochsvollen Aspekt fir Transparenz ze liwweren ass déi pur Verbreedung vun AI Benotzungsfäll. Dëst mécht eng One-Size passt all Approche bal onméiglech. All AI Benotzungsfall kann verschidden Datestrukturen, verschidde Geschäftszyklen, verschidden Erfollegsmetriken, an dacks verschidden technesch Approchen a souguer Stacks enthalen.

Also, et ass eng monumental Aufgab, awer Transparenz ass sou fundamental fir den Erfolleg vun AI Programmer, also musst Dir et maachen.

Kënnt Dir e puer Detailer iwwer d'Léisunge fir NLU / NLP Modeller & Chatbots deelen?

Conversational AI ass ee vun de Core Vertikalen vu Mona. Mir sinn houfreg innovativ Firmen mat enger breet Palette vu konversativen AI Benotzungsfäll z'ënnerstëtzen, dorënner Sproochmodeller, Chatbots a méi.

E gemeinsame Faktor iwwer dës Benotzungsfäll ass datt d'Modeller no (an heiansdo siichtbar) bei de Clienten funktionnéieren, sou datt d'Risike vun enger inkonsistenter Leeschtung oder schlechtem Verhalen méi héich sinn. Et gëtt sou wichteg fir konversativ AI Teams fir Systemverhalen op granulärem Niveau ze verstoen, wat e Stäerktberäich vun der Mona Iwwerwaachungsléisung ass.

Wat d'Mona Léisung mécht dat ass ganz eenzegaarteg ass systematesch Gruppe vu Gespréicher ze siften an Taschen ze fannen an deenen d'Modeller (oder Bots) sech falsch behuelen. Dëst erlaabt konversativ AI Teams Problemer fréi ze identifizéieren a ier d'Clienten se bemierken. Dës Fäegkeet ass e kriteschen Entscheedungsfuerer fir konversativ AI Teams wann Dir Iwwerwaachungsléisungen auswielen.

Fir et ze resuméieren, bitt Mona eng End-to-End Léisung fir konversativ AI Iwwerwaachung. Et fänkt un mat ze garantéieren datt et eng eenzeg Informatiounsquell gëtt fir d'Systemverhalen iwwer Zäit, a geet weider mat kontinuéierlecher Verfollegung vu Schlësselleistungsindikatoren, a proaktiven Abléck iwwer Taschen vu Mëssverhalen - wat Teams erlaabt preemptiv, effizient Korrekturmoossnamen ze huelen.

Kënnt Dir e puer Detailer iwwer dem Mona seng Asiichtmotor bidden?

Sécher. Fänke mer mat der Motivatioun un. D'Zil vum Insight-Moteur ass d'Unerkennung vun Anomalien un d'Benotzer, mat just der richteger Quantitéit u kontextueller Informatioun an ouni Kaméidi ze kreéieren oder zu Alarm Middegkeet ze féieren.

Den Asiichtmotor ass en eenzegen analyteschen Workflow. An dësem Workflow sicht de Motor no Anomalien an alle Segmenter vun den Donnéeën, wat fréizäiteg Erkennung vu Probleemer erlaabt wann se nach ëmmer "kleng" sinn, a ier se de ganzen Dataset an den Downstream Business KPIs beaflossen. Et benotzt dann e propriétaire Algorithmus fir d'Wurzelursaachen vun den Anomalien z'entdecken a suergt dofir datt all Anomalie nëmmen eemol alarméiert gëtt, sou datt Kaméidi vermeit gëtt. Ënnerstëtzt Anomalietypen enthalen: Zäitserieanomalien, Driften, Ausgrenzungen, Modelldegradatioun a méi.

Den Asiichtmotor ass héich personaliséierbar iwwer dem Mona seng intuitiv No-Code / Low-Code Konfiguratioun. D'Konfigurabilitéit vum Motor mécht d'Mona déi flexibelst Léisung um Maart, déi eng breet Palette vu Gebrauchsfäll deckt (zB Batch a Streaming, mat / ouni Geschäftsfeedback / Grondwahrheet, iwwer Modellversioune oder tëscht Zuch an Inferenz, a méi ).

Schlussendlech gëtt dësen Insight-Motor vun engem Visualiséierungs-Dashboard ënnerstëtzt, an deem Abléck kënne gekuckt ginn, an eng Rei vun Untersuchungsinstrumenter fir d'Rootursaach Analyse a weider Exploratioun vun der kontextueller Informatioun z'erméiglechen. Den Asiichtmotor ass och komplett integréiert mat engem Notifikatiounsmotor deen et erméiglecht Abléck an d'Benotzer hir eegen Aarbechtsëmfeld ze fidderen, inklusiv E-Mail, Zesummenaarbecht Plattformen a sou weider.

Den 31. Januar, Mona enthüllt seng nei AI Fairness Léisung, kënnt Dir mat eis Detailer deelen iwwer wat dës Feature ass a firwat et wichteg ass?

AI Fairness geet drëm ze garantéieren datt Algorithmen an AI-driven Systemer am Allgemengen onparteiesch a gerecht Entscheedunge treffen. Adresséieren a Verhënnerung vu Biases an AI Systemer ass entscheedend, well se zu bedeitende Konsequenze vun der realer Welt féieren. Mat der steigender Prominenz vun der AI, wier den Impakt op den Alldag vun de Leit op ëmmer méi Plazen siichtbar, ënner anerem d'Automatiséierung vun eisem Fuere, d'Krankheete méi präzis z'entdecken, eist Verständnis vun der Welt ze verbesseren, a souguer Konscht ze kreéieren. Wa mir net kënne vertrauen datt et fair an onparteiesch ass, wéi wäerte mir et erlaben datt et weider verbreet?

Ee vun den Haaptursaachen vu Biases an AI ass einfach d'Fäegkeet vu Modelltrainingsdaten fir d'real Welt voll ze representéieren. Dëst kann aus historescher Diskriminatioun kommen, Ënnerrepresentatioun vu bestëmmte Gruppen, oder souguer virsiichteg Manipulatioun vun Daten. Zum Beispill, e Gesiichtserkennungssystem trainéiert op haaptsächlech hell Haut Individuen ass méiglecherweis e méi héije Fehlerquote bei der Unerkennung vun Individuen mat méi däischter Hauttéin. Ähnlech kann e Sproochemodell, deen op Textdaten aus enger schmueler Rei vu Quellen trainéiert gëtt, Biases entwéckelen, wann d'Donnéeën op bestëmmte Weltvisioune schief sinn, iwwer Themen wéi Relioun, Kultur a sou weider.

Dem Mona seng AI Fairness Léisung gëtt AI a Geschäftsteams Vertrauen datt hir AI fräi vu Biases ass. A reglementéierte Secteuren kann d'Mona Léisung Teams op d'Konformitéitsbereetschaft virbereeden.

Dem Mona seng Fairness Léisung ass speziell well se op der Mona Plattform sëtzt - eng Bréck tëscht AI Daten a Modeller an hir real Welt Implikatiounen. D'Mona kuckt op all Deeler vum Geschäftsprozess, deen den AI Modell an der Produktioun servéiert, fir tëscht Trainingsdaten, Modellverhalen an tatsächlech Resultater vun der realer Welt ze korreléieren fir déi ëmfaassend Bewäertung vu Fairness ze bidden.

Zweetens, et huet eng eenzegaarteg analytesch Motor déi flexibel Segmentatioun vun den Donnéeën erlaabt fir relevant Parameteren ze kontrolléieren. Dëst erméiglecht präzis Korrelatiounsbewäertungen am richtege Kontext, vermeit dem Simpson säi Paradox a liwwert en déiwe richtege "Biasscore" fir all Leeschtungsmetrik an op all geschützte Feature.

Also, insgesamt géif ech soen datt d'Mona e Fundamentalelement fir Teams ass déi verantwortlech AI musse bauen an skaléieren.

Wat ass Är Visioun fir d'Zukunft vun AI?

Dëst ass eng grouss Fro.

Ech mengen et ass einfach ze virauszesoen datt AI weider wäert wuessen an der Notzung an Impakt iwwer eng Vielfalt vun Industriesektoren a Facette vum Liewen vun de Leit. Wéi och ëmmer, et ass schwéier eng Visioun eescht ze huelen déi detailléiert ass a gläichzäiteg probéiert all Benotzungsfäll an Implikatioune vun AI an der Zukunft ze decken. Well keen weess wierklech genuch fir dat Bild glafwierdeg ze molen.

Wann dat gesot gëtt, wat mir sécher wëssen ass datt AI an den Hänn vu méi Leit wäert sinn a méi Zwecker déngen. De Besoin u Gouvernance an Transparenz wäert also däitlech eropgoen.

Real Visibilitéit an AI a wéi et funktionnéiert wäert zwou primär Rollen spillen. Als éischt wäert et hëllefen Vertrauen an d'Leit z'erhéijen an d'Resistenzbarrièren ophiewen fir méi séier Adoptioun. Zweetens, et wäert hëllefen, wiem AI bedreift ze garantéieren datt et net aus der Hand geet.

Merci fir dee super Interview, Lieser déi méi gewuer ginn solle besichen Mona Labs.

A founding partner of unite.AI & e Member vun der Forbes Technology Council, Den Antoine ass a futuristesch déi passionéiert ass iwwer d'Zukunft vun AI & Robotik.

Hien ass och de Grënner vun Securities.io, eng Websäit déi sech op d'Investitioun an d'Stéierungstechnologie konzentréiert.