Connect with us

Yotam Oren, CEO & Mitgründer von Mona Labs – Interviewreihe

Interviews

Yotam Oren, CEO & Mitgründer von Mona Labs – Interviewreihe

mm

Yotam Oren ist der CEO & Mitgründer von Mona Labs, einer Plattform, die es Unternehmen ermöglicht, AI-Initiativen von Laborexperimenten in skalierbare Geschäftsoperationen umzuwandeln, indem sie wirklich verstehen, wie ML-Modelle in realen Geschäftsprozessen und Anwendungen funktionieren.

Mona analysiert automatisch das Verhalten von Machine-Learning-Modellen über geschützte Datensegmente und im Kontext der Geschäftsfunktionen, um potenzielle AI-Vorrechte zu erkennen. Mona bietet die Möglichkeit, vollständige Fairness-Berichte zu generieren, die den Branchenstandards und Vorschriften entsprechen und die Gewissheit bieten, dass die AI-Anwendung konform und frei von Vorurteilen ist.

Was hat Sie ursprünglich zur Informatik hingezogen?

Informatik ist in meiner Familie ein beliebter Karriereweg, also war es immer eine Option, die ich im Hinterkopf hatte. Natürlich ist die israelische Kultur sehr technikaffin. Wir feiern innovative Technologen und ich hatte immer die Vorstellung, dass Informatik mir einen Weg für Wachstum und Erfolg bieten würde.

Trotzdem wurde es erst zu einer persönlichen Leidenschaft, als ich Universitätsalter erreichte. Ich war nicht eines dieser Kinder, die bereits in der Mittelschule mit dem Programmieren begannen. In meiner Jugend war ich zu sehr mit Basketball beschäftigt, um auf Computer zu achten. Nach der High School verbrachte ich fast 5 Jahre in der Armee, in operativen/kombativen Führungsrollen. Also begann ich erst wirklich, mich mit Informatik zu beschäftigen, als ich mich für ein akademisches Hauptfach entscheiden musste. Was meine Aufmerksamkeit sofort erregte, war, dass Informatik das Lösen von Problemen und das Lernen von Sprachen (oder Sprachen) kombinierte. Zwei Dinge, die mich besonders interessierten. Von da an war ich gefesselt.

Von 2006 bis 2008 haben Sie an Kartierung und Navigation für ein kleines Start-up gearbeitet, was waren einige Ihrer wichtigsten Erkenntnisse aus dieser Zeit?

Meine Rolle bei Telmap bestand darin, eine Suchmaschine auf Basis von Karten- und Ortsdaten aufzubauen.

Das waren die frühen Tage von “Big Data” im Unternehmen. Wir nannten es nicht einmal so, aber wir erwarben enorme Datensätze und versuchten, die aussagekräftigsten und relevantesten Erkenntnisse für unsere Endbenutzer zu gewinnen.

Eine der auffallendsten Erkenntnisse, die ich hatte, war, dass Unternehmen (einschließlich uns) so wenig von ihren Daten (geschweige denn öffentlich verfügbaren externen Daten) nutzten. Es gab so viel Potenzial für neue Erkenntnisse, bessere Prozesse und Erfahrungen.

Die andere Erkenntnis war, dass es, um mehr von unseren Daten zu erhalten, natürlich darauf ankommt, bessere Architekturen, bessere Infrastruktur und so weiter zu haben.

Können Sie die Entstehungsgeschichte hinter Mona Labs teilen?

Die drei von uns, Mitgründer, haben unsere Karrieren lang mit Datenprodukten zu tun.

Nemo, der Chief Technology Officer, ist mein College-Freund und Kommilitone und einer der ersten Mitarbeiter von Google Tel Aviv. Er startete dort ein Produkt namens Google Trends, das viele fortschrittliche Analysen und Machine Learning auf Basis von Suchmaschinendaten hatte. Itai, der andere Mitgründer und Chief Product Officer, war in Nemos Team bei Google (und ich traf ihn durch Nemo). Die beiden von ihnen waren immer frustriert, dass AI-getriebene Systeme nach der anfänglichen Entwicklung und dem Testen unüberwacht blieben. Trotz der Schwierigkeit, diese Systeme ordnungsgemäß zu testen, bevor sie in die Produktion gingen, wussten die Teams nicht, wie gut ihre Vorhersagemodelle im Laufe der Zeit funktionierten. Zusätzlich schien es, dass sie nur dann Feedback über AI-Systeme erhielten, wenn etwas schiefging und das Entwicklungsteam zu einem “Feuerwehr-Einsatz” gerufen wurde, um katastrophale Probleme zu beheben.

Zur gleichen Zeit war ich als Berater bei McKinsey & Co. tätig, und einer der größten Barrieren, die ich bei AI- und Big-Data-Programmen in großen Unternehmen sah, war der Mangel an Vertrauen, den die Geschäftsführer in diese Programme hatten.

Der gemeinsame Faden wurde klar für Nemo, Itai und mich in Gesprächen. Die Branche benötigte die Infrastruktur, um AI/ML-Systeme in der Produktion zu überwachen. Wir kamen mit der Vision auf, diese Sichtbarkeit zu bieten, um das Vertrauen der Geschäftsführer zu erhöhen und AI-Teams zu ermöglichen, immer einen Griff auf ihre Systeme zu haben und effizienter zu iterieren.

Und das war der Zeitpunkt, als Mona gegründet wurde.

Was sind einige der aktuellen Probleme mit fehlender AI-Transparenz?

In vielen Branchen haben Unternehmen bereits Millionen von Dollar in ihre AI-Programme investiert und haben anfänglichen Erfolg im Labor und in kleinen Einsatzszenarien gesehen. Aber das Skalieren, das Erreichen einer breiten Akzeptanz und das tatsächliche Verlassen auf AI ist für fast jeden eine massive Herausforderung.

Warum passiert das? Nun, es beginnt damit, dass großartige Forschung nicht automatisch zu großartigen Produkten führt (Ein Kunde sagte uns einmal: “ML-Modelle sind wie Autos, sobald sie das Labor verlassen, verlieren sie 20% ihres Wertes”). Großartige Produkte haben unterstützende Systeme. Es gibt Tools und Prozesse, um sicherzustellen, dass die Qualität über die Zeit hinweg aufrechterhalten wird und dass Probleme frühzeitig erkannt und effizient behoben werden. Großartige Produkte haben auch einen kontinuierlichen Feedback-Kreislauf, sie haben einen Verbesserungszyklus und eine Roadmap. Folglich erfordern großartige Produkte tiefere und ständige Leistungstransparenz.

Wenn es an Transparenz fehlt, endet man mit:

  • Problemen, die lange verborgen bleiben und dann plötzlich an die Oberfläche kommen und “Feuerwehreinsätze” verursachen
  • Langwierigen und manuellen Untersuchungen und Abhilfemaßnahmen
  • Ein AI-Programm, das von den Geschäftsnutzern und Sponsoren nicht vertraut wird und letztendlich nicht skaliert

Was sind einige der Herausforderungen hinter der Herstellung von Vorhersagemodellen transparent und vertrauenswürdig?

Transparenz ist ein wichtiger Faktor, um Vertrauen zu erlangen, natürlich. Transparenz kann in vielen Formen auftreten. Es gibt Transparenz bei einzelnen Vorhersagen, die das Anzeigen des Vertrauensniveaus für den Benutzer oder die Bereitstellung einer Erklärung/Begründung für die Vorhersage umfassen kann. Transparenz bei einzelnen Vorhersagen ist hauptsächlich darauf ausgerichtet, dem Benutzer zu helfen, sich mit der Vorhersage wohlzufühlen. Und dann gibt es die Gesamtransparenz, die Informationen über Vorhersagegenauigkeit, unerwartete Ergebnisse und potenzielle Probleme umfassen kann. Gesamtransparenz ist für das AI-Team erforderlich.

Der herausforderndste Teil der Gesamtransparenz ist die frühzeitige Erkennung von Problemen, die Warnung des relevanten Teammitglieds, damit es korrigierende Maßnahmen ergreifen kann, bevor Katastrophen eintreten.

Warum es schwierig ist, Probleme frühzeitig zu erkennen:

  • Probleme beginnen oft klein und brodeln, bevor sie schließlich an die Oberfläche kommen.
  • Probleme beginnen oft aufgrund unkontrollierbarer oder externer Faktoren, wie Datenquellen.
  • Es gibt viele Möglichkeiten, “die Welt zu teilen” und ausführlich nach Problemen in kleinen Taschen zu suchen, was zu viel Lärm (Alert-Fatigue) führen kann, zumindest wenn dies auf naive Weise durchgeführt wird.

Ein weiterer herausfordernder Aspekt der Bereitstellung von Transparenz ist die enorme Verbreitung von AI-Anwendungsfällen. Dies macht einen einheitlichen Ansatz fast unmöglich. Jeder AI-Anwendungsfall kann unterschiedliche Datenstrukturen, verschiedene Geschäftszyklen, verschiedene Erfolgsmaßstäbe und oft unterschiedliche technische Ansätze und sogar Stacks umfassen.

Es ist also eine monumentale Aufgabe, aber Transparenz ist so fundamental für den Erfolg von AI-Programmen, also muss man es tun.

Können Sie einige Details zu den Lösungen für NLU/NLP-Modelle und Chatbots teilen?

Conversational AI ist einer der Kernbereiche von Mona. Wir sind stolz darauf, innovative Unternehmen mit einer Vielzahl von Conversational-AI-Anwendungsfällen zu unterstützen, einschließlich Sprachmodellen, Chatbots und mehr.

Ein gemeinsamer Faktor bei diesen Anwendungsfällen ist, dass die Modelle nahe bei den Kunden (und manchmal sichtbar) arbeiten, sodass das Risiko einer inkonsistenten Leistung oder eines schlechten Verhaltens höher ist. Es wird daher sehr wichtig für Conversational-AI-Teams, das Systemverhalten auf granularer Ebene zu verstehen, was ein Bereich der Stärke von Monas Überwachungslösung ist.

Was Monas Lösung einzigartig macht, ist, dass sie systematisch Gruppen von Gesprächen durchsiebt und Taschen findet, in denen die Modelle (oder Bots) falsch verhalten. Dies ermöglicht es Conversational-AI-Teams, Probleme frühzeitig zu erkennen, bevor Kunden sie bemerken. Diese Fähigkeit ist ein entscheidender Treiber für Conversational-AI-Teams bei der Auswahl von Überwachungslösungen.

Zusammenfassend bietet Mona eine umfassende Lösung für die Überwachung von Conversational AI. Sie beginnt damit, sicherzustellen, dass es eine einzige Informationsquelle für das Systemverhalten über die Zeit gibt, und setzt sich fort mit der kontinuierlichen Verfolgung von Schlüsselleistungsindikatoren und proaktiven Erkenntnissen über Taschen von Fehlverhalten – ermöglicht es Teams, vorbeugende, effiziente korrigierende Maßnahmen zu ergreifen.

Können Sie einige Details zu Monas Erkenntnismotor teilen?

Natürlich. Lassen Sie uns mit der Motivation beginnen. Das Ziel des Erkenntnismotors ist es, Anomalien den Benutzern mit genau der richtigen Menge an Kontextinformationen und ohne Lärm oder Alert-Fatigue zu präsentieren.

Der Erkenntnismotor ist ein einzigartiger analytischer Workflow. In diesem Workflow sucht der Motor nach Anomalien in allen Segmenten der Daten, um frühzeitig Probleme zu erkennen, wenn sie noch “klein” sind, und bevor sie das gesamte Dataset und die nachgelagerten Geschäftskennzahlen beeinträchtigen. Er verwendet dann einen proprietären Algorithmus, um die Ursachen der Anomalien zu erkennen und sicherzustellen, dass jede Anomalie nur einmal alarmiert wird, um Lärm zu vermeiden. Anomalietypen, die unterstützt werden, umfassen: Zeitreihenanomalien, Drifts, Ausreißer, Modellverschlechterung und mehr.

Der Erkenntnismotor ist hoch anpassbar über Monas intuitive No-Code/Low-Code-Konfiguration. Die Anpassbarkeit des Motors macht Mona zur flexibelsten Lösung auf dem Markt, die eine Vielzahl von Anwendungsfällen abdeckt (z. B. Batch und Streaming, mit/ohne Geschäftsrückmeldung / Ground Truth, über Modellversionen oder zwischen Trainings- und Inferenz, und mehr).

Schließlich wird dieser Erkenntnismotor von einem Visualisierungs-Dashboard unterstützt, in dem Erkenntnisse angezeigt werden können, und einer Reihe von Untersuchungstools, um eine Ursachenanalyse und weitere Exploration der Kontextinformationen zu ermöglichen. Der Erkenntnismotor ist auch vollständig in eine Benachrichtigungs-Engine integriert, die es ermöglicht, Erkenntnisse an die Arbeitsumgebung der Benutzer zu liefern, einschließlich E-Mail, Kollaborationsplattformen und so weiter.

Am 31. Januar hat Mona ein neues AI-Fairness-Lösung vorgestellt, können Sie uns Details zu dieser Funktion und warum sie wichtig ist, teilen?

AI-Fairness geht darum, sicherzustellen, dass Algorithmen und AI-getriebene Systeme im Allgemeinen unvoreingenommene und gerechte Entscheidungen treffen. Die Bekämpfung und Verhinderung von Vorurteilen in AI-Systemen ist entscheidend, da sie zu erheblichen realen Konsequenzen führen können. Mit der wachsenden Bedeutung von AI wird der Einfluss auf das tägliche Leben der Menschen in immer mehr Bereichen sichtbar, einschließlich der Automatisierung unseres Fahrens, der besseren Erkennung von Krankheiten, der Verbesserung unseres Verständnisses der Welt und sogar der Erstellung von Kunst. Wenn wir nicht darauf vertrauen können, dass es fair und unvoreingenommen ist, wie können wir es dann weiter verbreiten lassen?

Eine der Hauptursachen für Vorurteile in AI ist einfach die Fähigkeit der Trainingsdaten, die reale Welt vollständig abzubilden. Dies kann auf historische Diskriminierung, Unterrepräsentation bestimmter Gruppen oder sogar absichtliche Manipulation von Daten zurückzuführen sein. Zum Beispiel ist ein Gesichtserkennungssystem, das hauptsächlich auf hellhäutigen Personen trainiert wurde, wahrscheinlich fehleranfälliger bei der Erkennung von Personen mit dunkleren Hauttönen. Ebenso kann ein Sprachmodell, das auf Textdaten aus einer engen Quellenauswahl trainiert wurde, Vorurteile entwickeln, wenn die Daten zu bestimmten Weltanschauungen, Themen wie Religion, Kultur und so weiter, tendenziös sind.

Monas AI-Fairness-Lösung gibt AI- und Geschäftsteams die Gewissheit, dass ihre AI frei von Vorurteilen ist. In regulierten Branchen kann Monas Lösung Teams auf die Einhaltung von Vorschriften vorbereiten.

Monas Fairness-Lösung ist besonders, weil sie auf der Mona-Plattform sitzt – einer Brücke zwischen AI-Daten und -Modellen und ihren realen Weltimplikationen. Mona betrachtet alle Teile des Geschäftsprozesses, den das AI-Modell in der Produktion bedient, um zwischen Trainingsdaten, Modellverhalten und tatsächlichen realen Ergebnissen zu korrelieren, um die umfassendste Bewertung der Fairness zu liefern.

Zweitens verfügt es über einen einzigartigen analytischen Motor, der eine flexible Segmentierung der Daten ermöglicht, um relevante Parameter zu kontrollieren. Dies ermöglicht genaue Korrelationsbewertungen im richtigen Kontext, vermeidet das Simpson-Paradoxon und liefert eine tiefere reale “Vorurteilsbewertung” für jeden Leistungsindikator und jedes geschützte Merkmal.

Insgesamt würde ich sagen, dass Mona ein grundlegender Bestandteil für Teams ist, die verantwortungsvolle AI aufbauen und skaliert müssen.

Was ist Ihre Vision für die Zukunft von AI?

Das ist eine große Frage.

Ich denke, es ist leicht vorherzusagen, dass AI weiterhin in verschiedenen Branchen und Aspekten des Lebens der Menschen an Bedeutung gewinnen wird. Es ist jedoch schwierig, eine Vision zu haben, die detailliert ist und gleichzeitig versucht, alle Anwendungsfälle und Auswirkungen von AI in der Zukunft abzudecken. Denn niemand weiß wirklich genug, um dieses Bild glaubwürdig zu malen.

Das, was wir jedoch wissen, ist, dass AI in den Händen von mehr Menschen sein und mehr Zwecken dienen wird. Die Notwendigkeit von Governance und Transparenz wird daher erheblich zunehmen.

Reale Einblicke in AI und ihre Funktionsweise werden zwei primäre Rollen spielen. Erstens werden sie dazu beitragen, Vertrauen bei den Menschen zu schaffen und Widerstandsschwellen für eine schnellere Akzeptanz zu senken. Zweitens werden sie dazu beitragen, dass die Betreiber von AI sicherstellen, dass es nicht außer Kontrolle gerät.

Vielen Dank für das großartige Interview, Leser, die mehr erfahren möchten, sollten Mona Labs besuchen.

Antoine ist ein visionärer Führer und Gründungspartner von Unite.AI, getrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Ein Serienunternehmer, glaubt er, dass KI so disruptiv für die Gesellschaft sein wird wie Elektrizität, und wird oft dabei ertappt, wie er über das Potenzial disruptiver Technologien und AGI schwärmt.

Als futurist ist er darauf fokussiert, zu erforschen, wie diese Innovationen unsere Welt formen werden. Zusätzlich ist er der Gründer von Securities.io, einer Plattform, die sich auf Investitionen in hochmoderne Technologien konzentriert, die die Zukunft neu definieren und ganze Branchen umgestalten.