Stummel Liran Hason, Mitbegründer und CEO von Aporia – Interviewreihe – Unite.AI
Vernetzen Sie sich mit uns

Interviews

Liran Hason, Mitbegründer und CEO von Aporia – Interviewreihe

mm

Veröffentlicht

 on

Liran Hason ist Mitbegründer und CEO von Aporia, eine Full-Stack-ML-Beobachtbarkeitsplattform, die von Fortune-500-Unternehmen und Datenwissenschaftsteams auf der ganzen Welt verwendet wird, um eine verantwortungsvolle KI sicherzustellen. Aporia lässt sich nahtlos in jede ML-Infrastruktur integrieren. Ob es sich um einen FastAPI-Server auf Kubernetes, ein Open-Source-Bereitstellungstool wie MLFlow oder eine Plattform für maschinelles Lernen wie AWS Sagemaker handelt

Vor der Gründung von Aporia war Liran ML-Architekt bei Adallom (von Microsoft übernommen) und später Investor bei Vertex Ventures.

Sie haben mit 10 Jahren mit dem Programmieren begonnen. Was hat Sie ursprünglich an Computern interessiert und woran haben Sie gearbeitet?

Es war 1999 und ein Freund von mir rief mich an und sagte, er hätte eine Website erstellt. Nachdem ich eine 200 Zeichen lange Adresse in meinen Browser eingegeben hatte, sah ich eine Website mit seinem Namen. Ich war erstaunt darüber, dass er etwas auf seinem Computer erstellt hat und ich es auf meinem eigenen Computer sehen konnte. Das hat mich sehr neugierig gemacht, wie es funktioniert und wie ich das Gleiche tun kann. Ich bat meine Mutter, mir ein HTML-Buch zu kaufen, was mein erster Schritt in die Programmierung war.

Es macht mir große Freude, mich technischen Herausforderungen zu stellen, und mit der Zeit wuchs meine Neugier immer mehr. Ich habe ASP, PHP und Visual Basic gelernt und wirklich alles verbraucht, was ich konnte.

Als ich 13 war, nahm ich bereits einige freiberufliche Jobs an und erstellte Websites und Desktop-Apps.

Wenn ich keine aktive Arbeit hatte, arbeitete ich an meinen eigenen Projekten – normalerweise verschiedenen Websites und Anwendungen, die darauf abzielten, anderen Menschen beim Erreichen ihrer Ziele zu helfen:

Blau-Weiß-Programmierung – ist eine hebräische Programmiersprache, ähnlich wie HTML, die ich entwickelt habe, nachdem mir klar wurde, dass Kinder in Israel, die nicht über gute Englischkenntnisse verfügen, eingeschränkt sind oder von der Welt des Programmierens ferngehalten werden.

Blinky – Meine Großeltern sind taub und verwenden Gebärdensprache, um mit ihren Freunden zu kommunizieren. Als Videokonferenzsoftware wie Skype und ooVoo auf den Markt kamen, konnten sie erstmals mit Freunden sprechen, auch wenn diese nicht im selben Raum waren (wie wir es alle mit unseren Telefonen tun). Da sie jedoch nicht hören können, konnten sie nicht erkennen, wann ein Anruf eingeht. Um ihnen zu helfen, habe ich eine Software geschrieben, die eingehende Videoanrufe erkennt und sie durch das Blinken einer LED-Anordnung in einem kleinen Hardwaregerät, das ich gebaut und an ihren Computer angeschlossen habe, benachrichtigt.

Dies sind nur einige der Projekte, die ich als Teenager gebaut habe. Meine Neugier hörte nie auf und ich lernte C, C++, Assembly und die Funktionsweise von Betriebssystemen und versuchte wirklich, so viel wie möglich zu lernen.

Könnten Sie uns die Geschichte Ihres Werdegangs als Architekt für maschinelles Lernen bei der von Microsoft übernommenen Firma Adallom erzählen?

Nach meinem Militärdienst begann ich meine Reise in Adallom. Nach fünf Jahren als Hauptmann in der Armee sah ich eine großartige Gelegenheit, in ein aufstrebendes Unternehmen und einen aufstrebenden Markt einzusteigen – als einer der ersten Mitarbeiter. Das Unternehmen wurde von großartigen Gründern geführt, die ich aus meinem Militärdienst kannte, und von erstklassigen VCs – wie Sequoia – unterstützt. Der Durchbruch der Cloud-Technologien auf dem Markt steckte noch in den Kinderschuhen und wir entwickelten damals eine der allerersten Cloud-Sicherheitslösungen. Unternehmen begannen gerade erst mit der Umstellung von On-Premise auf Cloud und wir sahen, wie neue Branchenstandards aufkamen – wie Office 5, Dropbox, Marketo, Salesforce und andere.

Schon in den ersten Wochen stand für mich fest, dass ich eines Tages mein eigenes Unternehmen gründen wollte. Aus technischer Sicht hatte ich wirklich das Gefühl, jeder Herausforderung gewachsen zu sein, und wenn nicht ich selbst, kannte ich die richtigen Leute, die mir bei der Bewältigung aller Herausforderungen helfen konnten.

Adallom brauchte jemanden, der über umfassende technische Kenntnisse verfügt, aber auch kundenorientiert sein kann. Einen Monat später sitze ich zum ersten Mal in meinem Leben im Flugzeug in die USA und treffe mich mit Leuten von LinkedIn (vor Microsoft). Ein paar Wochen später wurden sie unser erster zahlender Kunde in den USA. Dies war nur eines von vielen großen Unternehmen – Netflix, Disney und Safeway –, für die ich bei der Lösung kritischer Cloud-Probleme geholfen habe. Es war super lehrreich und hat stark das Selbstvertrauen gestärkt.

Für mich ging es bei Adallom vor allem darum, mich einem Ort anzuschließen, an dem ich an den Markt, an das Team und an die Vision glaube. Ich bin äußerst dankbar für die Gelegenheit, die mir dort gegeben wurde.

Der Zweck dessen, was ich tue, war und ist sehr wichtig. Für mich war es in der Armee genauso, es war immer wichtig. Ich konnte leicht erkennen, wie der Adallom-Ansatz, eine Verbindung zu den SaaS-Lösungen herzustellen und dann die Aktivität von Benutzern und Ressourcen zu überwachen, Anomalien zu finden usw., umgesetzt werden sollte. Mir wurde klar, dass dies der Ansatz der Zukunft sein wird. Daher habe ich Adallom definitiv als ein Unternehmen gesehen, das erfolgreich sein wird.

Ich war für die gesamte Architektur unserer ML-Infrastruktur verantwortlich. Und ich habe aus erster Hand gesehen und erlebt, dass es an geeigneten Werkzeugen für das Ökosystem mangelt. Ja, mir war klar, dass es eine dedizierte Lösung an einem zentralen Ort geben muss, wo Sie alle Ihre Modelle sehen können; wo Sie sehen können, welche Entscheidungen sie für Ihr Unternehmen treffen; Hier können Sie Ihre ML-Ziele verfolgen und proaktiv umsetzen. Es gab zum Beispiel Zeiten, in denen wir viel zu spät von Problemen in unseren Modellen für maschinelles Lernen erfahren haben, und das ist nicht gut für die Benutzer und schon gar nicht für das Unternehmen. Hier begann die Idee für Aporia abzurunden.

Könnten Sie uns die Entstehungsgeschichte von Aporia erzählen?

Meine persönlichen Erfahrungen mit maschinellem Lernen beginnen im Jahr 2008 im Rahmen eines Gemeinschaftsprojekts am Weizmann-Institut zusammen mit der University of Bath und einem chinesischen Forschungszentrum. Dort baute ich ein biometrisches Identifikationssystem auf, indem ich Bilder der Iris analysierte. Ich konnte eine Genauigkeit von 94 % erreichen. Das Projekt war ein Erfolg und wurde aus wissenschaftlicher Sicht gelobt. Aber ich habe seit meinem zehnten Lebensjahr Software entwickelt, und irgendetwas fühlte sich irgendwie nicht real an. Das von mir entwickelte biometrische Identifikationssystem konnte im wirklichen Leben nicht wirklich verwendet werden, da es nur für den spezifischen Datensatz, den ich verwendet habe, gut funktionierte. Es ist nicht deterministisch genug.

Dies ist nur ein kleiner Hintergrund. Wenn Sie ein maschinelles Lernsystem aufbauen, beispielsweise zur biometrischen Identifizierung, möchten Sie, dass die Vorhersagen deterministisch sind – Sie möchten sicher sein, dass das System eine bestimmte Person genau identifiziert, oder? So wie sich Ihr iPhone nicht entsperren lässt, wenn es die richtige Person nicht im richtigen Winkel erkennt, ist dies das gewünschte Ergebnis. Aber das war beim maschinellen Lernen damals, als ich zum ersten Mal in diesem Bereich tätig war, wirklich nicht der Fall.

Ungefähr sieben Jahre später erlebte ich bei Adallom aus erster Hand die Realität, dass Produktionsmodelle ohne zuverlässige Leitplanken laufen, da sie Entscheidungen für unser Unternehmen treffen, die sich auf unsere Kunden auswirken. Dann hatte ich das Glück, drei Jahre lang als Investor bei Vertex Ventures zu arbeiten. Ich habe gesehen, wie immer mehr Organisationen ML nutzen und wie Unternehmen dazu übergegangen sind, nicht mehr nur über ML zu reden, sondern tatsächlich maschinelles Lernen zu betreiben. Allerdings führten diese Unternehmen ML ein, sahen sich jedoch mit denselben Problemen konfrontiert, mit denen wir bei Adallom konfrontiert waren.

Alle beeilten sich, ML zu nutzen, und sie versuchten, intern Überwachungssysteme aufzubauen. Offensichtlich war es nicht ihr Kerngeschäft, und diese Herausforderungen sind recht komplex. Hier wurde mir auch klar, dass dies meine Chance ist, etwas Großes zu bewirken.

KI wird in fast allen Branchen eingesetzt, darunter im Gesundheitswesen, im Finanzdienstleistungsbereich, in der Automobilbranche und anderen. Sie wird das Leben aller Menschen berühren und Auswirkungen auf uns alle haben. Hier zeigt Aporia seinen wahren Wert: Es ermöglicht, dass all diese lebensverändernden Anwendungsfälle wie vorgesehen funktionieren und zur Verbesserung unserer Gesellschaft beitragen. Denn wie bei jeder Software wird es Fehler geben, und beim maschinellen Lernen ist das nicht anders. Wenn diese ML-Probleme nicht behoben werden, können sie die Geschäftskontinuität erheblich beeinträchtigen und sich negativ auf die Gesellschaft auswirken, was zu unbeabsichtigten Vorurteilen führt. Nehmen Der Versuch von Amazon, ein KI-Rekrutierungstool zu implementieren – Unbeabsichtigte Voreingenommenheit führte dazu, dass das Modell des maschinellen Lernens männliche Kandidaten stärker empfahl als weibliche. Dies ist offensichtlich ein unerwünschtes Ergebnis. Daher muss es eine spezielle Lösung geben, um unbeabsichtigte Vorurteile zu erkennen, bevor sie in die Nachrichten gelangen und sich auf Endbenutzer auswirken.

Damit Unternehmen sich richtig auf maschinelles Lernen verlassen und dessen Vorteile nutzen können, müssen sie wissen, wann es nicht richtig funktioniert, und angesichts der neuen Vorschriften benötigen ML-Benutzer häufig Möglichkeiten, ihre Modellvorhersagen zu erklären. Letztendlich ist es von entscheidender Bedeutung, neue Modelle und innovative Projekte zu erforschen und zu entwickeln, aber sobald diese Modelle auf die reale Welt treffen und echte Entscheidungen für Menschen, Unternehmen und die Gesellschaft treffen, besteht ein klarer Bedarf an einer umfassenden Observability-Lösung, um sicherzustellen, dass sie dies können Vertrauen Sie der KI.

Können Sie die Bedeutung transparenter und erklärbarer KI erklären?

Auch wenn es ähnlich erscheinen mag, gibt es einen wichtigen Unterschied zwischen traditioneller Software und maschinellem Lernen. Im Softwarebereich gibt es einen Softwareentwickler, der Code schreibt und die Logik der Anwendung definiert. Wir wissen genau, was in jedem Codefluss passieren wird. Es ist deterministisch. So wird Software normalerweise erstellt: Die Ingenieure erstellen Testfälle, testen Randfälle und erreichen eine Abdeckung von 70–80 % – Sie fühlen sich gut genug, dass Sie sie für die Produktion freigeben können. Wenn Warnungen angezeigt werden, können Sie problemlos Fehler beheben, nachvollziehen, welcher Ablauf fehlgeschlagen ist, und das Problem beheben.

Dies ist beim maschinellen Lernen nicht der Fall. Wenn stattdessen ein Mensch die Logik definiert, wird sie als Teil des Trainingsprozesses des Modells definiert. Wenn es um Logik geht, handelt es sich im Gegensatz zu herkömmlicher Software nicht um eine Reihe von Regeln, sondern um eine Matrix aus Millionen und Abermilliarden von Zahlen, die den Geist, das Gehirn des maschinellen Lernmodells, darstellen. Und das ist eine Black Box, wir kennen nicht wirklich die Bedeutung jeder einzelnen Zahl in dieser Matrix. Aber wir wissen es statistisch, das ist also probabilistisch und nicht deterministisch. Es kann in 83 % oder 93 % der Fälle genau sein. Das wirft viele Fragen auf, oder? Erstens: Wie können wir einem System vertrauen, dessen Vorhersagen wir nicht erklären können? Zweitens: Wie können wir Prognosen für stark regulierte Branchen – wie den Finanzsektor – erklären? In den USA beispielsweise sind Finanzunternehmen gesetzlich verpflichtet, ihren Kunden zu erklären, warum ein Kreditantrag abgelehnt wurde.

Die Unfähigkeit, Vorhersagen des maschinellen Lernens in menschenlesbarem Text zu erklären, könnte ein großes Hindernis für die Masseneinführung von ML in allen Branchen sein. Als Gesellschaft möchten wir wissen, dass das Modell keine voreingenommenen Entscheidungen trifft. Wir möchten sicherstellen, dass wir verstehen, was das Modell zu einer bestimmten Entscheidung führt. Hier sind Erklärbarkeit und Transparenz von entscheidender Bedeutung.

Wie funktioniert die transparente und erklärbare KI-Toolbox-Lösung von Aporia?

Die erklärbare KI-Toolbox von Aporia funktioniert als Teil eines einheitlichen Observability-Systems für maschinelles Lernen. Ohne umfassende Sichtbarkeit der Produktionsmodelle und einer zuverlässigen Überwachungs- und Warnlösung ist es schwierig, den erklärbaren KI-Erkenntnissen zu vertrauen – es besteht keine Notwendigkeit, Vorhersagen zu erklären, wenn die Ausgabe unzuverlässig ist. Und hier kommt Aporia ins Spiel und bietet eine zentrale Übersicht über alle laufenden Modelle, anpassbare Überwachung, Warnfunktionen, Debugging-Tools, Ursachenforschung und erklärbare KI. Eine dedizierte Full-Stack-Observability-Lösung für jedes Problem, das in der Produktion auftritt.

Die Aporia-Plattform ist agnostisch und stattet KI-orientierte Unternehmen, Datenwissenschafts- und ML-Teams mit einem zentralen Dashboard und vollständiger Transparenz über den Zustand, die Vorhersagen und Entscheidungen ihres Modells aus – so können sie ihrer KI vertrauen. Durch den Einsatz der erklärbaren KI von Aporia sind Unternehmen in der Lage, alle relevanten Stakeholder auf dem Laufenden zu halten, indem sie maschinelle Lernentscheidungen mit nur einem Klick erklären – sie erhalten für Menschen lesbare Einblicke in bestimmte Modellvorhersagen oder simulieren „Was wäre, wenn?“ Situationen. Darüber hinaus verfolgt Aporia ständig die in das Modell eingespeisten Daten sowie die Vorhersagen und sendet Ihnen proaktiv Warnungen bei wichtigen Ereignissen, einschließlich Leistungseinbußen, unbeabsichtigter Verzerrung, Datendrift und sogar Möglichkeiten zur Verbesserung Ihres Modells. Schließlich können Sie mit der Untersuchungs-Toolbox von Aporia die Grundursache jedes Ereignisses ermitteln, um jedes Modell in der Produktion zu beheben und zu verbessern.

Zu den angebotenen Funktionen gehören Datenpunkte und Zeitreihen-Untersuchungstools. Wie helfen diese Tools dabei, KI-Verzerrungen und -Drift zu verhindern?

Datenpunkte bieten eine Live-Ansicht der Daten, die das Modell erhält, und der Vorhersagen, die es für das Unternehmen trifft. Sie können einen Live-Feed davon erhalten und genau verstehen, was in Ihrem Unternehmen vor sich geht. Diese Fähigkeit zur Sichtbarkeit ist also entscheidend für die Transparenz. Dann ändern sich manchmal Dinge im Laufe der Zeit und es besteht eine Korrelation zwischen mehreren Änderungen im Laufe der Zeit – das ist die Rolle der Zeitreihenuntersuchung.

In letzter Zeit sind bei großen Einzelhändlern alle KI-Vorhersagetools ausgefallen, wenn es darum ging, Probleme in der Lieferkette vorherzusagen. Wie würde die Aporia-Plattform dieses Problem lösen?

Die größte Herausforderung bei der Identifizierung dieser Art von Problemen liegt in der Tatsache, dass es sich um Zukunftsprognosen handelt. Das heißt, wir haben vorhergesagt, dass etwas in der Zukunft passieren wird oder nicht. Zum Beispiel, wie viele Leute ein bestimmtes T-Shirt oder eine neue PlayStation kaufen werden.

Dann dauert es einige Zeit, bis alle tatsächlichen Ergebnisse vorliegen – mehr als ein paar Wochen. Dann können wir zusammenfassen und sagen: Okay, das war die tatsächliche Nachfrage, die wir gesehen haben. In diesem Zeitrahmen sprechen wir insgesamt von ein paar Monaten. Dies ist es, was uns von dem Moment an, in dem das Modell die Vorhersage trifft, bis zum Zeitpunkt führt, an dem das Unternehmen genau weiß, ob sie richtig oder falsch war. Und zu diesem Zeitpunkt ist es meist zu spät, das Unternehmen hat entweder potenzielle Einnahmen verloren oder die Marge wurde gekürzt, weil es Überbestände mit enormen Preisnachlässen verkaufen muss.

Das ist eine Herausforderung. Und genau hier kommt Aporia ins Spiel und ist für diese Organisationen sehr, sehr hilfreich. Erstens ermöglicht es Unternehmen, auf einfache Weise Transparenz und Einblick in die getroffenen Entscheidungen zu erhalten. Gibt es Schwankungen? Gibt es etwas, das keinen Sinn ergibt? Zweitens: Wenn wir von großen Einzelhändlern sprechen, sprechen wir von enormen Lagerbeständen, deren manuelle Nachverfolgung nahezu unmöglich ist. Hier schätzen Unternehmen und Teams für maschinelles Lernen Aporia am meisten als automatisiertes und anpassbares Überwachungssystem, das rund um die Uhr verfügbar ist. Aporia verfolgt ständig die Daten und Vorhersagen, analysiert das statistische Verhalten dieser Vorhersagen und kann Änderungen im Verhalten der Verbraucher sowie Änderungen im Verhalten der Daten vorhersehen und erkennen, sobald sie eintreten. Anstatt sechs Monate zu warten, um zu erkennen, dass die Nachfrageprognose falsch war, können Sie innerhalb weniger Tage feststellen, dass wir mit unseren Nachfrageprognosen auf dem falschen Weg sind. Daher verkürzt Aporia diesen Zeitrahmen von einigen Monaten auf einige Tage. Dies ist ein großer Wendepunkt für jeden ML-Praktiker.

Gibt es noch etwas, das Sie über Aporia mitteilen möchten?

Wir wachsen ständig und sind auf der Suche nach großartigen Menschen mit brillanten Köpfen, die sich der Aporia-Reise anschließen. Schauen Sie sich unsere an offene Positionen.

Vielen Dank für das tolle Interview, Leser, die mehr erfahren möchten, sollten vorbeischauen Aporia.

Ein Gründungspartner von unite.AI und Mitglied der Forbes Technology Council, Antoine ist ein Futurist der sich leidenschaftlich für die Zukunft von KI und Robotik interessiert.

Er ist auch der Gründer von Wertpapiere.io, eine Website, die sich auf Investitionen in bahnbrechende Technologien konzentriert.