Interviews
Liran Hason, Co-Founder & CEO von Aporia – Interview-Serie

Liran Hason ist der Co-Founder und CEO von Aporia, einer Full-Stack-ML-Beobachtbarkeitsplattform, die von Fortune-500-Unternehmen und Data-Science-Teams auf der ganzen Welt verwendet wird, um verantwortungsvolle KI zu gewährleisten. Aporia integriert sich nahtlos in jede ML-Infrastruktur. Ob es sich um einen FastAPI-Server auf Kubernetes, ein Open-Source-Deploy-Tool wie MLFlow oder eine Machine-Learning-Plattform wie AWS Sagemaker handelt
Bevor er Aporia gründete, war Liran ML-Architekt bei Adallom (erworben von Microsoft) und später Investor bei Vertex Ventures.
Sie haben mit 10 Jahren angefangen zu programmieren, was hat Sie ursprünglich an Computern angezogen, und woran haben Sie gearbeitet?
Es war 1999, und ein Freund von mir rief mich an und sagte, er habe eine Website gebaut. Nachdem ich eine 200 Zeichen lange Adresse in meinem Browser eingegeben hatte, sah ich eine Website mit seinem Namen darauf. Ich war erstaunt darüber, dass er etwas auf seinem Computer erstellt hatte und ich es auf meinem eigenen Computer sehen konnte. Dies machte mich sehr neugierig darauf, wie es funktioniert und wie ich das gleiche tun kann. Ich bat meine Mutter, mir ein HTML-Buch zu kaufen, das mein erster Schritt in die Programmierung war.
Ich finde großen Spaß daran, technische Herausforderungen anzunehmen, und mit der Zeit wuchs meine Neugier nur. Ich lernte ASP, PHP und Visual Basic und konsumierte alles, was ich konnte.
Als ich 13 Jahre alt war, nahm ich bereits Freelance-Jobs an und baute Websites und Desktop-Anwendungen.
Wenn ich keine aktive Arbeit hatte, arbeitete ich an meinen eigenen Projekten – meistens verschiedenen Websites und Anwendungen, die darauf abzielten, anderen Menschen zu helfen, ihre Ziele zu erreichen:
Blue-White Programming – ist eine hebräische Programmiersprache, ähnlich wie HTML, die ich entwickelte, nachdem ich realisiert hatte, dass Kinder in Israel, die kein hohes Maß an Englischkenntnissen haben, von der Welt der Programmierung ausgeschlossen oder abgeschreckt werden.
Blinky – Meine Großeltern sind taub und verwenden Gebärdensprache, um mit ihren Freunden zu kommunizieren. Als Videokonferenz-Software wie Skype und ooVoo aufkam, ermöglichte es ihnen zum ersten Mal, mit Freunden zu sprechen, auch wenn sie nicht im selben Raum sind (wie wir alle mit unseren Telefonen tun). Allerdings konnten sie nicht hören, und daher wussten sie nicht, wenn sie einen eingehenden Anruf hatten. Um ihnen zu helfen, schrieb ich eine Software, die eingehende Videocalls erkennt und sie durch Blinken eines LED-Arrays in einem kleinen Hardware-Gerät alarmiert, das ich an ihren Computer angeschlossen hatte.
Dies sind nur einige der Projekte, die ich als Teenager gebaut habe. Meine Neugier hat nie aufgehört, und ich fand mich selbst dabei, C, C++, Assembly und wie Betriebssysteme funktionieren zu lernen, und ich versuchte wirklich, so viel wie möglich zu lernen.
Können Sie die Geschichte Ihrer Reise als Machine-Learning-Architekt bei Microsoft-acquired Adallom teilen?
Ich begann meine Reise bei Adallom nach meinem Militärdienst. Nach 5 Jahren in der Armee als Captain sah ich eine großartige Gelegenheit, einem aufstrebenden Unternehmen und Markt beizutreten – als einer der ersten Mitarbeiter. Das Unternehmen wurde von großartigen Gründern geleitet, die ich aus meinem Militärdienst kannte, und von Top-Tier-VCs unterstützt – wie Sequoia. Die Explosion von Cloud-Technologien auf den Markt war noch in ihren Anfängen, und wir bauten eine der ersten Cloud-Sicherheitslösungen zu dieser Zeit. Unternehmen begannen gerade, von On-Premise zu Cloud umzusteigen, und wir sahen neue Branchenstandards entstehen – wie Office 365, Dropbox, Marketo, Salesforce und andere.
Während meiner ersten Wochen wusste ich bereits, dass ich eines Tages mein eigenes Unternehmen gründen wollte. Ich fühlte mich von der technischen Seite her bereit für jede Herausforderung, und wenn nicht ich, wusste ich, dass ich die richtigen Menschen kannte, um mir zu helfen, alles zu überwinden.
Adallom hatte einen Bedarf an jemandem, der tiefgreifendes Wissen über die Technologie hatte, aber auch kundenorientiert sein konnte. Ein paar Wochen später und ich war im Flugzeug in die USA, um mit Leuten von LinkedIn (vor Microsoft) zu sprechen. Ein paar Wochen später und sie wurden unser erster zahlender Kunde in den USA. Dies war nur einer von vielen großen Konzernen – Netflix, Disney und Safeway – für die ich half, kritische Cloud-Probleme zu lösen. Es war sehr lehrreich und ein starker Vertrauensaufbau.
Für mich war es wichtig, einem Ort beizutreten, an dem ich an den Markt, das Team und die Vision glaube. Ich bin extrem dankbar für die Gelegenheit, die ich dort erhalten habe.
Der Zweck dessen, was ich tue, war und ist sehr wichtig. Für mich war es genauso in der Armee, es war immer wichtig. Ich konnte leicht sehen, wie der Ansatz von Adallom, der darin besteht, SaaS-Lösungen zu verbinden, dann die Aktivität von Benutzern und Ressourcen zu überwachen, Anomalien zu finden und so weiter, der Ansatz der Zukunft sein würde. Also sah ich Adallom als ein Unternehmen, das erfolgreich sein würde.
Ich war für die gesamte Architektur unserer ML-Infrastruktur verantwortlich. Und ich sah und erlebte firsthand den Mangel an ordnungsgemäßer Tooling für das Ökosystem. Ja, es war mir klar, dass es eine dedizierte Lösung in einem zentralen Ort geben muss, an dem man alle Modelle sehen kann; an dem man sehen kann, welche Entscheidungen sie für das Geschäft treffen; an dem man die ML-Ziele verfolgen und proaktiv sein kann. Zum Beispiel hatten wir Zeiten, in denen wir von Problemen in unseren Machine-Learning-Modellen viel zu spät erfahren haben, und das ist nicht gut für die Benutzer und definitiv nicht für das Geschäft. Hier begann die Idee für Aporia, sich zu runden.
Können Sie die Genesis-Geschichte hinter Aporia teilen?
Meine eigene persönliche Erfahrung mit Machine Learning beginnt im Jahr 2008, als Teil eines gemeinsamen Projekts am Weizmann-Institut, zusammen mit der University of Bath und einem chinesischen Forschungszentrum. Dort baute ich ein biometrisches Identifizierungssystem, indem ich Bilder der Iris analysierte. Ich konnte eine Genauigkeit von 94% erreichen. Das Projekt war ein Erfolg und wurde aus Forschungssicht gelobt. Aber für mich, da ich seit meinem 10. Lebensjahr Software baute, fühlte es sich irgendwie nicht real an. Man konnte das biometrische Identifizierungssystem, das ich gebaut hatte, nicht im realen Leben verwenden, weil es nur für das spezifische Dataset funktionierte, das ich verwendet hatte. Es war nicht deterministisch genug.
Dies ist nur ein bisschen Hintergrund. Wenn man ein Machine-Learning-System baut, zum Beispiel für biometrische Identifizierung, möchte man, dass die Vorhersagen deterministisch sind – man möchte wissen, dass das System eine bestimmte Person genau identifiziert, richtig? Genau wie Ihr iPhone nicht entsperrt, wenn es die richtige Person nicht erkennt, dies ist das gewünschte Ergebnis. Aber dies war wirklich nicht der Fall mit Machine Learning, als ich zum ersten Mal in den Raum kam.
Etwa sieben Jahre später und ich erlebte firsthand, bei Adallom, die Realität des Betriebs von Produktionsmodellen ohne zuverlässige Schutzmechanismen, da sie Entscheidungen für unser Geschäft treffen, die unsere Kunden betreffen. Dann hatte ich das Glück, als Investor bei Vertex Ventures für drei Jahre zu arbeiten. Ich sah, wie immer mehr Organisationen ML verwendeten und wie Unternehmen von der bloßen Diskussion über ML zu tatsächlichem Machine Learning übergingen. Allerdings wurden diese Unternehmen von den gleichen Problemen herausgefordert, mit denen wir bei Adallom konfrontiert waren.
Jeder eilte, ML zu verwenden, und sie versuchten, Überwachungssysteme in-house zu bauen. Offensichtlich war dies nicht ihr Kerngeschäft, und diese Herausforderungen sind ziemlich komplex. Hier erkannte ich auch, dass dies meine Chance ist, einen großen Einfluss zu haben.
KI wird in fast jeder Branche eingesetzt, einschließlich Gesundheitswesen, Finanzdienstleistungen, Automotive und anderen, und sie wird jeden Menschen berühren und uns alle beeinflussen. Dies ist der Ort, an dem Aporia seinen wahren Wert zeigt – indem es all diese lebensverändernden Anwendungsfälle ermöglicht, wie beabsichtigt zu funktionieren und unsere Gesellschaft zu verbessern. Denn wie bei jeder Software gibt es auch bei Machine Learning Fehler, und wenn diese nicht überwacht werden, können sie den Geschäftsbetrieb wirklich schädigen und die Gesellschaft mit ungewollten Bias-Ergebnissen beeinflussen. Nehmen Sie Amazons Versuch, ein AI-Rekrutierungstool zu implementieren – ungewollter Bias verursachte, dass das Machine-Learning-Modell männliche Kandidaten gegenüber weiblichen Kandidaten stark bevorzugte. Dies ist offensichtlich ein unerwünschtes Ergebnis. Also muss es eine dedizierte Lösung geben, um ungewollten Bias zu erkennen, bevor er in die Nachrichten kommt und Endbenutzer beeinflusst.
Für Organisationen, um ordnungsgemäß auf Machine Learning vertrauen und dessen Vorteile nutzen zu können, müssen sie wissen, wenn es nicht richtig funktioniert, und mit neuen Vorschriften werden ML-Nutzer oft Wege benötigen, um ihre Modellvorhersagen zu erklären. Am Ende ist es kritisch, neue Modelle und innovative Projekte zu erforschen und zu entwickeln, aber sobald diese Modelle die reale Welt treffen und reale Entscheidungen für Menschen, Unternehmen und die Gesellschaft treffen, gibt es einen klaren Bedarf an einer umfassenden Beobachtbarkeitslösung, um sicherzustellen, dass sie KI vertrauen können.
Können Sie die Bedeutung von transparenter und erklärbarer KI erklären?
Während es vielleicht ähnlich erscheint, gibt es einen wichtigen Unterschied zwischen traditioneller Software und Machine Learning. Bei Software haben Sie einen Software-Entwickler, der Code schreibt, die Logik der Anwendung definiert, wir wissen genau, was in jedem Code-Fluss passieren wird. Es ist deterministisch. So wird Software normalerweise gebaut, die Entwickler erstellen Testfälle, testen Randfälle, erreichen 70% – 80% Abdeckung – man fühlt sich gut genug, um es in die Produktion zu bringen. Wenn Warnungen auftauchen, kann man leicht debuggen und verstehen, was schiefgelaufen ist, und es beheben.
Dies ist nicht der Fall bei Machine Learning. Stattdessen wird die Logik nicht von einem Menschen definiert, sondern als Teil des Trainingsprozesses des Modells definiert. Wenn man von Logik spricht, ist es nicht eine Reihe von Regeln, sondern eher eine Matrix von Millionen und Milliarden von Zahlen, die den Geist, das Gehirn des Machine-Learning-Modells darstellen. Und dies ist eine Black-Box, wir wissen nicht wirklich, was jede einzelne Zahl in dieser Matrix bedeutet. Aber wir wissen statistisch, also ist es probabilistisch und nicht deterministisch. Es kann in 83% oder 93% der Fälle genau sein. Dies wirft viele Fragen auf, richtig? Erstens, wie können wir einem System vertrauen, das wir nicht erklären können, wie es zu seinen Vorhersagen kommt? Zweitens, wie können wir Vorhersagen für hoch regulierte Branchen erklären – wie den Finanzsektor. Zum Beispiel sind in den USA Finanzunternehmen gesetzlich verpflichtet, ihren Kunden zu erklären, warum sie für ein Darlehensantrag abgelehnt wurden.
Die Unfähigkeit, Machine-Learning-Vorhersagen in lesbarer Textform zu erklären, kann ein großer Blockierer für die breite Anwendung von ML in Branchen sein. Wir möchten wissen, als Gesellschaft, dass das Modell keine voreingenommenen Entscheidungen trifft. Wir möchten sicherstellen, dass wir verstehen, was das Modell zu einer bestimmten Entscheidung führt. Dies ist der Ort, an dem Erklärbarkeit und Transparenz extrem wichtig sind.
Wie funktioniert Aporias transparente und erklärbare KI-Toolbox-Lösung?
Die Aporia-erklärbare KI-Toolbox funktioniert als Teil eines einheitlichen Machine-Learning-Beobachtbarkeitssystems. Ohne tiefgreifende Sichtbarkeit von Produktionsmodellen und einer zuverlässigen Überwachungs- und Warnlösung ist es schwierig, den erklärbareren KI-Einblicken zu vertrauen – es gibt keinen Grund, Vorhersagen zu erklären, wenn die Ausgabe unzuverlässig ist. Und so kommt Aporia ins Spiel, indem es eine einzige Sicht auf alle laufenden Modelle, anpassbare Überwachung, Warnfunktionen, Debug-Tools, Wurzelermittlung und erklärbares KI bietet. Eine dedizierte, Full-Stack-Beobachtbarkeitslösung für jedes Problem, das in der Produktion auftritt.
Die Aporia-Plattform ist agnostisch und equipt KI-orientierte Unternehmen, Data-Science- und ML-Teams mit einem zentralen Dashboard und vollständiger Sichtbarkeit in die Gesundheit, Vorhersagen und Entscheidungen ihrer Modelle – ermöglicht es ihnen, ihrem KI zu vertrauen. Durch die Verwendung von Aporias erklärbarer KI können Organisationen jeden relevanten Stakeholder im Loop halten, indem sie Machine-Learning-Entscheidungen mit einem Klick erklären – menschliche Einblicke in spezifische Modellvorhersagen oder Simulationen von “Was-wäre-wenn”-Szenarien erhalten. Darüber hinaus verfolgt Aporia kontinuierlich die Daten, die in das Modell eingespeist werden, sowie die Vorhersagen und sendet proaktiv Warnungen bei wichtigen Ereignissen, einschließlich Leistungsverschlechterung, ungewolltem Bias, Daten-Drift und sogar Chancen, das Modell zu verbessern. Schließlich ermöglicht es Ihnen Aporias Ermittlungstoolbox, die Ursache jedes Ereignisses zu ermitteln und jedes Modell in der Produktion zu verbessern.
Einige der Funktionalitäten, die angeboten werden, umfassen Data Points und Time Series Investigation Tools, wie helfen diese Tools dabei, KI-Bias und -Drift zu verhindern?
Data Points bietet eine Live-Ansicht der Daten, die das Modell erhält, und der Vorhersagen, die es für das Geschäft trifft. Sie können eine Live-Feed davon erhalten und genau verstehen, was in Ihrem Geschäft passiert. Diese Fähigkeit der Sichtbarkeit ist entscheidend für Transparenz. Manchmal ändern sich Dinge über die Zeit, und es gibt eine Korrelation zwischen mehreren Änderungen über die Zeit – dies ist die Rolle der Zeitreihenuntersuchung.
Kürzlich hatten große Einzelhändler alle ihre KI-Vorhersage-Tools versagt, als es darum ging, Lieferkettenprobleme vorherzusagen, wie würde die Aporia-Plattform dieses Problem lösen?
Die Hauptherausforderung bei der Identifizierung dieser Art von Problemen besteht darin, dass wir über zukünftige Vorhersagen sprechen. Das bedeutet, wir haben etwas vorhergesagt, was passieren oder nicht passieren wird in der Zukunft. Zum Beispiel, wie viele Menschen werden ein bestimmtes Hemd kaufen oder ein neues PlayStation kaufen.
Dann dauert es einige Zeit, alle tatsächlichen Ergebnisse zu sammeln – mehr als ein paar Wochen. Dann können wir zusammenfassen und sagen, okay, dies war die tatsächliche Nachfrage, die wir gesehen haben. Diese Zeitspanne, wir sprechen über mehrere Monate. Dies ist es, was uns von dem Moment an, an dem das Modell die Vorhersage trifft, bis das Geschäft genau weiß, ob es richtig oder falsch war, trennt. Und zu diesem Zeitpunkt ist es normalerweise zu spät, das Geschäft hat entweder potenzielle Umsätze verloren oder der Gewinn ist geschrumpft, weil sie Überbestände zu enormen Rabatten verkaufen müssen.
Dies ist eine Herausforderung. Und dies ist genau der Ort, an dem Aporia ins Bild kommt und sehr, sehr hilfreich für diese Organisationen wird. Erstens ermöglicht es Organisationen, leicht Transparenz und Sichtbarkeit in die getroffenen Entscheidungen zu erhalten – Gibt es Fluktuationen? Gibt es etwas, das nicht Sinn ergibt? Zweitens, da wir über große Einzelhändler sprechen, sprechen wir über enorme, wie enorme Mengen an Inventar, und manuell zu verfolgen ist fast unmöglich. Hier ist der Ort, an dem Unternehmen und Machine-Learning-Teams Aporia am meisten schätzen, als 24/7-automatisiertes und anpassbares Überwachungssystem. Aporia verfolgt kontinuierlich die Daten und die Vorhersagen, es analysiert das statistische Verhalten dieser Vorhersagen und kann Änderungen im Verhalten der Verbraucher und Änderungen in den Daten erkennen, sobald sie auftreten. Anstatt sechs Monate zu warten, um zu realisieren, dass die Nachfrageprognose falsch war, kann man in nur wenigen Tagen erkennen, dass man auf dem falschen Weg mit den Nachfrageprognosen ist. Aporia verkürzt diese Zeitspanne von mehreren Monaten auf nur wenige Tage. Dies ist ein großer Game-Changer für jeden ML-Praktiker.
Gibt es noch etwas, das Sie über Aporia teilen möchten?
Wir wachsen ständig und suchen nach fantastischen Menschen mit brillanten Köpfen, um den Aporia-Journey beizutreten. Überprüfen Sie unsere offenen Stellen.
Vielen Dank für das großartige Interview, Leser, die mehr erfahren möchten, sollten Aporia besuchen.












