Entretiens
Liran Hason, Co-Fondateur & PDG d’Aporia – Série d’entretiens

Liran Hason est le co-fondateur et PDG d’Aporia, une plateforme d’observabilité ML full-stack utilisée par des entreprises du Fortune 500 et des équipes de science des données à travers le monde pour assurer une IA responsable. Aporia s’intègre parfaitement à toute infrastructure ML. Que ce soit un serveur FastAPI sur Kubernetes, un outil de déploiement open-source comme MLFlow ou une plateforme d’apprentissage automatique comme AWS Sagemaker
Avant de fonder Aporia, Liran était architecte ML chez Adallom (acquis par Microsoft), puis investisseur chez Vertex Ventures.
Vous avez commencé à coder à l’âge de 10 ans, qu’est-ce qui vous a initialement attiré vers les ordinateurs, et sur quoi travailliez-vous ?
C’était en 1999, et un ami m’a appelé pour me dire qu’il avait créé un site Web. Après avoir tapé une adresse de 200 caractères dans mon navigateur, j’ai vu un site Web avec son nom dessus. J’étais étonné par le fait qu’il ait créé quelque chose sur son ordinateur et que je puisse le voir sur mon propre ordinateur. Cela m’a rendu super curieux de savoir comment cela fonctionnait et comment je pouvais faire la même chose. J’ai demandé à ma mère de m’acheter un livre sur HTML, qui a été mon premier pas dans la programmation.
Je trouve un grand plaisir à relever les défis techniques, et avec le temps, ma curiosité n’a fait que grandir. J’ai appris ASP, PHP et Visual Basic, et j’ai vraiment tout consommé.
Lorsque j’avais 13 ans, j’ai déjà commencé à prendre des jobs freelance, en créant des sites Web et des applications de bureau.
Lorsque je n’avais pas de travail actif, je travaillais sur mes propres projets – généralement des sites Web et des applications destinés à aider les autres à atteindre leurs objectifs :
Blue-White Programming – est un langage de programmation hébreu, similaire à HTML, que j’ai créé après avoir réalisé que les enfants en Israël qui n’ont pas un niveau élevé d’anglais sont limités ou éloignés du monde de la programmation.
Blinky – Mes grands-parents sont sourds et utilisent la langue des signes pour communiquer avec leurs amis. Lorsque des logiciels de visioconférence comme Skype et ooVoo sont apparus, cela leur a permis pour la première fois de parler avec des amis même s’ils ne sont pas dans la même pièce (comme nous le faisons tous avec nos téléphones). Cependant, comme ils ne peuvent pas entendre, ils n’ont pas pu savoir lorsqu’ils avaient un appel entrant. Pour les aider, j’ai écrit un logiciel qui identifie les appels vidéo entrants et les avertit en faisant clignoter un tableau de LEDs dans un petit appareil matériel que j’ai construit et connecté à leur ordinateur.
Ce ne sont que quelques-uns des projets que j’ai créés en tant qu’adolescent. Ma curiosité n’a jamais cessé et je me suis retrouvé en apprenant C, C++, Assembly, et en découvrant comment fonctionnent les systèmes d’exploitation, et j’ai vraiment essayé d’apprendre autant que possible.
Pouvez-vous partager l’histoire de votre parcours en tant qu’architecte d’apprentissage automatique chez Adallom, acquis par Microsoft ?
J’ai commencé mon parcours chez Adallom après mon service militaire. Après 5 ans dans l’armée en tant que capitaine, j’ai vu une grande opportunité de rejoindre une entreprise émergente et un marché – en tant que l’un des premiers employés. L’entreprise était dirigée par d’excellents fondateurs, que je connaissais de mon service militaire, et soutenue par des VC de premier plan – comme Sequoia. L’éruption des technologies cloud sur le marché était encore dans son enfance relative, et nous construisions l’une des premières solutions de sécurité cloud à l’époque. Les entreprises commençaient tout juste à passer d’un environnement local au cloud, et nous avons vu de nouvelles normes industrielles émerger – telles que Office 365, Dropbox, Marketo, Salesforce, etc.
Au cours de mes premières semaines, j’avais déjà décidé que je voulais créer ma propre entreprise un jour. Je sentais vraiment, d’un point de vue technique, que j’étais prêt à relever tout défi, et si ce n’était pas moi, je savais que j’avais les bonnes personnes pour m’aider à surmonter tout obstacle.
Adallom avait besoin de quelqu’un qui avait une connaissance approfondie de la technologie, mais qui pouvait également être en contact avec les clients. Un mois plus tard, j’étais dans un avion pour les États-Unis, pour la première fois de ma vie, pour rencontrer des personnes de LinkedIn (avant Microsoft). Quelques semaines plus tard, ils sont devenus notre premier client payant aux États-Unis. C’était juste l’un des nombreux grandes entreprises – Netflix, Disney, Safeway – que j’ai aidées à résoudre des problèmes de cloud critiques. C’était super éducatif et un grand renforceur de confiance.
Pour moi, rejoindre Adallom était vraiment rejoindre un endroit où je croyais au marché, je croyais à l’équipe, et je croyais à la vision. Je suis extrêmement reconnaissant pour l’opportunité qui m’a été donnée là-bas.
L’objectif de ce que je faisais était et est très important. Pour moi, c’était la même chose dans l’armée, c’était toujours important. Je pouvais facilement voir comment l’approche d’Adallom de connexion aux solutions SaaS, puis de surveillance de l’activité des utilisateurs, de ressources, de recherche d’anomalies, etc. était la façon dont les choses allaient être faites. J’ai réalisé que c’est ainsi que les choses seront faites à l’avenir. Donc, j’ai définitivement vu Adallom comme une entreprise qui allait être réussie.
J’étais responsable de l’architecture complète de notre infrastructure ML. Et j’ai vu et vécu de première main le manque de bons outils pour l’écosystème. Oui, c’était clair pour moi qu’il devait y avoir une solution dédiée dans un endroit centralisé où vous pouvez voir tous vos modèles ; où vous pouvez voir quelles décisions ils prennent pour votre entreprise ; où vous pouvez suivre et devenir proactif avec vos objectifs ML. Par exemple, nous avions des moments où nous avons appris des problèmes avec nos modèles de machine learning beaucoup trop tard, et ce n’est pas bien pour les utilisateurs et certainement pas pour l’entreprise. C’est là que l’idée d’Aporia a commencé à prendre forme.
Pouvez-vous partager l’histoire de la genèse d’Aporia ?
Mon expérience personnelle avec l’apprentissage automatique commence en 2008, dans le cadre d’un projet collaboratif à l’Institut Weizmann, avec l’Université de Bath et un centre de recherche chinois. Là, j’ai construit un système d’identification biométrique en analysant des images de l’iris. J’ai pu atteindre une précision de 94 %. Le projet a été un succès et a été applaudi d’un point de vue de recherche. Mais pour moi, j’avais construit des logiciels depuis que j’avais 10 ans, et quelque chose me semblait, d’une certaine manière, pas réel. Vous ne pouviez pas vraiment utiliser le système d’identification biométrique que j’avais construit dans la vie réelle, car il ne fonctionnait bien que pour le jeu de données spécifique que j’avais utilisé. Ce n’est pas déterministe.
C’est un peu de contexte. Lorsque vous construisez un système d’apprentissage automatique, par exemple pour l’identification biométrique, vous voulez que les prédictions soient déterministes – vous voulez savoir que le système identifie avec précision une personne donnée, n’est-ce pas ? Comme votre iPhone ne se débloque pas si il ne reconnaît pas la bonne personne à l’angle approprié, c’est le résultat souhaité. Mais ce n’était pas le cas avec l’apprentissage automatique, lorsque j’ai commencé à m’y intéresser.
Environ sept ans plus tard, j’ai vécu de première main, chez Adallom, la réalité de l’exécution de modèles de production sans garde-fous fiables, car ils prennent des décisions pour notre entreprise qui affectent nos clients. Ensuite, j’ai eu la chance de travailler en tant qu’investisseur chez Vertex Ventures, pendant trois ans. J’ai vu comment de plus en plus d’organisations utilisaient l’IA, et comment les entreprises passaient de la simple discussion sur l’IA à la mise en œuvre réelle de l’apprentissage automatique. Cependant, ces entreprises ont adopté l’IA uniquement pour être confrontées aux mêmes problèmes que nous avions chez Adallom.
Tout le monde s’est précipité pour utiliser l’IA, et ils ont essayé de construire des systèmes de surveillance en interne. Évidemment, ce n’était pas leur cœur de métier, et ces défis sont assez complexes. C’est là que j’ai également réalisé que c’est mon opportunité de faire un impact énorme.
L’IA est adoptée dans presque tous les secteurs, y compris les soins de santé, les services financiers, l’automobile, etc., et elle va toucher la vie de tous et avoir un impact sur nous tous. C’est là que la valeur d’Aporia se révèle – en permettant à tous ces cas d’utilisation qui changent la vie de fonctionner comme prévu et d’aider à améliorer notre société. Parce que, comme avec tout logiciel, vous allez avoir des bogues, et l’apprentissage automatique n’est pas différent. Si on les laisse sans surveillance, ces problèmes d’apprentissage automatique peuvent vraiment nuire à la continuité de l’entreprise et avoir un impact sur la société avec des résultats biaisés involontaires. Prenez la tentative d’Amazon de mettre en œuvre un outil de recrutement basé sur l’IA – un biais involontaire a fait que le modèle d’apprentissage automatique recommandait fortement les candidats masculins par rapport aux candidates féminines. C’est évidemment un résultat indésirable. Il faut donc une solution dédiée pour détecter les biais involontaires avant qu’ils ne fassent les gros titres et n’affectent les utilisateurs finals.
Pour que les organisations puissent vraiment compter sur et profiter des avantages de l’apprentissage automatique, elles doivent savoir quand cela ne fonctionne pas correctement, et maintenant, avec les nouvelles réglementations, les utilisateurs de l’IA devront souvent avoir des moyens d’expliquer les prédictions de leurs modèles. À la fin, il est essentiel de rechercher et de développer de nouveaux modèles et projets innovants, mais une fois que ces modèles rencontrent le monde réel et prennent des décisions réelles pour les gens, les entreprises et la société, il y a un besoin clair d’une solution d’observabilité complète pour garantir qu’ils peuvent faire confiance à l’IA.
Pouvez-vous expliquer l’importance de l’IA transparente et explicative ?
Bien qu’il puisse sembler similaire, il y a une distinction importante à faire entre les logiciels traditionnels et l’apprentissage automatique. Dans les logiciels, vous avez un ingénieur logiciel, qui écrit du code, définit la logique de l’application, nous savons exactement ce qui se passera dans chaque flux de code. C’est déterministe. C’est ainsi que les logiciels sont généralement construits, les ingénieurs créent des cas de test, testent les cas de bord, obtiennent une couverture de 70 % à 80 % – vous vous sentez suffisamment bien pour le publier. Si des alertes apparaissent, vous pouvez facilement déboguer et comprendre quel flux a mal fonctionné, et le corriger.
Ce n’est pas le cas avec l’apprentissage automatique. Au lieu qu’un humain définit la logique, elle est définie dans le cadre du processus d’entraînement du modèle. Lorsque nous parlons de logique, contrairement aux logiciels traditionnels, il ne s’agit pas d’un ensemble de règles, mais plutôt d’une matrice de millions et de milliards de nombres qui représentent l’esprit, le cerveau du modèle d’apprentissage automatique. Et c’est une boîte noire, nous ne savons pas vraiment le sens de chaque nombre dans cette matrice. Mais nous savons statistiquement, c’est donc probabiliste, et non déterministe. Cela peut être précis dans 83 % ou 93 % des cas. Cela pose beaucoup de questions, n’est-ce pas ? Premièrement, comment pouvons-nous faire confiance à un système que nous ne pouvons pas expliquer de la façon dont il arrive à ses prédictions ? Deuxièmement, comment pouvons-nous expliquer les prédictions pour des industries hautement réglementées – comme le secteur financier. Par exemple, aux États-Unis, les entreprises financières sont obligées par la loi d’expliquer à leurs clients pourquoi ils ont été rejetés pour une demande de prêt.
L’incapacité à expliquer les prédictions de l’apprentissage automatique en texte lisible par l’homme peut être un obstacle majeur à l’adoption massive de l’IA dans les industries. Nous voulons savoir, en tant que société, que le modèle ne prend pas de décisions biaisées. Nous voulons nous assurer que nous comprenons ce qui amène le modèle à une décision spécifique. C’est là que l’explicabilité et la transparence sont extrêmement cruciales.
Comment fonctionne la solution de boîte à outils d’IA transparente et explicative d’Aporia ?
La boîte à outils d’IA explicative d’Aporia fonctionne dans le cadre d’un système d’observabilité de l’apprentissage automatique unifié. Sans une visibilité approfondie des modèles de production et une solution de surveillance et d’alerte fiable, il est difficile de faire confiance aux insights de l’IA explicative – il n’y a pas besoin d’expliquer les prédictions si la sortie est peu fiable. Et c’est là qu’Aporia intervient, en fournissant un seul tableau de bord pour tous les modèles en cours d’exécution, une surveillance personnalisable, des capacités d’alerte, des outils de débogage, une enquête sur les causes profondes et une IA explicative. Une solution d’observabilité dédiée et full-stack pour tout problème qui se pose en production.
La plateforme Aporia est agnostique et équipe les entreprises axées sur l’IA, les équipes de science des données et de ML avec un tableau de bord centralisé et une visibilité complète sur la santé de leurs modèles, les prédictions et les décisions – leur permettant de faire confiance à leur IA. En utilisant l’IA explicative d’Aporia, les organisations sont en mesure de tenir tous les parties prenantes concernées informées en expliquant les décisions de l’apprentissage automatique avec un simple clic de souris – obtenir des insights lisibles par l’homme sur des prédictions de modèles spécifiques ou simuler des situations “Et si ?”. En outre, Aporia suit en permanence les données qui sont alimentées dans le modèle ainsi que les prédictions, et envoie des alertes proactives en cas d’événements importants, notamment la dégradation des performances, les biais involontaires, la dérive des données et même les opportunités d’améliorer votre modèle. Enfin, avec la boîte à outils d’enquête d’Aporia, vous pouvez aller à la source de tout événement pour remédier et améliorer tout modèle en production.
Certaines des fonctionnalités proposées incluent les outils d’enquête sur les points de données et les séries chronologiques, comment ces outils aident-ils à prévenir les biais et la dérive de l’IA ?
Les points de données fournissent une vue en direct des données que le modèle reçoit et des prédictions qu’il fait pour l’entreprise. Vous pouvez obtenir un flux en direct de cela et comprendre exactement ce qui se passe dans votre entreprise. Donc, cette capacité de visibilité est cruciale pour la transparence. Parfois, les choses changent avec le temps et il y a une corrélation entre plusieurs changements avec le temps – c’est le rôle de l’enquête sur les séries chronologiques.
Récemment, de grands détaillants ont vu tous leurs outils de prédiction basés sur l’IA échouer lorsqu’il s’agissait de prédire les problèmes de chaîne d’approvisionnement, comment la plateforme Aporia résoudrait-elle ce problème ?
Le principal défi pour identifier ce type de problèmes est enraciné dans le fait que nous parlons de prédictions futures. Cela signifie que nous prédictions quelque chose qui va se passer ou ne pas se passer dans le futur. Par exemple, combien de personnes vont acheter une chemise spécifique ou un nouveau PlayStation.
Ensuite, il faut du temps pour rassembler tous les résultats réels – plus de quelques semaines. Ensuite, nous pouvons résumer et dire, ok, c’était la demande réelle que nous avons vue. Ce laps de temps, nous parlons de quelques mois au total. C’est ce qui nous amène du moment où le modèle fait la prédiction jusqu’à ce que l’entreprise sache exactement si c’était juste ou non. Et à ce moment-là, il est généralement trop tard, l’entreprise a soit perdu des revenus potentiels, soit la marge a été compressée, car ils doivent vendre les stocks excédentaires à des remises énormes.
C’est un défi. Et c’est exactement où Aporia intervient et devient très, très utile pour ces organisations. Premièrement, cela permet aux organisations d’obtenir facilement de la transparence et de la visibilité sur les décisions qui sont prises – Y a-t-il des fluctuations ? Y a-t-il quelque chose qui ne fait pas de sens ? Deuxièmement, puisque nous parlons de grands détaillants, nous parlons d’énormes quantités d’inventaire, et les suivre manuellement est presque impossible. C’est là que les entreprises et les équipes de ML valorisent le plus Aporia, en tant que système de surveillance automatisé et personnalisable 24h/24. Aporia suit en permanence les données et les prédictions, il analyse le comportement statistique de ces prédictions, et il peut anticiper et identifier les changements dans le comportement des consommateurs et les changements dans les données dès qu’ils se produisent. Au lieu d’attendre six mois pour réaliser que la prévision de la demande était fausse, vous pouvez en quelques jours identifier que nous sommes sur la mauvaise voie avec nos prévisions de demande. Aporia raccourcit donc ce laps de temps de quelques mois à quelques jours. C’est un changement de jeu pour tout praticien de l’IA.
Y a-t-il autre chose que vous aimeriez partager sur Aporia ?
Nous sommes en constante croissance et nous recherchons des personnes incroyables avec des esprits brillants pour rejoindre le voyage d’Aporia. Consultez nos postes ouverts.
Merci pour cette grande interview, les lecteurs qui souhaitent en savoir plus devraient visiter Aporia.












