Connect with us

Interviews

Liran Hason, Co-Founder & CEO of Aporia – Interview Series

mm

Liran Hason er Co-Founder og CEO af Aporia, en full-stack ML observability platform, der bruges af Fortune 500-virksomheder og data science-hold over hele verden til at sikre ansvarlig AI. Aporia integrerer nærmest uden problemer med enhver ML-infrastruktur. Uanset om det er en FastAPI-server på toppen af Kubernetes, et open-source-deployment-værktøj som MLFlow eller en machine learning-platform som AWS Sagemaker

Før han co-foundede Aporia, var Liran ML-arkitekt hos Adallom (opkøbt af Microsoft), og senere investor hos Vertex Ventures.

Du begyndte at kode, da du var 10 år, hvad var det, der tiltrak dig til computere, og hvad arbejdede du på?

Det var i 1999, og en ven af mine ringede til mig og sagde, at han havde bygget en hjemmeside. Efter at have skrevet en 200 tegn lang adresse i min browser, så jeg en hjemmeside med hans navn på den. Jeg var målløs over, at han havde skabt noget på sin computer, og at jeg kunne se det på min egen computer. Dette gjorde mig super nysgerrig på, hvordan det fungerede, og hvordan jeg kunne gøre det samme. Jeg bad min mor om at købe mig en HTML-bog, som var mit første skridt ind i programmering.

Jeg finder stor glæde i at tage på tekniske udfordringer, og efterhånden som tiden gik, voksede min nysgerrighed kun. Jeg lærte ASP, PHP og Visual Basic, og jeg slugte alt, hvad jeg kunne.

Da jeg var 13 år, havde jeg allerede taget på mig freelance-jobs, hvor jeg byggede hjemmesider og desktop-applikationer.

Når jeg ikke havde noget aktivt arbejde, arbejdede jeg på mine egne projekter – som regel forskellige hjemmesider og applikationer, der skulle hjælpe andre mennesker med at opnå deres mål:

Blue-White Programming – er et hebraisk programmeringssprog, lignende HTML, som jeg byggede efter at have indset, at børn i Israel, der ikke har et højt niveau af engelsk, er begrænsede eller frarådes at komme ind i verden af kodning.

Blinky – Mine bedsteforældre er døve og bruger tegnsprog til at kommunikere med deres venner. Da videokonferencesoftware som Skype og ooVoo dukkede op, kunne de for første gang tale med venner, selv hvis de ikke var i samme rum (ligesom vi alle gør med vores telefoner). Men da de ikke kunne høre, vidste de ikke, når de havde en indkommende opkald. For at hjælpe dem, skrev jeg software, der kunne identificere indkommende videoopkald og advare dem ved at blinke en led-array i en lille hardware-enhed, jeg havde bygget og forbundet til deres computer.

Disse er kun nogle af de projekter, jeg byggede som teenager. Min nysgerrighed stoppede aldrig, og jeg fandt mig selv lærende C, C++, Assembly og hvordan operativsystemer fungerer, og jeg prøvede virkelig at lære så meget som muligt.

Kan du dele historien om din rejse som maskinlæringsarkitekt hos Microsoft-opkøbte Adallom?

Jeg startede min rejse hos Adallom efter min militærtjeneste. Efter 5 år i hæren som kaptajn, så jeg en stor mulighed for at tilslutte mig en opkomment virksomhed og marked – som en af de første medarbejdere. Virksomheden blev ledet af fantastiske grundlæggere, som jeg kendte fra min militærtjeneste, og blev backet af top-tier VCs – som Sequoia. Udbredelsen af cloud-teknologier på markedet var stadig i sin relative barndom, og vi byggede en af de allerførste cloud-sikkerheds løsninger på det tidspunkt. Virksomhederne var lige begyndt at gå over fra on-premise til cloud, og vi så nye branchestandarder dukke op – som Office 365, Dropbox, Marketo, Salesforce og andre.

Under mine første par uger, havde jeg allerede vidst, at jeg ville starte min egen virksomhed en dag. Jeg følte virkelig, fra et teknisk synspunkt, at jeg var parat til enhver udfordring, der blev kastet min vej, og hvis ikke jeg selv, så vidste jeg, hvem jeg kunne bede om hjælp til at overvinde alt.

Adallom havde brug for en person, der havde dyb viden om teknologien, men også kunne være kunde-orienteret. Et par uger senere, og jeg var på et fly til USA, for første gang i mit liv, for at mødes med folk fra LinkedIn (før Microsoft). Et par uger senere, og de blev vores første betalende kunde i USA. Dette var kun en af mange store virksomheder – Netflix, Disney og Safeway – som jeg hjalp med at løse kritiske cloud-problemer for. Det var super uddannende og en stærk tillidsskaber.

For mig var det at tilslutte mig Adallom virkelig om at tilslutte mig et sted, hvor jeg troede på markedet, jeg troede på holdet, og jeg troede på visionen. Jeg er ekstremt taknemlig for den mulighed, jeg fik der.

Formålet med, hvad jeg laver, var og er meget vigtigt. For mig var det det samme i hæren, det var altid vigtigt. Jeg kunne let se, hvordan Adalloms tilgang til at forbinde til SaaS-løsninger, derefter overvåge aktivitet af brugere, ressourcer, finde anomalier og så videre, var, hvordan tingene ville blive gjort. Jeg indså, at dette ville være tilgangen i fremtiden. Så jeg så Adallom som en virksomhed, der ville blive succesfuld.

Jeg var ansvarlig for hele arkitekturen af vores ML-infrastruktur. Og jeg så og oplevede førstehånds manglen på ordentlig værktøj til økosystemet. Ja, det var klart for mig, at der måtte være en dedikeret løsning på et centralt sted, hvor man kan se alle sine modeller; hvor man kan se, hvilke beslutninger de tager for ens forretning; hvor man kan spore og blive proaktiv med sine ML-mål. For eksempel havde vi gang på gang, hvor vi fik at vide om problemer i vores maskinlæringsmodeller for sent, og det er ikke godt for brugerne og bestemt ikke for forretningen. Dette er, hvor idéen til Aporia begyndte at tage form.

Kan du dele historien bag Aporia?

Min egen personlige erfaring med maskinlæring starter i 2008, som en del af et samarbejdsprojekt på Weizmann Institute, sammen med University of Bath og et kinesisk forskningscenter. Der byggede jeg et biometrisk identifikationssystem ved at analysere billeder af iris. Jeg opnåede 94% nøjagtighed. Projektet var en succes og blev applaudent fra et forsknings synspunkt. Men for mig, havde jeg bygget software, siden jeg var 10 år gammel, og noget føltes på en måde, ikke rigtigt. Du kunne ikke virkelig bruge det biometriske identifikationssystem, jeg byggede, i virkeligheden, fordi det kun fungerede godt for det specifikke datasæt, jeg brugte. Det er ikke deterministisk nok.

Dette er kun lidt baggrund. Når du bygger et maskinlærings system, for eksempel til biometrisk identifikation, vil du have, at forudsigelserne er deterministiske – du vil vide, at systemet nøjagtigt identificerer en bestemt person, rigtigt? Ligesom din iPhone ikke låser op, hvis den ikke genkender den rigtige person på det rigtige punkt, dette er det ønskede resultat. Men dette var virkelig ikke tilfældet med maskinlæring dengang, da jeg først kom ind i området.

Om syv år senere og jeg oplevede førstehånds virkeligheden af at køre produktionsmodeller uden pålidelige sikkerhedsforanstaltninger, da de tager beslutninger for vores forretning, der påvirker vores kunder. Sidenhen havde jeg held til at arbejde som investor hos Vertex Ventures i tre år. Jeg så, hvordan mere og mere organisationer brugte ML, og hvordan virksomheder gik over fra bare at tale om ML til faktisk at gøre maskinlæring. Men disse virksomheder adopterede ML kun for at blive udfordret af de samme problemer, vi havde hos Adallom.

Alle skyndte sig at bruge ML, og de prøvede at bygge overvågnings systemer internt. Det var åbenbart ikke deres kerneforretning, og disse udfordringer er ret komplekse. Her indså jeg også, at dette er min chance til at gøre en enorm indvirkning.

AI bliver adopteret på tværs af næsten alle brancher, herunder sundhedssektor, finansielle tjenester, bilindustri og andre, og det vil berøre alle menneskers liv og påvirke os alle. Dette er, hvor Aporia viser sin sande værdi – ved at aktivere alle disse liv-forandrende brugsområder til at fungere, som de skal, og hjælpe med at forbedre vores samfund. For, ligesom med enhver software, vil du få bugs, og maskinlæring er ingen undtagelse. Hvis de bliver ignoreret, kan disse ML-problemer virkelig skade forretningskontinuitet og påvirke samfundet med uønskede bias-resultater. Tag Amazons forsøg på at implementere et AI-rekrutteringsværktøj – uønsket bias fik maskinlæringsmodellen til at anbefale mandlige kandidater over feminine. Dette er åbenbart et uønsket resultat. Derfor er der brug for en dedikeret løsning til at detektere uønsket bias, før det kommer til nyhederne og påvirker slutbrugere.

For organisationer at kunne korrekt stole på og nyde fordelene af maskinlæring, skal de vide, når det ikke fungerer rigtigt, og nu med nye reguleringer, skal ML-brugere ofte have måder til at forklare deres model-forudsigelser på. Til sidst er det kritisk at forskning og udvikle nye modeller og innovative projekter, men når disse modeller møder den virkelige verden og tager reelle beslutninger for mennesker, virksomheder og samfund, er der et klart behov for en komprehensiv overvågningsløsning til at sikre, at de kan stole på AI.

Kan du forklare betydningen af gennemsigtig og forklarlig AI?

Selvom det kan se ud som noget lignende, er der en vigtig forskel at gøre mellem traditionel software og maskinlæring. I software har du en software-ingeniør, der skriver kode, definerer logikken i applikationen, vi ved nøjagtigt, hvad der vil ske i hver kode-strøm. Det er deterministisk. Sådan er software som regel bygget, ingeniørerne laver test-tilfælde, tester kanter, får til omkring 70% – 80% dækning – du føler dig godt nok til, at du kan udgive til produktion. Hvis nogen advarsler dukker op, kan du let fejlfinde og forstå, hvad der gik galt, og fikse det.

Dette er ikke tilfældet med maskinlæring. I stedet for en menneskelig definition af logikken, defineres det som en del af træningsprocessen for modellen. Når vi taler om logik, er det ikke en samling regler, men snarere en matrix af millioner og milliarder af tal, der repræsenterer maskinlæringsmodellens “hjerne”. Og dette er en sort boks, vi ved ikke rigtigt, hvad hver enkelt tal i denne matrix betyder. Men vi ved statistisk, så dette er probabilistisk, og ikke deterministisk. Det kan være nøjagtigt i 83% eller 93% af tiden. Dette rejser en masse spørgsmål, ikke? Først, hvordan kan vi stole på et system, som vi ikke kan forklare, hvordan det kommer til sine forudsigelser? Anden, hvordan kan vi forklare forudsigelser for højt regulerede brancher – som den finansielle sektor. For eksempel er finansielle virksomheder i USA forpligtet af loven til at forklare deres kunder, hvorfor de blev afvist for en låneansøgning.

Udværelsen af at forklare maskinlæringsforudsigelser i læseligt tekst kan være en større hindring for en bred adoption af ML på tværs af brancher. Vi vil vide, som samfund, at modellen ikke tager fordomsfulde beslutninger. Vi vil sikre os, at vi forstår, hvad der fører modellen til en bestemt beslutning. Dette er, hvor forklarbarhed og gennemsigtighed er ekstremt afgørende.

Hvordan fungerer Aporias gennemsigtige og forklarlige AI-værktøjsløsning?

Aporias forklarlige AI-værktøjsløsning fungerer som en del af et samlet maskinlærings-overvågnings-system. Uden dyb indsigt i produktionsmodeller og en pålidelig overvågnings- og advarselsløsning er det svært at stole på de forklarlige AI-indsigter – der er ingen grund til at forklare forudsigelser, hvis output er utilfredsstillende. Og så er det her, Aporia kommer ind i billedet og bliver meget, meget nyttig for disse organisationer. Aporia giver en enkelt pane af glassynlighed over alle kørende modeller, tilpasset overvågning, advarselsfunktioner, fejlfindingsværktøjer, rodårsags-undersøgelse og forklarlig AI. En dedikeret, full-stack overvågningsløsning til enhver og alle problemer, der opstår i produktion.

Aporia-platformen er agnostisk og udstyrer AI-orienterede virksomheder, data science- og ML-hold med en central dashboard og fuld synlighed i modellens sundhed, forudsigelser og beslutninger – hvilket giver dem mulighed for at stole på deres AI. Ved at bruge Aporias forklarlige AI kan organisationer holde alle relevante interessenter i loopet ved at forklare maskinlæringsbeslutninger med et klik på en knap – få læselige indsigter i specifikke model-forudsigelser eller simulere “Hvad hvis?”-situationer. Derudover sporer Aporia konstant data, der fødes ind i modellen, samt forudsigelserne, og sender proaktivt advarsler ved vigtige begivenheder, herunder ydelsesnedgang, uønsket bias, data-drift og selv muligheder for at forbedre modellen. Til sidst kan du med Aporias undersøgelsesværktøj komme til rodårsagen af enhver begivenhed og afhjælpe og forbedre enhver model i produktion.

Nogle af funktionaliteterne, der tilbydes, inkluderer Data Points og Time Series Investigation Tools, hvordan hjælper disse værktøjer med at forhindre AI-forvrængning og drift?

Data Points giver en live-visning af de data, modellen modtager, og forudsigelserne, den laver for forretningen. Du kan få en live-feed af det og forstå nøjagtigt, hvad der sker i din forretning. Denne evne til synlighed er afgørende for gennemsigtighed. Nogle gange sker der ændringer over tid, og der er en sammenhæng mellem flere ændringer over tid – dette er rollen for tids-serie-undersøgelse.

For nylig har store detailhandlere haft alle deres AI-forudsigelsesværktøjer fejle, når det kom til at forudsige forsyningskæde-problemer, hvordan ville Aporia-platformen løse dette?

Den største udfordring i at identificere disse problemer ligger i, at vi taler om fremtidige forudsigelser. Det betyder, at vi forudsagde, noget ville ske eller ikke ske i fremtiden. For eksempel, hvor mange mennesker vil købe en bestemt skjorte eller købe en ny PlayStation.

Så det tager noget tid at samle alle de faktiske resultater – mere end nogle få uger. Så kan vi sammenfatte og sige, okay, dette var den faktiske efterspørgsel, vi så. Denne tidsramme, vi taler om, er på flere måneder i alt. Dette er, hvad der tager os fra det øjeblik, modellen laver forudsigelsen, til forretningen ved nøjagtigt, om det var rigtigt eller forkert. Og på det tidspunkt er det som regel for sent, forretningen har enten tabt potentielle indtægter eller har fået marginalen presset, fordi de må sælge overskud på store rabatter.

Dette er en udfordring. Og dette er præcis, hvor Aporia kommer ind i billedet og bliver meget, meget nyttig for disse organisationer. Først giver det organisationer mulighed for let at få gennemsigtighed og synlighed i, hvilke beslutninger der tages – Er der nogen fluktuationer? Er der noget, der ikke giver mening? Anden, da vi taler om store detailhandlere, taler vi om enorme mængder af lager, og at spore dem manuelt er nær umuligt. Her er, hvor forretninger og maskinlærings-hold værdsætter Aporia mest, som et 24/7 automatiseret og tilpasset overvågnings-system. Aporia sporer konstant data og forudsigelser, det analyserer den statistiske adfærd af disse forudsigelser, og det kan forudse og identificere ændringer i forbrugernes adfærd og ændringer i data-adfærden, så snart det sker. I stedet for at vente seks måneder for at indse, at forsyningskæde-forudsigelsen var forkert, kan du på få dage identificere, at vi er på det forkerte spor med vores forsyningskæde-forudsigelser. Så Aporia forkorter denne tidsramme fra flere måneder til få dage. Dette er en kæmpe game-changer for enhver ML-praktiker.

Er der noget andet, du gerne vil dele om Aporia?

Vi er konstant i vækst og søger efter fantastiske mennesker med brillante tanker til at tilslutte sig Aporia-rejsen. Se vores åbne stillinger.

Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge Aporia.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.