Connect with us

Liran Hason, medgrundare och VD för Aporia – Intervjuserie

Intervjuer

Liran Hason, medgrundare och VD för Aporia – Intervjuserie

mm

Liran Hason är medgrundare och VD för Aporia, en full-stack ML-övervakningsplattform som används av Fortune 500-företag och datavetenskapliga team över hela världen för att säkerställa ansvarsfull AI. Aporia integreras sömlöst med alla ML-infrastrukturer. Oavsett om det är en FastAPI-server ovanpå Kubernetes, ett öppen källkods distributionsverktyg som MLFlow eller en maskinlärningsplattform som AWS Sagemaker

Innan han grundade Aporia var Liran ML-arkitekt på Adallom (förvärvad av Microsoft) och senare investerare på Vertex Ventures.

Du började koda när du var 10, vad var det som initialt drog dig till datorer, och vad jobbade du på?

Det var 1999, och en kompis till mig ringde mig och sa att han hade byggt en webbplats. Efter att ha skrivit in en 200 tecken lång adress i min webbläsare såg jag en webbplats med hans namn på den. Jag blev förvånad över att han hade skapat något på sin dator och att jag kunde se det på min egen dator. Detta gjorde mig super nyfiken på hur det fungerade och hur jag kunde göra samma sak. Jag bad min mamma att köpa mig en HTML-bok, som var mitt första steg in i programmering.

Jag finner stor glädje i att ta på mig tekniska utmaningar, och ju mer tid som gick, desto mer växte min nyfikenhet. Jag lärde mig ASP, PHP och Visual Basic, och konsumerade allt jag kunde.

När jag var 13 år gammal hade jag redan börjat ta på mig freelanceuppdrag, byggde webbplatser och desktopapplikationer.

När jag inte hade något aktivt arbete jobbade jag på mina egna projekt – vanligtvis olika webbplatser och applikationer som syftade till att hjälpa andra människor att uppnå sina mål:

Blue-White Programming – är ett hebreiskt programmeringsspråk, liknande HTML, som jag byggde efter att ha insett att barn i Israel som inte har en hög nivå av engelska är begränsade eller utestängda från programmeringsvärlden.

Blinky – Mina morföräldrar är döva och använder teckenspråk för att kommunicera med sina vänner. När videokonferensprogram som Skype och ooVoo dök upp, möjliggjorde de för dem att för första gången prata med vänner även om de inte var i samma rum (som vi alla gör med våra telefoner). Men eftersom de inte kunde höra, visste de inte när de hade ett inkommande samtal. För att hjälpa dem skrev jag programvara som identifierade inkommande videosamtal och varnade dem genom att blinka en LED-matris i en liten hårdvaruenhet som jag hade byggt och anslutit till deras dator.

Detta är bara några av de projekt jag byggde som tonåring. Min nyfikenhet upphörde aldrig och jag fann mig själv lära mig C, C++, Assembly och hur operativsystem fungerar, och försökte lära mig så mycket som möjligt.

Kan du dela historien om din resa som maskinlärningsarkitekt på Microsoft-förvärvade Adallom?

Jag började min resa på Adallom efter min militärtjänst. Efter 5 år i armén som kapten, såg jag en stor möjlighet att ansluta mig till ett framväxande företag och marknad – som en av de första anställda. Företaget leddes av fantastiska grundare, som jag kände från min militärtjänst, och backades av topp-Venturekapitalister – som Sequoia. Utbrottet av molnteknologier på marknaden var fortfarande i sin relativa barndom, och vi byggde en av de allra första molnsäkerhetslösningarna vid den tiden. Företag började just övergå från on-premise till moln, och vi såg nya branschstandarder dyka upp – som Office 365, Dropbox, Marketo, Salesforce och andra.

Under mina första veckor visste jag redan att jag ville starta mitt eget företag en dag. Jag kände, från ett tekniskt perspektiv, att jag var redo för vilken utmaning som helst, och om inte jag själv, så visste jag de rätta personerna som kunde hjälpa mig övervinna allt.

Adallom hade behov av någon som hade djup kunskap om tekniken men också kunde vara kundorienterad. En månad senare var jag på ett plan till USA, för första gången i mitt liv, för att träffa människor från LinkedIn (före Microsoft). En paar veckor senare blev de våra första betalande kunder i USA. Detta var bara ett av många stora företag – Netflix, Disney och Safeway – som jag hjälpte lösa kritiska molnproblem för. Det var superutbildande och en stark förtroendeskapare.

För mig var att ansluta mig till Adallom att ansluta mig till en plats där jag trodde på marknaden, jag trodde på teamet och jag trodde på visionen. Jag är extremt tacksam för den möjlighet som jag fick där.

Syftet med vad jag gör var och är mycket viktigt. För mig var det detsamma i armén, det var alltid viktigt. Jag kunde lätt se hur Adalloms tillvägagångssätt att ansluta till SaaS-lösningar, sedan övervaka aktivitet hos användare, hitta avvikelser och så vidare, var hur saker och ting skulle göras. Jag insåg att detta skulle vara tillvägagångssättet för framtiden. Så jag såg definitivt Adallom som ett företag som skulle bli framgångsrikt.

Jag var ansvarig för hela arkitekturen för vår ML-infrastruktur. Och jag såg och upplevde förstahands den bristande ordentliga verktygen för ekosystemet. Ja, det var tydligt för mig att det måste finnas en dedikerad lösning på en central plats där du kan se alla dina modeller; där du kan se vilka beslut de fattar för ditt företag; där du kan spåra och bli proaktiv med dina ML-mål. Till exempel hade vi gånger när vi lärde oss om problem i våra maskinlärningsmodeller alldeles för sent, och det är inte bra för användarna och definitivt inte för företaget. Detta är där idén för Aporia började ta form.

Kan du dela ursprunget till Aporia?

Min egen personliga erfarenhet av maskinlärning börjar 2008, som en del av ett samarbetsprojekt på Weizmann-institutet, tillsammans med University of Bath och ett kinesiskt forskningscenter. Där byggde jag ett biometriskt identifieringssystem genom att analysera bilder av iris. Jag kunde uppnå 94% noggrannhet. Projektet var en framgång och hyllades från ett forskningsperspektiv. Men för mig, som hade byggt programvara sedan jag var 10 år gammal, kändes det på något sätt inte riktigt. Du kunde inte verkligen använda det biometriska identifieringssystem jag byggde i verkligheten, eftersom det fungerade bra bara för den specifika datamängd jag använde. Det är inte tillräckligt deterministiskt.

Detta är bara en del av bakgrunden. När du bygger ett maskinlärningssystem, till exempel för biometrisk identifiering, vill du att förutsägelserna ska vara deterministiska – du vill veta att systemet korrekt identifierar en viss person, rätt? Precis som hur din iPhone inte låser upp om den inte känner igen rätt person i rätt vinkel, detta är det önskade resultatet. Men detta var inte fallet med maskinlärning vid den tiden, när jag först kom in i området.

Omkring sju år senare och jag upplevde förstahands verkligheten av att köra produktionsmodeller utan tillförlitliga skydd, eftersom de fattar beslut för vårt företag som påverkar våra kunder. Sedan var jag lycklig att arbeta som investerare på Vertex Ventures, under tre år. Jag såg hur fler och fler organisationer använde ML, och hur företag gick från att bara prata om ML till att faktiskt göra maskinlärning. Men dessa företag antog ML bara för att utmanas av samma problem som vi stod inför på Adallom.

Alla skyndade sig att använda ML, och de försökte bygga övervakningssystem internt. Tydligt var det inte deras kärnverksamhet, och dessa utmaningar är ganska komplexa. Här är där jag också insåg att detta är min möjlighet att göra en enorm inverkan.

AI antas över nästan alla branscher, inklusive hälso- och sjukvård, finansiella tjänster, bilar och andra, och det kommer att påverka alla människors liv och ha en inverkan på oss alla. Detta är där Aporia visar sin sanna värde – att möjliggöra alla dessa livsförändrande användningsfall att fungera som avsett och hjälpa till att förbättra vårt samhälle. Eftersom, liksom all programvara, kommer du att ha buggar, och maskinlärning är inget undantag. Om den lämnas obevakad, kan dessa ML-problem verkligen skada affärs kontinuitet och påverka samhället med oavsiktliga biasresultat. Ta Amazons försök att implementera ett AI-rekryteringsverktyg – oavsiktlig bias orsakade maskinlärningsmodellen att starkt rekommendera manliga kandidater över kvinnliga. Detta är tydligt ett oönskat resultat. Så det behövs en dedikerad lösning för att upptäcka oavsiktlig bias innan det hamnar i nyheterna och påverkar slutanvändare.

För organisationer att ordentligt lita på och njuta av fördelarna med maskinlärning, måste de veta när det inte fungerar rätt, och nu med nya regleringar, kommer ML-användare ofta att behöva sätt att förklara sina modellförutsägelser. Till slut är det kritiskt att forska och utveckla nya modeller och innovativa projekt, men när dessa modeller möter den riktiga världen och fattar riktiga beslut för människor, företag och samhälle, finns det ett tydligt behov av en omfattande övervakningslösning för att säkerställa att de kan lita på AI.

Kan du förklara vikten av transparent och förklarbar AI?

Medan det kan verka liknande, finns det en viktig distinktion att göras mellan traditionell programvara och maskinlärning. I programvara har du en programvaruutvecklare som skriver kod, definierar logiken för applikationen, vi vet exakt vad som kommer att hända i varje kodflöde. Det är deterministiskt. Så är programvara vanligtvis byggd, utvecklarna skapar testfall, testar gränsfall, får till 70% – 80% täckning – du känner dig tillräckligt bra för att kunna släppa till produktion. Om några varningar dyker upp, kan du enkelt felsöka och förstå vad som gick fel, och fixa det.

Detta är inte fallet med maskinlärning. Istället för att en människa definierar logiken, definieras den som en del av modellens träningsprocess. När vi pratar om logik, är det inte en uppsättning regler, utan snarare en matris med miljontals och miljarder tal som representerar maskinlärningsmodellens “hjärna”. Och detta är en svart låda, vi vet inte riktigt meningen med varje tal i denna matris. Men vi vet statistiskt, så detta är probabilistiskt, och inte deterministiskt. Det kan vara korrekt i 83% eller 93% av fallen. Detta väcker många frågor, rätt? Först, hur kan vi lita på ett system som vi inte kan förklara hur det kommer till sina förutsägelser? Andra, hur kan vi förklara förutsägelser för starkt reglerade branscher – som den finansiella sektorn. Till exempel i USA, är finansiella företag skyldiga enligt lag att förklara för sina kunder varför de nekades en låneansökan.

Oförmågan att förklara maskinlärningsförutsägelser i läsbar text kan vara en stor blockerare för massantagandet av ML över branscher. Vi vill veta, som samhälle, att modellen inte fattar partiska beslut. Vi vill säkerställa att vi förstår vad som leder modellen till ett specifikt beslut. Detta är där förklarbarhet och transparens är extremt viktiga.

Hur fungerar Aporias transparenta och förklarbara AI-verktygslåda?

Aporias förklarbara AI-verktygslåda fungerar som en del av ett enhetligt maskinlärningsövervakningssystem. Utan djup insikt i produktionsmodeller och en tillförlitlig övervaknings- och varningssystem, är det svårt att lita på de förklarbara AI-insikterna – det finns inget behov av att förklara förutsägelser om utdata är o tillförlitliga. Och så, det är där Aporia kommer in, och tillhandahåller en enda glasruta med synlighet över alla körande modeller, anpassningsbara övervaknings- och varningsfunktioner, felsökningsverktyg, rotorsaksundersökning och förklarbar AI. En dedikerad, full-stack-övervakningslösning för alla problem som uppstår i produktion.

Aporia-plattformen är oberoende och utrustar AI-inriktade företag, datavetenskapliga och ML-team med en central instrumentpanel och full synlighet i modellens hälsa, förutsägelser och beslut – vilket möjliggör för dem att lita på sin AI. Genom att använda Aporias förklarbara AI, kan organisationer hålla alla relevanta intressenter informerade genom att förklara maskinlärningsbeslut med ett knapptryck – få läsbara insikter i specifika modellförutsägelser eller simulera “Vad om?”-situationer. Dessutom spårar Aporia ständigt den data som matas in i modellen samt förutsägelserna, och skickar proaktivt varningar vid viktiga händelser, inklusive prestandaförsämring, oavsiktlig bias, dataavvikelse och till och med möjligheter att förbättra din modell. Slutligen, med Aporias undersökningsverktyg kan du komma till roten av varje händelse för att avhjälpa och förbättra varje modell i produktion.

Några av de funktioner som erbjuds inkluderar Data Points och Time Series Investigation Tools, hur hjälper dessa verktyg till att förhindra AI-bias och avvikelse?

Data Points ger en livevy över den data som modellen får och de förutsägelser den gör för företaget. Du kan få en livefeed av det och förstå exakt vad som händer i ditt företag. Så, denna synlighet är avgörande för transparens. Ibland förändras saker över tid och det finns en korrelation mellan flera förändringar över tid – detta är rollen för tids-serie-undersökning.

Nyligen har stora detaljhandlare haft alla sina AI-prediktionsverktyg misslyckas när det gäller att förutsäga leveransproblem, hur skulle Aporia-plattformen lösa detta?

Den största utmaningen i att identifiera dessa typer av problem ligger i det faktum att vi pratar om framtida förutsägelser. Det betyder att vi förutsade att något skulle hända eller inte hända i framtiden. Till exempel, hur många människor kommer att köpa en viss skjorta eller en ny PlayStation.

Sedan tar det några veckor att samla in alla faktiska resultat – mer än några veckor. Sedan kan vi sammanfatta och säga, okej, detta var den faktiska efterfrågan som vi såg. Denna tidsram, pratar vi om flera månader sammanlagt. Detta är vad som tar oss från det ögonblick modellen gör förutsägelsen till det ögonblick företaget vet exakt om det var rätt eller fel. Och vid den tidpunkten är det vanligtvis för sent, företaget har antingen förlorat potentiella intäkter eller marginalen har pressats, eftersom de måste sälja överlager vid enorma rabatter.

Detta är en utmaning. Och detta är exakt där Aporia kommer in i bilden och blir mycket, mycket hjälpsam för dessa organisationer. Först, tillåter Aporia organisationer att enkelt få synlighet och insikt i vilka beslut som fattas – Finns det några fluktuationer? Finns det något som inte stämmer? Andra, eftersom vi pratar om stora detaljhandlare, pratar vi om enorma mängder lager, och att spåra dem manuellt är nästan omöjligt. Här är där företag och maskinlärningsteam värdesätter Aporia mest, som ett 24/7-automatiserat och anpassningsbart övervakningssystem. Aporia spårar ständigt data och förutsägelser, analyserar det statistiska beteendet hos dessa förutsägelser och kan förutsäga och identifiera förändringar i konsumentbeteende och förändringar i data så fort det händer. Istället för att vänta sex månader för att inse att efterfrågan förutsägelsen var fel, kan du på några dagar identifiera att vi är på fel väg med våra efterfrågeförutsägelser. Så Aporia förkortar denna tidsram från flera månader till några dagar. Detta är en enorm vändpunkt för alla ML-praktiker.

Finns det något annat du vill dela om Aporia?

Vi växer ständigt och letar efter underbara människor med briljanta sinnen att ansluta sig till Aporias resa. Kolla in våra öppna positioner.

Tack för den underbara intervjun, läsare som vill lära sig mer bör besöka Aporia.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.