Rozhovory
Liran Hason, spoluzakladatel a CEO Aporie – Interview Series

Liran Hason je spoluzakladatel a CEO Aporie, plnohodnotné platformy pro pozorovatelnost ML, kterou využívají společnosti z žebříčku Fortune 500 a týmy datové vědy po celém světě, aby zajistily odpovědnou AI. Aporia se integruje bezproblémově s jakoukoli infrastrukturou ML. Bez ohledu na to, zda se jedná o server FastAPI na vrcholu Kubernetes, open-source nástroj pro nasazení jako MLFlow nebo platformu pro strojové učení jako AWS Sagemaker.
Předtím, než založil Aporii, byl Liran architektem ML ve společnosti Adallom (zakoupené společností Microsoft) a později investorem ve společnosti Vertex Ventures.
Začal jste programovat, když vám bylo 10 let, co vás最初ně přitáhlo k počítačům a na čem jste pracoval?
Byl to rok 1999 a můj kamarád mě zavolal a řekl, že vytvořil webovou stránku. Po zadání adresy o délce 200 znaků do svého prohlížeče jsem uviděl webovou stránku s jeho jménem. Byl jsem ohromen tím, že vytvořil něco na svém počítači a já to mohl vidět na svém vlastním počítači. To mě velmi zaujalo a chtěl jsem vědět, jak to funguje a jak to mohu udělat také. Poprosil jsem svou maminku, aby mi koupila knihu o HTML, což byl můj první krok do programování.
Najdu velkou radost v řešení technických výzev a s časem moje zvědavost pouze rostla. Naučil jsem se ASP, PHP a Visual Basic a opravdu jsem spotřeboval vše, co jsem mohl.
Když mi nebylo 13 let, už jsem vykonával některé freelance práce, vytvářel webové stránky a desktopové aplikace.
Když jsem neměl žádnou aktivní práci, pracoval jsem na svých vlastních projektech – obvykle různých webových stránek a aplikací, jejichž cílem bylo pomoci ostatním lidem dosáhnout jejich cílů:
Blue-White Programming – je hebrejský programovací jazyk, podobný HTML, který jsem vytvořil poté, co jsem si uvědomil, že děti v Izraeli, které nemají vysokou úroveň angličtiny, jsou omezeny nebo odrazovány od světa programování.
Blinky – Moji prarodiče jsou hluchí a používají znakovou řeč k komunikaci se svými přáteli. Když se objevily video konferenční software jako Skype a ooVoo, umožnily jim poprvé mluvit se svými přáteli, i když nejsou ve stejné místnosti (jako my všichni s našimi telefony). Ale protože neslyší, nevěděli, zda mají příchozí hovor. Abych jim pomohl, napsal jsem software, který rozpoznává příchozí video hovory a upozorňuje je blikajícím LED polem v malém hardwarovém zařízení, které jsem postavil a připojil k jejich počítači.
To jsou jen některé projekty, na kterých jsem pracoval jako teenager. Moje zvědavost nikdy neustala a snažil jsem se naučit co nejvíce.
Můžete sdílet příběh o své cestě jako architekt strojového učení ve společnosti Microsoft-acquired Adallom?
Začal jsem svou cestu v Adallomu po své vojenské službě. Po pěti letech v armádě jako kapitán jsem viděl skvělou příležitost připojit se k vznikající společnosti a trhu – jako jeden z prvních zaměstnanců. Společnost byla vedená skvělémi zakladateli, které jsem znal ze své vojenské služby, a podporovaná špičkovými venture kapitály – jako Sequoia. Výbuch cloud technologií na trh byl stále v relativním dětství a my jsme stavěli jednu z prvních cloud bezpečnostních řešení v té době. Společnosti začaly přecházet z místních řešení do cloudu a my jsme viděli vznik nových průmyslových standardů – jako Office 365, Dropbox, Marketo, Salesforce a další.
Během svých prvních týdnů jsem už věděl, že chci jednou založit svou vlastní společnost. Cítil jsem, z technického hlediska, že jsem schopen řešit jakoukoli výzvu, a pokud ne já, tak jsem znal správné lidi, kteří mi mohou pomoci překonat cokoli.
Adallom potřeboval někoho, kdo má hluboké znalosti technologií, ale mohl by být také orientován na zákazníky. O měsíc později jsem byl v letadle do USA, poprvé v mém životě, abych se setkal s lidmi z LinkedIn (před Microsoftem). O pár týdnů později se stali našimi prvními platícími zákazníky v USA. To byla jen jedna z mnoha významných korporací – Netflix, Disney, Safeway – kterým jsem pomáhal řešit kritické cloudové problémy. Bylo to super vzdělávací a silné budování sebevědomí.
Pro mě bylo připojení k Adallomu opravdu o připojení se k místu, kde věřím v trh, věřím v tým a věřím ve vizi. Jsem非常 vděčný za příležitost, která mi byla dána tam.
Byl jsem zodpovědný za celou architekturu naší ML infrastruktury. A viděl jsem a zažil osobně nedostatek řádného nástroje pro ekosystém. Ano, bylo mi jasné, že musí existovat specializované řešení v jednom centralizovaném místě, kde můžete vidět všechny své modely; kde můžete vidět, jaká rozhodnutí dělají pro váš podnik; kde můžete sledovat a být proaktivní se svými ML cíli. Například jsme měli časy, kdy jsme se dozvěděli o problémech v našich modelech strojového učení příliš pozdě, a to není skvělé pro uživatele a určitě ne pro podnik. To je místo, kde začala vznikat myšlenka Aporie.
Můžete sdílet příběh o vzniku Aporie?
Má osobní zkušenost se strojovým učením začíná v roce 2008, jako součást projektu na Weizmannově institutu, spolu s University of Bath a čínským výzkumným centrem. Tam jsem postavil biometrický identifikační systém analýzou obrazů duhovky. Dosáhl jsem 94% přesnosti. Projekt byl úspěšný a byl oceňován z výzkumného hlediska. Ale pro mě, já jsem stavěl software od svých 10 let, a něco mi připadalo nějak nereálné. Nemůžete opravdu použít biometrický identifikační systém, který jsem postavil, v reálném životě, protože fungoval dobře pouze pro konkrétní dataset, který jsem použil. Není to deterministické enough.
To je jen trochu pozadí. Když stavíte systém strojového učení, například pro biometrickou identifikaci, chcete, aby předpovědi byly deterministické – chcete vědět, že systém přesně identifikuje určitou osobu, ano? Jako když se váš iPhone nezamkne, pokud nerozpozná správnou osobu ve správném úhlu, tohle je požadovaný výsledek. Ale tohle opravdu nebyl případ strojového učení, když jsem se do něj poprvé dostal.
O sedm let později a já jsem zažíval osobně, v Adallomu, realitu běhu produkčních modelů bez spolehlivých zábran, jak dělají rozhodnutí pro náš podnik, která ovlivňují naše zákazníky. Poté jsem měl štěstí pracovat jako investor ve společnosti Vertex Ventures, po dobu tří let. Viděl jsem, jak více a více organizací používalo ML, a jak společnosti přecházely z pouhé diskuse o ML k skutečnému používání strojového učení. Ale tyto společnosti přijaly ML pouze aby byly vyzývány stejnými problémy, se kterými jsme se potýkali v Adallomu.
Každý spěchal použít ML, a snažili se stavět monitoringové systémy v rámci své společnosti. Zjevně to nebyla jejich hlavní činnost, a tyto výzvy jsou bastante komplexní. To je místo, kde jsem si uvědomil, že tohle je moje příležitost udělat velký dopad.
AI je přijímána napříč téměř každým odvětvím, včetně zdravotnictví, finančních služeb, automobilového průmyslu a dalších, a bude se dotýkat každého života a bude mít dopad na nás všechny. To je místo, kde Aporie ukazuje svou skutečnou hodnotu – umožňující všechny tyto život měnící použití případů fungovat tak, jak jsou určeny, a pomáhat zlepšovat naši společnost. Protože, stejně jako u každého softwaru, budete mít chyby, a strojové učení není výjimkou. Pokud se nechají bez kontroly, tyto ML problémy mohou opravdu uškodit podnikání a mít dopad na společnost s neúmyslnými偏见 výsledky. Vezměte si pokus Amazonu implementovat AI náborářský nástroj – neúmyslná偏见 způsobila, že se strojové učení model doporučil mužské kandidáty před ženskými. To je zjevně nežádoucí výsledek. Proto je třeba mít specializované řešení pro detekci neúmyslné偏见 předtím, než se dostanou do novin a ovlivní koncové uživatele.
Pro organizace, aby správně spoléhaly na a užívaly výhody strojového učení, potřebují vědět, kdy nefunguje správně, a nyní s novými regulacemi, často budou uživatelé ML potřebovat způsoby, jak vysvětlit své modelové předpovědi. Na konci dne je kritické zkoumat a vyvíjet nové modely a inovativní projekty, ale jednou, kdy tyto modely potkají skutečný svět a dělají skutečná rozhodnutí pro lidi, podniky a společnost, je zde jasná potřeba komplexního řešení pro pozorovatelnost, aby mohli důvěřovat AI.
Můžete vysvětlit důležitost transparentního a vysvětlitelného AI?
Zatímco to může vypadat podobně, je zde důležitý rozdíl, který je třeba udělat mezi tradičním softwarem a strojovým učením. V softwaru máte softwarového inženýra, který píše kód, definuje logiku aplikace, víme přesně, co se stane v každém toku kódu. Je to deterministické. To je, jak je software obvykle stavěn, inženýři vytvářejí testovací případy, testují hraniční případy, získávají asi 70% – 80% pokrytí – cítíte se dostatečně dobře, abyste mohli vydávat do produkce. Pokud se objeví nějaké upozornění, můžete snadno ladit a pochopit, co šlo wrong, a opravit to.
To není případ strojového učení. Místo toho, aby člověk definoval logiku, je definován jako součást procesu školení modelu. Když mluvíme o logice, na rozdíl od tradičního softwaru, není to soubor pravidel, ale spíše matice milionů a miliard čísel, která reprezentují mysl, mozek modelu strojového učení. A tohle je černá skříňka, nevědíme opravdu význam každého čísla v této matici. Ale víme statisticky, tohle je pravděpodobnostní, a ne deterministické. Může být přesné v 83% nebo 93% času. To vyvolává spoustu otázek, ano? První, jak můžeme důvěřovat systému, který nemůžeme vysvětlit, jakým způsobem dochází k jeho předpovědím? Druhé, jak můžeme vysvětlit předpovědi pro vysoce regulovaná odvětví – jako je finanční sektor. Například ve Spojených státech jsou finanční firmy povinny zákonem vysvětlit svým zákazníkům, proč byli odmítnuti pro žádost o půjčku.
Neschopnost vysvětlit předpovědi strojového učení v lidsky čitelném textu může být velkým blokerem pro masové přijetí ML napříč odvětvími. Chceme vědět, jako společnost, že model nedělá偏见 rozhodnutí. Chceme se ujistit, že rozumíme, co vede model k bestimmému rozhodnutí. To je místo, kde vysvětlitelnost a transparentnost jsou extrémně kritické.
Jak funguje transparentní a vysvětlitelné AI toolbox řešení Aporie?
Transparentní AI toolbox Aporie funguje jako součást sjednoceného systému pro pozorovatelnost strojového učení. Bez hluboké viditelnosti produkčních modelů a spolehlivého monitoringu a upozornění je těžké důvěřovat vysvětlitelným AI informacím – není třeba vysvětlovat předpovědi, pokud výstup není spolehlivý. A tohle je místo, kde Aporie přichází, poskytující jednotné sklo pro viditelnost nad všemi běžícími modely, přizpůsobitelné monitorování, upozornění, ladění nástroje, vyšetřování příčiny a vysvětlitelné AI. Specializované, plnohodnotné řešení pro pozorovatelnost pro každou a všechny problémy, které se vyskytnou v produkci.
Platforma Aporie je agnostická a vybavuje AI orientované podniky, datové vědy a ML týmy centralizovanou řídicí panely a kompletní viditelností do zdraví modelů, předpovědí a rozhodnutí – umožňující jim důvěřovat AI. Používáním vysvětlitelného AI Aporie jsou organizace schopny udržet každého relevantního stakeholdera v loopu vysvětlováním rozhodnutí strojového učení jedním kliknutím – získat lidsky čitelné informace o konkrétních modelových předpovědích nebo simulovat “Co kdyby” situace. Kromě toho Aporie neustále sleduje data, která jsou krmena do modelu, stejně jako předpovědi, a proaktivně vám posílá upozornění při důležitých událostech, včetně degradace výkonu, neúmyslné偏见, datového driftu a dokonce i příležitostí ke zlepšení vašeho modelu. Nakonec s vyšetřovacím toolbokem Aporie můžete dostat se k příčině každé události a odstranit a zlepšit jakýkoli model v produkci.
Někteří z funkcí, které jsou nabízeny, zahrnují Data Points a Time Series Investigation Tools, jak tyto nástroje pomáhají v prevenci AI偏见 a drift?
Data Points poskytuje živý pohled na data, která model dostává, a předpovědi, které dělá pro podnik. Můžete získat živý feed z toho a pochopit přesně, co se děje ve vašem podniku. Takže tato schopnost viditelnosti je kritická pro transparentnost. Někdy se věci mění v čase a existuje korelace mezi několika změnami v čase – tohle je role časové řady vyšetřování.
Nedávno měly velké maloobchodní společnosti všechny své AI předpovědní nástroje selhat, když šlo o předpověď problémů se zásobováním, jak by platforma Aporie vyřešila tuto situaci?
Hlavní výzva při identifikaci těchto typů problémů spočívá v tom, že mluvíme o budoucích předpovědích. To znamená, že jsme předpověděli, že něco se stane nebo nestane v budoucnu. Například, kolik lidí bude kupovat určitý tričko nebo nový PlayStation.
Potom to trvá nějakou dobu, než shromáždíme všechny skutečné výsledky – více než několik týdnů. Potom můžeme shrnout a říci, OK, tohle byla skutečná poptávka, kterou jsme viděli. Tento časový rámec, mluvíme o několika měsících. To je to, co nás vede od okamžiku, kdy model dělá předpověď, až do okamžiku, kdy podnik ví přesně, zda byla správná nebo ne. A v tu dobu je obvykle příliš pozdě, podnik buď ztratil potenciální výnosy nebo marži byla stlačena, protože museli prodávat nadbytečné zásoby se značnými slevami.
To je výzva. A tohle je přesně místo, kde Aporie vstupuje do obrazu a stává se velmi, velmi užitečnou pro tyto organizace. První, umožňuje organizacím snadno získat transparentnost a viditelnost do toho, jaká rozhodnutí jsou dělána – Existují nějaké fluktuace? Je něco, co nedává smysl? Druhé, protože mluvíme o velkých maloobchodních společnostech, mluvíme o obrovském množství zásob, a ruční sledování je téměř nemožné. To je místo, kde podniky a týmy strojového učení nejvíce oceňují Aporii, jako 24/7 automatizovaný a přizpůsobitelný monitoringový systém. Aporie neustále sleduje data a předpovědi, analyzuje statistické chování těchto předpovědí a může předpovědět a identifikovat změny v chování spotřebitelů a změnách v datech, jakmile se vyskytnou. Místo toho, aby čekali šest měsíců, aby zjistili, že předpověď poptávky byla špatná, můžete během několika dnů identifikovat, že jsme na špatné cestě s našimi předpověďmi poptávky. Takže Aporie zkracuje tento časový rámec z několika měsíců na několik dnů. To je obrovský game changer pro každého praktika ML.
Je něco jiného, co byste rádi sdíleli o Aporii?
Jsme neustále rostoucí a hledáme úžasné lidi s brilantními myslí, aby se připojili k cestě Aporie. Zkontrolujte naše otevřené pozice.
Děkuji za skvělý rozhovor, čtenáři, kteří chtějí se dozvědět více, by měli navštívit Aporii.












