cung Yotam Oren, CEO dhe bashkëthemelues i Mona Labs - Seria e intervistave - Unite.AI
Lidhu me ne

intervistat

Yotam Oren, CEO dhe bashkëthemelues i Mona Labs – Seria e Intervistave

mm

Publikuar

 on

Yotam Oren, është CEO dhe bashkëthemelues i Mona Labs, një platformë që u mundëson ndërmarrjeve të transformojnë iniciativat e AI nga eksperimentet laboratorike në operacione biznesi të shkallëzuara duke kuptuar me të vërtetë se si modelet ML sillen në proceset dhe aplikacionet reale të biznesit.

Mona analizon automatikisht sjelljen e modeleve tuaja të mësimit të makinerive përgjatë segmenteve të mbrojtura të të dhënave dhe në kontekstin e funksioneve të biznesit, në mënyrë që të zbulojë paragjykimet e mundshme të AI. Mona ofron mundësinë për të gjeneruar raporte të plota drejtësie që plotësojnë standardet dhe rregulloret e industrisë, dhe ofrojnë besim se aplikacioni i AI është në përputhje dhe pa asnjë paragjykim.

Çfarë ju tërhoqi fillimisht nga shkenca kompjuterike?

Shkenca kompjuterike është një rrugë e njohur karriere në familjen time, kështu që ishte gjithmonë në mendje si një opsion i zbatueshëm. Sigurisht, kultura izraelite është shumë pro teknologjisë. Ne festojmë teknologët novatorë dhe gjithmonë kam pasur perceptimin se CS do të më ofronte një pistë për rritje dhe arritje.

Pavarësisht kësaj, ai u bë një pasion personal vetëm kur arrita moshën universitare. Unë nuk isha nga ata fëmijë që filluan të kodonin në shkollën e mesme. Në rininë time, isha shumë i zënë duke luajtur basketboll për t'i kushtuar vëmendje kompjuterëve. Pas shkollës së mesme, kam kaluar afër 5 vjet në ushtri, në role drejtuese operative/luftarake. Kështu, në një farë mënyre, me të vërtetë fillova të mësoja më shumë për shkencën kompjuterike vetëm kur më duhej të zgjidhja një drejtim akademik në universitet. Ajo që tërhoqi vëmendjen time menjëherë ishte se shkenca kompjuterike kombinonte zgjidhjen e problemeve dhe mësimin e një gjuhe (ose gjuhë). Dy gjëra më interesuan veçanërisht. Që atëherë e tutje, unë u tërhoqa.

Nga viti 2006 deri në vitin 2008 keni punuar në hartimin dhe navigimin për një startup të vogël, cilat ishin disa nga arritjet tuaja kryesore nga kjo epokë?

Roli im në Telmap ishte ndërtimi i një motori kërkimi mbi të dhënat e hartës dhe vendndodhjes.

Këto ishin ditët e para të "të dhënave të mëdha" në ndërmarrje. Ne as që po e quanim kështu, por po merrnim grupe të mëdha të dhënash dhe po përpiqeshim të nxirrnim njohuritë më të rëndësishme dhe më të rëndësishme për t'ua shfaqur përdoruesve tanë fundorë.

Një nga realizimet mbresëlënëse që pata ishte se kompanitë (përfshirë ne) përdorën kaq pak nga të dhënat e tyre (për të mos përmendur të dhënat e jashtme të disponueshme publikisht). Kishte kaq shumë potencial për njohuri të reja, procese dhe përvoja më të mira.

Arritja tjetër ishte se të qenit në gjendje për të marrë më shumë nga të dhënat tona mbështetej, natyrisht, në të pasurit arkitekturë më të mirë, infrastrukturë më të mirë e kështu me radhë.

A mund të ndani historinë e gjenezës pas Mona Labs?

Ne të tre, bashkëthemeluesit, kemi qenë rreth produkteve të të dhënave gjatë gjithë karrierës sonë.

Nemo, shefi i teknologjisë, është shoku im i kolegjit dhe shoku im i klasës, dhe një nga punonjësit e parë të Google Tel Aviv. Ai filloi atje një produkt të quajtur Google Trends, i cili kishte shumë analitikë të avancuar dhe mësim makineri bazuar në të dhënat e motorit të kërkimit. Itai, bashkëthemeluesi tjetër dhe shefi i produktit, ishte në ekipin e Nemo në Google (dhe unë dhe ai u takuam përmes Nemo). Të dy ishin gjithmonë të frustruar që sistemet e drejtuara nga AI mbetën të pamonitoruara pas zhvillimit dhe testimit fillestar. Pavarësisht nga vështirësitë në testimin e duhur të këtyre sistemeve përpara prodhimit, ekipet ende nuk e dinin se sa mirë dolën modelet e tyre parashikuese me kalimin e kohës. Për më tepër, dukej se e vetmja herë që ata do të dëgjonin ndonjë reagim rreth sistemeve të AI ishte kur gjërat shkuan keq dhe ekipi i zhvillimit u thirr për një "stërvitje zjarri" për të rregulluar çështjet katastrofike.

Përafërsisht në të njëjtën kohë, unë isha një konsulent në McKinsey & Co, dhe një nga pengesat më të mëdha që pashë në shkallëzimin e programeve të AI dhe Big Data në ndërmarrjet e mëdha ishte mungesa e besimit që kishin palët e interesuara të biznesit në ato programe.

Fillimi i përbashkët këtu u bë i qartë për Nemo, Itai dhe mua në biseda. Industria kishte nevojë për infrastrukturën për të monitoruar sistemet AI/ML në prodhim. Ne dolëm me vizionin për të ofruar këtë dukshmëri për të rritur besimin e palëve të interesuara të biznesit dhe për t'u mundësuar ekipeve të AI që të kenë gjithmonë një kontroll se si po funksionojnë sistemet e tyre dhe të përsërisin në mënyrë më efikase.

Dhe atëherë u themelua Mona.

Cilat janë disa nga problemet aktuale me mungesën e transparencës së AI?

Në shumë industri, organizatat kanë shpenzuar tashmë dhjetëra miliona dollarë në programet e tyre të AI dhe kanë parë një sukses fillestar në laborator dhe në vendosje në shkallë të vogël. Por rritja, arritja e adoptimit të gjerë dhe mbështetja e biznesit në fakt te AI ka qenë një sfidë masive për pothuajse të gjithë.

Pse po ndodh kjo? Epo, fillon me faktin se kërkimi i madh nuk përkthehet automatikisht në produkte të shkëlqyera (Një klient na tha dikur, "Modelet ML janë si makinat, në momentin që dalin nga laboratori, humbasin 20% të vlerës së tyre"). Produktet e shkëlqyera kanë sisteme mbështetëse. Ekzistojnë mjete dhe procese për të siguruar që cilësia të jetë e qëndrueshme me kalimin e kohës dhe që çështjet të kapen herët dhe të adresohen me efikasitet. Produktet e shkëlqyera kanë gjithashtu një lak të vazhdueshëm reagimesh, ato kanë një cikël përmirësimi dhe një udhërrëfyes. Rrjedhimisht, produktet e shkëlqyera kërkojnë transparencë të thellë dhe të vazhdueshme të performancës.

Kur ka mungesë transparence, përfundoni me:

  • Çështjet që qëndrojnë të fshehura për ca kohë dhe më pas shpërthejnë në sipërfaqe duke shkaktuar “stërvitje zjarri”
  • Hetime dhe zbutje të gjata dhe manuale
  • Një program i AI që nuk besohet nga përdoruesit dhe sponsorët e biznesit dhe në fund nuk arrin të përshkallëzohet

Cilat janë disa nga sfidat pas bërjes së modeleve parashikuese transparente dhe të besueshme?

Transparenca është një faktor i rëndësishëm në arritjen e besimit, natyrisht. Transparenca mund të vijë në shumë forma. Ekziston një transparencë e vetme e parashikimit që mund të përfshijë shfaqjen e nivelit të besimit tek përdoruesi ose ofrimin e një shpjegimi/arsyetimi për parashikimin. Transparenca e një parashikimi të vetëm synon kryesisht të ndihmojë përdoruesin të qetësohet me parashikimin. Dhe pastaj, ka transparencë të përgjithshme e cila mund të përfshijë informacione rreth saktësisë parashikuese, rezultateve të papritura dhe çështjeve të mundshme. Transparenca e përgjithshme nevojitet nga ekipi i AI.

Pjesa më sfiduese e transparencës së përgjithshme është zbulimi i hershëm i çështjeve, duke paralajmëruar anëtarin përkatës të ekipit në mënyrë që ata të mund të ndërmarrin veprime korrigjuese përpara se të ndodhin katastrofa.

Pse është sfiduese zbulimi i hershëm i problemeve:

  • Çështjet shpesh fillojnë të vogla dhe ziejnë, përpara se të shpërthejnë përfundimisht në sipërfaqe.
  • Problemet shpesh fillojnë për shkak të faktorëve të pakontrollueshëm ose të jashtëm, siç janë burimet e të dhënave.
  • Ka shumë mënyra për të "ndarë botën" dhe kërkimi shterues i çështjeve në xhepa të vegjël mund të rezultojë në shumë zhurmë (lodhje vigjilent), të paktën kur kjo bëhet në një qasje naive.

Një aspekt tjetër sfidues i ofrimit të transparencës është përhapja e madhe e rasteve të përdorimit të AI. Kjo po e bën pothuajse të pamundur një qasje të vetme për të gjithë. Çdo rast përdorimi i AI mund të përfshijë struktura të ndryshme të dhënash, cikle të ndryshme biznesi, metrika të ndryshme suksesi dhe shpesh qasje të ndryshme teknike dhe madje edhe rafte.

Pra, është një detyrë monumentale, por transparenca është kaq thelbësore për suksesin e programeve të AI, kështu që ju duhet ta bëni atë.

A mund të ndani disa detaje mbi zgjidhjet për Modelet NLU / NLP dhe Chatbots?

Inteligjenca artificiale bashkëbiseduese është një nga pikat kryesore vertikale të Monës. Ne jemi krenarë që mbështesim kompanitë inovative me një gamë të gjerë rastesh të përdorimit të AI-së në bisedë, duke përfshirë modele gjuhësore, chatbot dhe më shumë.

Një faktor i zakonshëm në këto raste përdorimi është se modelet funksionojnë afër (dhe ndonjëherë në mënyrë të dukshme) me klientët, kështu që rreziqet e performancës së paqëndrueshme ose sjelljes së keqe janë më të larta. Është kaq e rëndësishme për ekipet e AI-së bashkëbiseduese që të kuptojnë sjelljen e sistemit në një nivel të grimcuar, që është një fushë e pikave të forta të zgjidhjes së monitorimit të Mona.

Ajo që bën zgjidhja e Monës, e cila është mjaft unike, është analizimi sistematik i grupeve të bisedave dhe gjetja e xhepave në të cilët modelet (ose robotët) sillen keq. Kjo u mundëson ekipeve biseduese të AI të identifikojnë problemet herët dhe përpara se klientët t'i vërejnë ato. Kjo aftësi është një shtytës vendimtar kritik për ekipet biseduese të AI kur zgjedhin zgjidhjet e monitorimit.

Për ta përmbledhur, Mona ofron një zgjidhje nga fundi në fund për monitorimin e AI bisedore. Fillon me sigurimin e një burimi të vetëm informacioni për sjelljen e sistemeve me kalimin e kohës dhe vazhdon me ndjekjen e vazhdueshme të treguesve kryesorë të performancës dhe njohuri proaktive rreth xhepave të sjelljes së keqe – duke u mundësuar ekipeve të marrin masa korrigjuese parandaluese dhe efikase.

A mund të ofroni disa detaje mbi motorin e zbulimit të Monës?

Sigurisht. Le të fillojmë me motivimin. Objektivi i motorit insight është të shfaqë anomali te përdoruesit, me sasinë e duhur të informacionit kontekstual dhe pa krijuar zhurmë ose pa çuar në lodhje të alarmit.

Motori insight është një rrjedhë pune analitike e veçantë. Në këtë rrjedhë pune, motori kërkon për anomali në të gjitha segmentet e të dhënave, duke lejuar zbulimin e hershëm të çështjeve kur ato janë ende "të vogla" dhe përpara se të prekin të gjithë grupin e të dhënave dhe KPI-të e biznesit në rrjedhën e poshtme. Më pas përdor një algoritëm të pronarit për të zbuluar shkaqet rrënjësore të anomalive dhe sigurohet që çdo anomali të sinjalizohet vetëm një herë në mënyrë që zhurma të shmanget. Llojet e anomalive të mbështetura përfshijnë: anomalitë e serive kohore, zhvendosjet, anët e jashtme, degradimi i modelit dhe më shumë.

Motori insight është shumë i personalizueshëm nëpërmjet konfigurimit intuitiv të Mona-s pa kod/kod të ulët. Konfigurueshmëria e motorit e bën Mona zgjidhjen më fleksibël në treg, duke mbuluar një gamë të gjerë rastesh përdorimi (p.sh., grup dhe transmetim, me/pa reagime biznesi / të vërteta tokësore, në të gjithë versionet e modelit ose midis trenit dhe konkluzioneve, dhe më shumë ).

Së fundi, ky motor pasqyrë mbështetet nga një panel vizualizimi, në të cilin mund të shikohen njohuritë, dhe një grup mjetesh hetimi për të mundësuar analizën e shkakut rrënjësor dhe eksplorimin e mëtejshëm të informacionit kontekstual. Motori insight është gjithashtu plotësisht i integruar me një motor njoftimi që mundëson dhënien e njohurive në mjediset e punës së vetë përdoruesve, duke përfshirë emailin, platformat e bashkëpunimit etj.

Më 31 janar, Mona zbuloi Zgjidhja e saj e re për drejtësinë e AI, a mund të ndani me ne detaje se çfarë është kjo veçori dhe pse ka rëndësi?

Drejtësia e AI ka të bëjë me sigurimin që algoritmet dhe sistemet e drejtuara nga AI në përgjithësi të marrin vendime të paanshme dhe të barabarta. Adresimi dhe parandalimi i paragjykimeve në sistemet e AI është thelbësor, pasi ato mund të rezultojnë në pasoja të rëndësishme në botën reale. Me rritjen e rëndësisë së AI, ndikimi në jetën e përditshme të njerëzve do të ishte i dukshëm në gjithnjë e më shumë vende, duke përfshirë automatizimin e drejtimit tonë, zbulimin më të saktë të sëmundjeve, përmirësimin e të kuptuarit tonë për botën dhe madje edhe krijimin e artit. Nëse nuk mund të besojmë se është e drejtë dhe e paanshme, si do ta lejonim që të vazhdojë të përhapet?

Një nga shkaqet kryesore të paragjykimeve në AI është thjesht aftësia e të dhënave të trajnimit të modeleve për të përfaqësuar plotësisht botën reale. Kjo mund të rrjedhë nga diskriminimi historik, nënpërfaqësimi i grupeve të caktuara, apo edhe manipulimi i qëllimshëm i të dhënave. Për shembull, një sistem i njohjes së fytyrës i trajnuar për individë kryesisht me lëkurë të çelur ka të ngjarë të ketë një shkallë më të lartë gabimi në njohjen e individëve me tone më të errëta të lëkurës. Në mënyrë të ngjashme, një model gjuhësor i trajnuar mbi të dhënat e tekstit nga një grup i ngushtë burimesh mund të zhvillojë paragjykime nëse të dhënat anojnë drejt pikëpamjeve të caktuara të botës, për tema të tilla si feja, kultura etj.

Zgjidhja e ndershmërisë së inteligjencës artificiale të Mona-s i jep AI dhe ekipeve të biznesit besimin se AI i tyre nuk ka paragjykime. Në sektorët e rregulluar, zgjidhja e Mona-s mund të përgatisë ekipe për gatishmërinë e pajtueshmërisë.

Zgjidhja e drejtësisë e Mona-s është e veçantë sepse qëndron në platformën Mona - një urë lidhëse midis të dhënave dhe modeleve të AI dhe implikimeve të tyre në botën reale. Mona shikon të gjitha pjesët e procesit të biznesit që modeli i AI shërben në prodhim, për të korreluar midis të dhënave të trajnimit, sjelljes së modelit dhe rezultateve aktuale të botës reale, në mënyrë që të sigurojë vlerësimin më të plotë të drejtësisë.

Së dyti, ai ka një motor analitik të një lloji që lejon segmentimin fleksibël të të dhënave për të kontrolluar parametrat përkatës. Kjo mundëson vlerësime të sakta të korrelacioneve në kontekstin e duhur, duke shmangur Paradoksin e Simpson dhe duke siguruar një "rezultat të paragjykimit" të thellë për çdo metrikë të performancës dhe për çdo veçori të mbrojtur.

Pra, në përgjithësi do të thosha se Mona është një element themelor për ekipet që kanë nevojë të ndërtojnë dhe shkallëzojnë AI të përgjegjshme.

Cili është vizioni juaj për të ardhmen e AI?

Kjo është një pyetje e madhe.

Mendoj se është e thjeshtë të parashikosh që AI do të vazhdojë të rritet në përdorim dhe ndikim në një sërë sektorësh të industrisë dhe aspekte të jetës së njerëzve. Sidoqoftë, është e vështirë të merret seriozisht një vizion që është i detajuar dhe në të njëjtën kohë përpiqet të mbulojë të gjitha rastet e përdorimit dhe implikimet e AI në të ardhmen. Sepse askush me të vërtetë nuk di mjaftueshëm për ta pikturuar atë pamje në mënyrë të besueshme.

Thënë kjo, ajo që dimë me siguri është se AI do të jetë në duart e më shumë njerëzve dhe do t'i shërbejë më shumë qëllimeve. Prandaj, nevoja për qeverisje dhe transparencë do të rritet ndjeshëm.

Dukshmëria reale e AI dhe mënyra se si funksionon do të luajë dy role kryesore. Së pari, do të ndihmojë në rrënjosjen e besimit te njerëzit dhe heqjen e barrierave të rezistencës për adoptim më të shpejtë. Së dyti, do të ndihmojë këdo që operon AI të sigurojë që ajo të mos dalë jashtë kontrollit.

Faleminderit për intervistën e mrekullueshme, lexuesit që dëshirojnë të mësojnë më shumë duhet ta vizitojnë Mona Labs.

Një partner themelues i unite.AI dhe një anëtar i Këshilli i Teknologjisë i Forbes, Antoine është një futurist i cili është i apasionuar pas të ardhmes së AI dhe robotikës.

Ai është gjithashtu Themeluesi i Letrat me vlerë.io, një faqe interneti që fokusohet në investimin në teknologjinë përçarëse.