стуб Иотам Орен, извршни директор и суоснивач Мона Лабс - Серија интервјуа - Уните.АИ
Повежите се са нама

Интервјуи

Иотам Орен, извршни директор и суоснивач Мона Лабс – серија интервјуа

mm

објављен

 on

Иотам Орен, је извршни директор и суоснивач Мона Лабс, платформа која омогућава предузећима да трансформишу АИ иницијативе из лабораторијских експеримената у скалабилне пословне операције истинским разумевањем како се модели МЛ понашају у стварним пословним процесима и апликацијама.

Мона аутоматски анализира понашање ваших модела машинског учења у заштићеним сегментима података иу контексту пословних функција, како би открила потенцијалну пристрасност АИ. Мона нуди могућност генерисања комплетних извештаја о праведности који испуњавају индустријске стандарде и прописе, и нуди поверење да је АИ апликација усаглашена и без било какве пристрасности.

Шта вас је на почетку привукло информатици?

Рачунарство је популаран пут у каријери у мојој породици, тако да је увек био у позадини као одржива опција. Наравно, израелска култура је веома про-технолошка. Славимо иновативне технологе и увек сам имао перцепцију да ће ми ЦС понудити писту за раст и достигнућа.

Упркос томе, то је постала лична страст тек када сам стигао на факултет. Нисам био од оних клинаца који су почели да кодирају у средњој школи. У младости сам био превише заузет кошарком да бих обраћао пажњу на компјутере. После средње школе, провео сам близу 5 година у војсци, на позицијама оперативног/борбеног руководства. Тако сам, на неки начин, заиста почео да учим више о информатици тек када сам морао да одаберем академски смер на универзитету. Оно што ми је одмах привукло пажњу је то што је рачунарство комбиновало решавање проблема и учење језика (или језика). Две ствари које су ме посебно занимале. Од тада сам био завучен.

Од 2006. до 2008. радили сте на мапирању и навигацији за мали стартап, који су били неки од ваших кључних закључака из ове ере?

Моја улога у Телмапу била је прављење претраживача на врху података о мапи и локацији.

То су били врло рани дани „великих података“ у предузећу. Нисмо то чак ни назвали тако, али смо прикупљали огромне скупове података и покушавали да извучемо најупечатљивије и најрелевантније увиде како бисмо их представили нашим крајњим корисницима.

Једно од упадљивих спознаја које сам имао било је да компаније (укључујући и нас) користе тако мало својих података (да не спомињемо јавно доступне екстерне податке). Било је толико потенцијала за нове увиде, боље процесе и искуства.

Други закључак је да се могућност добијања више наших података ослања, наравно, на бољу архитектуру, бољу инфраструктуру и тако даље.

Можете ли поделити причу о настанку иза Мона Лабс?

Нас троје, суоснивачи, били смо око производа са подацима током наше каријере.

Немо, главни технолошки директор, мој је пријатељ и колега са факултета и један од првих запослених у Гуглу у Тел Авиву. Тамо је покренуо производ под називом Гоогле Трендс, који је имао много напредне аналитике и машинског учења заснованог на подацима претраживача. Итаи, други суоснивач и директор производа, био је у Немовом тиму у Гуглу (и он и ја смо се упознали преко Нема). Њих двоје су увек били фрустрирани што су системи вођени вештачком интелигенцијом остали ненадгледани након почетног развоја и тестирања. Упркос потешкоћама у правилном тестирању ових система пре производње, тимови још увек нису знали колико су њихови предиктивни модели током времена радили. Поред тога, чинило се да је једини пут када су чули било какву повратну информацију о системима вештачке интелигенције када су ствари ишле лоше и развојни тим је позван на „ватрогасну вежбу“ како би се решили катастрофални проблеми.

Отприлике у исто време, био сам консултант у компанији МцКинсеи & Цо, а једна од највећих препрека које сам видео за АИ и Биг Дата програме у великим предузећима био је недостатак поверења које су пословни актери имали у те програме.

Заједничка нит овде је постала јасна Нему, Итаију и мени у разговорима. Индустрији је била потребна инфраструктура за праћење АИ/МЛ система у производњи. Осмислили смо визију да обезбедимо ову видљивост како бисмо повећали поверење пословних актера и омогућили тимовима АИ да увек контролишу како њихови системи раде и да ефикасније раде.

И тада је основана Мона.

Који су неки од тренутних проблема са недостатком транспарентности АИ?

У многим индустријама, организације су већ потрошиле десетине милиона долара у своје програме вештачке интелигенције и виделе су почетни успех у лабораторији и у примени малих размера. Али повећање, постизање широког усвајања и навођење пословања да се заиста ослања на АИ је огроман изазов за скоро све.

Зашто се ово дешава? Па, почиње са чињеницом да се велико истраживање не преводи аутоматски у одличне производе (муштерија нам је једном рекла: „МЛ модели су као аутомобили, у тренутку када напусте лабораторију, губе 20% своје вредности“). Одлични производи имају системе подршке. Постоје алати и процеси који осигуравају да се квалитет одржи током времена и да се проблеми рано открију и ефикасно ријеше. Одлични производи такође имају континуирану петљу повратних информација, имају циклус побољшања и мапу пута. Сходно томе, одлични производи захтевају дубоку и сталну транспарентност перформанси.

Када постоји недостатак транспарентности, на крају имате:

  • Проблеми који остају скривени неко време, а затим избијају на површину изазивајући „ватрогасне вежбе“
  • Дуге и ручне истраге и ублажавања
  • АИ програм коме пословни корисници и спонзори не верују и који на крају не успева да се прошири

Који су неки од изазова који стоје иза тога да се предиктивни модели постану транспарентни и поуздани?

Транспарентност је, наравно, важан фактор у постизању поверења. Транспарентност може доћи у много облика. Постоји јединствена транспарентност предвиђања која може укључивати приказивање нивоа поверења кориснику или давање објашњења/образложења за предвиђање. Транспарентност појединачног предвиђања углавном има за циљ да помогне кориснику да се угоде са предвиђањем. А затим, постоји општа транспарентност која може укључивати информације о прецизности предвиђања, неочекиваним резултатима и потенцијалним проблемима. Тиму за вештачку интелигенцију потребна је општа транспарентност.

Најизазовнији део укупне транспарентности је рано откривање проблема, упозоравање релевантног члана тима како би могли да предузму корективне мере пре него што дође до катастрофе.

Зашто је тешко рано открити проблеме:

  • Проблеми често почињу мали и кључају, пре него што на крају избију на површину.
  • Проблеми често почињу због неконтролисаних или спољних фактора, као што су извори података.
  • Постоји много начина да се „подели свет“ и исцрпно тражење проблема у малим џеповима може довести до велике буке (замора упозорења), барем када се то ради наивним приступом.

Још један изазован аспект обезбеђивања транспарентности је пука пролиферација случајева употребе вештачке интелигенције. Ово чини приступ који одговара свима готово немогућим. Сваки случај употребе вештачке интелигенције може укључивати различите структуре података, различите пословне циклусе, различите метрике успеха и често различите техничке приступе, па чак и стекове.

Дакле, то је монументалан задатак, али транспарентност је толико фундаментална за успех АИ програма, тако да то морате да урадите.

Можете ли да поделите неке детаље о решењима за НЛУ / НЛП моделе и четботе?

Конверзациона АИ је једна од Мониних основних вертикала. Поносни смо што подржавамо иновативне компаније са широким спектром конверзацијских случајева употребе вештачке интелигенције, укључујући језичке моделе, цхат ботове и још много тога.

Уобичајени фактор у овим случајевима употребе је да модели раде близу (а понекад и видљиво) клијентима, тако да су ризици недоследних перформанси или лошег понашања већи. За разговорне АИ тимове постаје толико важно да разумеју понашање система на грануларном нивоу, што је област предности Мониног решења за праћење.

Оно што Монино решење ради које је прилично јединствено је систематско филтрирање група разговора и проналажење џепова у којима се модели (или ботови) лоше понашају. Ово омогућава конверзацијским АИ тимовима да рано идентификују проблеме и пре него што их купци примете. Ова могућност је критична покретачка сила за доношење одлука за разговорне АИ тимове када бирају решења за праћење.

Да сумирамо, Мона пружа решење од краја до краја за конверзацијско праћење АИ. Почиње са обезбеђивањем да постоји један извор информација о понашању система током времена, а наставља се са сталним праћењем кључних индикатора учинка и проактивним увидом у џепове лошег понашања – омогућавајући тимовима да предузму превентивне, ефикасне корективне мере.

Можете ли понудити неке детаље о Монином инсигхт енгине-у?

Наравно. Почнимо са мотивацијом. Циљ инсигхт енгине-а је да открије аномалије корисницима, са правом количином контекстуалних информација и без стварања буке или замора упозорења.

Механизам увида је јединствени аналитички радни ток. У овом току рада, машина тражи аномалије у свим сегментима података, омогућавајући рано откривање проблема када су још увек „мали“, а пре него што утичу на цео скуп података и низводне пословне КПИ. Затим користи власнички алгоритам за откривање основних узрока аномалија и осигурава да је свака аномалија упозорена само једном тако да се избегне бука. Подржани типови аномалија укључују: аномалије временских серија, помаке, одступања, деградацију модела и још много тога.

Инсигхт енгине је веома прилагодљив преко Монине интуитивне конфигурације без кода/ниског кода. Конфигурабилност мотора чини Мона најфлексибилнијим решењем на тржишту, покривајући широк спектар случајева употребе (нпр. групни и стриминг, са/без пословне повратне информације/истине, у различитим верзијама модела или између воза и закључивања, и више ).

Коначно, овај механизам за увид је подржан контролном таблом за визуелизацију, на којој се могу видети увиди, и скупом алата за истраживање који омогућавају анализу основног узрока и даље истраживање контекстуалних информација. Механизам увида је такође потпуно интегрисан са механизмом за обавештења који омогућава увид у радна окружења корисника, укључујући е-пошту, платформе за сарадњу и тако даље.

31. јануара, Мона открила његово ново решење за правичност вештачке интелигенције, да ли бисте могли да поделите са нама детаље о томе шта је ова функција и зашто је важна?

Праведност вештачке интелигенције се односи на обезбеђивање да алгоритми и системи вођени вештачком интелигенцијом уопштено доносе непристрасне и правичне одлуке. Решавање и спречавање пристрасности у системима вештачке интелигенције је од кључног значаја, јер могу довести до значајних последица у стварном свету. Уз све већу важност АИ, утицај на свакодневни живот људи би био видљив на све више места, укључујући аутоматизацију наше вожње, прецизније откривање болести, побољшање нашег разумевања света, па чак и стварање уметности. Ако не можемо да верујемо да је поштено и непристрасно, како бисмо дозволили да се даље шири?

Један од главних узрока пристрасности у АИ је једноставно способност података о обуци модела да у потпуности представљају стварни свет. Ово може проистећи из историјске дискриминације, недовољне заступљености одређених група, или чак намерне манипулације подацима. На пример, систем за препознавање лица обучен за особе са претежно светлом кожом вероватно ће имати већу стопу грешке у препознавању особа са тамнијим тоновима коже. Слично томе, језички модел обучен на текстуалним подацима из уског скупа извора може развити пристрасност ако су подаци нагнути према одређеним погледима на свет, о темама као што су религија, култура и тако даље.

Монино решење за правичност вештачке интелигенције даје АИ и пословним тимовима поверење да је њихова вештачка интелигенција без пристрасности. У регулисаним секторима, Монино решење може припремити тимове за спремност за усклађеност.

Монино решење за правичност је посебно јер се налази на Мона платформи – мосту између АИ података и модела и њихових импликација у стварном свету. Мона разматра све делове пословног процеса којима АИ модел служи у производњи, како би повезао податке о обуци, понашање модела и стварне резултате у стварном свету како би пружио најсвеобухватнију процену правичности.

Друго, има јединствени аналитички механизам који омогућава флексибилну сегментацију података ради контроле релевантних параметара. Ово омогућава тачне процене корелација у правом контексту, избегавајући Симпсонов парадокс и пружајући дубоку стварну „оцену пристрасности“ за било коју метрику перформанси и за било коју заштићену функцију.

Дакле, генерално бих рекао да је Мона основни елемент за тимове који треба да изграде и скалирају одговорну вештачку интелигенцију.

Која је ваша визија будућности АИ?

Ово је велико питање.

Мислим да је једноставно предвидети да ће АИ наставити да расте у употреби и утицају на различите индустријске секторе и аспекте живота људи. Међутим, тешко је озбиљно схватити визију која је детаљна и која у исто време покушава да покрије све случајеве употребе и импликације АИ у будућности. Зато што нико заиста не зна довољно да би веродостојно насликао ту слику.

С обзиром на то, оно што сигурно знамо је да ће АИ бити у рукама више људи и служити више сврха. Стога ће се потреба за управљањем и транспарентношћу значајно повећати.

Права видљивост АИ и начина на који она функционише играће две примарне улоге. Прво, то ће помоћи да се усађује поверење у људе и подигну баријере отпора ради бржег усвајања. Друго, помоћи ће ономе ко управља вештачком интелигенцијом да осигура да она не измиче контроли.

Хвала вам на одличном интервјуу, читаоци који желе да сазнају више треба да посете Мона Лабс.

Оснивачки партнер уните.АИ и члан Форбсов технолошки савет, Антоан је а футуристички који је страствен за будућност вештачке интелигенције и роботике.

Такође је оснивач Сецуритиес.ио, веб локација која се фокусира на улагање у дисруптивну технологију.