никулец Јарон Сингер, извршен директор во Robust Intelligence и професор по компјутерски науки на Универзитетот Харвард - серија на интервјуа - Unite.AI
Поврзете се со нас

Интервјуа

Јарон Сингер, извршен директор во Robust Intelligence и професор по компјутерски науки на Универзитетот Харвард - серија на интервјуа

mm

Објавено

 on

Јарон Сингер е извршен директор на Цврста интелигенција и професор по компјутерски науки и применета математика на Харвард. Јарон е познат по пробивните резултати во машинското учење, алгоритмите и оптимизацијата. Претходно, Јарон работеше во Google Research и докторираше на Универзитетот во Беркли.

Што те привлече на почетокот на полето на компјутерски науки и машинско учење?

Моето патување започна со математика, која ме доведе до компјутерски науки, што ме постави на патот кон машинско учење. Математиката првично го привлече мојот интерес бидејќи нејзиниот аксиоматски систем ми даде способност да создавам нови светови. Со компјутерската наука научив за егзистенцијалните докази, но и за алгоритмите зад нив. Од креативна перспектива, компјутерската наука е цртање на границите помеѓу она што можеме и не можеме да го направиме.

Мојот интерес за машинско учење отсекогаш бил вкоренет во интересот за реални податоци, речиси физичкиот аспект од нив. Преземање работи од реалниот свет и нивно моделирање за да се направи нешто значајно. Ние буквално би можеле да создадеме подобар свет преку значајно моделирање. Така, математиката ми даде основа да ги докажам работите, компјутерската наука ми помага да видам што може и што не може да се направи, а машинското учење ми овозможува да ги моделирам овие концепти во светот.

До неодамна бевте професор по компјутерски науки и применета математика на Универзитетот Харвард, кои беа некои од вашите клучни резултати од ова искуство?

Мојата најголема предност од тоа да бидам член на факултет на Харвард е тоа што го развива нечиј апетит за правење големи работи. Харвард традиционално има мал факултет, а очекувањата од факултетот е да се справи со големите проблеми и да создаде нови полиња. Мора да бидете дрски. Ова завршува како одлична подготовка за лансирање на стартап кој создава категорија и дефинира нов простор. Не мора да препорачувам прво да ја поминете патеката за мандат на Харвард - но ако го преживеете тоа, полесно е да се изгради стартап.

Дали би можеле да го опишете вашиот „аха“ момент кога сфативте дека софистицираните системи со вештачка интелигенција се ранливи на лоши податоци, со некои потенцијално далекусежни импликации?

Кога бев дипломиран студент на УС Беркли, одвоив малку време за да направам стартап кој изгради модели за машинско учење за маркетинг на социјалните мрежи. Ова беше во 2010 година. Имавме огромни количини на податоци од социјалните медиуми и ги кодиравме сите модели од нула. Финансиските импликации за трговците на мало беа доста значајни, па внимателно ги следевме перформансите на моделите. Бидејќи користевме податоци од социјалните медиуми, имаше многу грешки во внесувањето, како и дрифт. Видовме дека многу мали грешки резултираа со големи промени во производството на моделот и може да резултираат со лоши финансиски резултати за трговците на мало што го користат производот.

Кога преминав во работа на Google+ (за оние од нас кои се сеќаваат), ги видов истите ефекти. Подраматично, во системите како AdWords кои правеа предвидувања за веројатноста луѓето да кликнат на реклама за клучни зборови, забележавме дека малите грешки во внесувањето на моделот доведуваат до многу лоши предвидувања. Кога ќе го видите овој проблем на скалата на Google, сфаќате дека проблемот е универзален.

Овие искуства во голема мера го обликуваа мојот фокус на истражување и го поминав своето време на Харвард истражувајќи зошто моделите со вештачка интелигенција прават грешки и, што е најважно, како да дизајнираат алгоритми кои можат да ги спречат моделите да прават грешки. Ова, се разбира, доведе до повеќе „аха“ моменти и, на крајот, до создавање на робусна интелигенција.

Можете ли да ја споделите приказната за генезата зад робусната интелигенција?

Robust Intelligence започна со истражување за тоа што првично беше теоретски проблем: кои се гаранциите што можеме да ги имаме за одлуките донесени со помош на модели на вештачка интелигенција. Којин беше студент на Харвард и работевме заедно, првично пишувајќи истражувачки трудови. Значи, се започнува со пишување трудови кои го прикажуваат она што е фундаментално можно и невозможно, теоретски. Овие резултати подоцна продолжија во програма за дизајнирање алгоритми и модели кои се цврсти за неуспеси со вештачка интелигенција. Потоа градиме системи кои можат да ги извршуваат овие алгоритми во пракса. После тоа, основањето компанија каде што организациите би можеле да користат систем како овој беше природен следен чекор.

Многу од прашањата со кои се справува Robust Intelligence се тивки грешки, што се тие и што ги прави толку опасни?

Пред да дадете техничка дефиниција за тивки грешки, вреди да се направи чекор наназад и да се разбере зошто на прво место треба да се грижиме дали вештачката интелигенција прави грешки. Причината поради која се грижиме моделите со вештачка интелигенција да прават грешки се последиците од овие грешки. Нашиот свет користи вештачка интелигенција за автоматизирање на клучните одлуки: кој добива деловен заем и со која каматна стапка, кој добива здравствено осигурување и по која стапка, во кои населби треба да патролира полицијата, кој најверојатно ќе биде главен кандидат за работа, како треба да го организираме аеродромското обезбедување итн. Фактот дека моделите со вештачка интелигенција се екстремно склони кон грешки значи дека при автоматизирањето на овие критични одлуки наследуваме голем ризик. Во Robust Intelligence ова го нарекуваме „AI Risk“ и нашата мисија во компанијата е да го елиминираме ризикот од AI.

Тивките грешки се грешки на моделите на вештачка интелигенција каде што моделот со вештачка интелигенција добива влез и произведува предвидување или одлука што е погрешна или пристрасна како излез. Значи, на површината, сè за системот изгледа во ред, со тоа што моделот со вештачка интелигенција го прави она што треба да го направи од функционална перспектива. Но, предвидувањето или одлуката е погрешна. Овие грешки се тивки бидејќи системот не знае дека има грешка. Ова може да биде многу полошо од случајот во кој модел на вештачка интелигенција не произведува резултат, бидејќи може да потрае долго време за организациите да сфатат дека нивниот систем за вештачка интелигенција е неисправен. Потоа, ризикот од вештачка интелигенција станува неуспех на вештачка интелигенција што може да има страшни последици.

Robust Intelligence во суштина дизајнираше заштитен ѕид со вештачка интелигенција, идеја која претходно се сметаше за невозможна. Зошто е ова толку технички предизвик?

Една од причините зошто заштитниот ѕид на вештачката интелигенција е таков предизвик е затоа што се спротивставува на парадигмата што ја имаше ML заедницата. Претходната парадигма на ML заедницата беше дека за да се искорени грешките, треба да се напојуваат повеќе податоци, вклучувајќи лоши податоци за моделите. Со тоа манекенките ќе се обучуваат и ќе научат како сами да ги поправаат грешките. Проблемот со тој пристап е што предизвикува драстично опаѓање на точноста на моделот. Најпознатите резултати за слики, на пример, предизвикуваат пад на точноста на моделот со вештачка интелигенција од 98.5% на околу 37%.

Заштитниот ѕид со вештачка интелигенција нуди поинакво решение. Ние го раздвојуваме проблемот на идентификување грешка од улогата на создавање предвидување, што значи дека заштитниот ѕид може да се фокусира на една специфична задача: да одреди дали точката на податоци ќе произведе погрешно предвидување.

Ова беше предизвик само по себе поради тешкотијата да се даде предвидување за една точка на податоци. Постојат многу причини зошто моделите прават грешки, така што изградбата на технологија која може да ги предвиди овие грешки не беше лесна задача. Ние сме многу среќни што ги имаме инженерите што ги имаме.

Како може системот да помогне да се спречи пристрасноста на вештачката интелигенција?

Пристрасноста на моделот доаѓа од несовпаѓање помеѓу податоците за кои е обучен моделот и податоците што ги користи за да прави предвидувања. Ако се вратиме на ризикот од вештачка интелигенција, пристрасноста е главно прашање кое се припишува на тивките грешки. На пример, ова е често проблем со недоволно застапената популација. Моделот може да има пристрасност затоа што видел помалку податоци од таа популација, што драматично ќе влијае на перформансите на тој модел и на точноста на неговите предвидувања. Заштитниот ѕид на вештачката интелигенција може да ги предупреди организациите за овие несовпаѓања на податоците и да му помогне на моделот да донесе правилни одлуки.

Кои се некои од другите ризици за организациите што заштитниот ѕид на ВИ помага да се спречат?

Секоја компанија која користи вештачка интелигенција за автоматизирање на одлуките, особено критичните одлуки, автоматски воведува ризик. Лошите податоци може да бидат исто толку мали како внесување нула наместо една и сепак да резултираат со значителни последици. Без разлика дали ризикот се неточни медицински предвидувања или лажни предвидувања за заемите, AI Firewall им помага на организациите целосно да го спречат ризикот.

Дали има нешто друго што би сакале да споделите за Робустната интелигенција?

Робустната интелигенција рапидно расте и добиваме многу одлични кандидати кои аплицираат за позиции. Но, нешто што навистина сакам да го нагласам за луѓето кои размислуваат да аплицираат е дека најважниот квалитет што го бараме кај кандидатите е нивната страст за мисијата. Ќе сретнеме многу кандидати кои се силни технички, така што навистина се сведува на разбирање дали тие се навистина страсни за елиминирање на ризикот од вештачка интелигенција за да го направат светот побезбедно и подобро место.

Во светот кон кој одиме, многу одлуки што во моментов ги носат луѓето ќе бидат автоматизирани. Сакале или не, тоа е факт. Со оглед на тоа, сите ние во Robust Intelligence сакаме автоматизираните одлуки да се носат одговорно. Значи, секој кој е возбуден да има влијание, кој го разбира начинот на кој тоа може да влијае на животите на луѓето, е кандидат што го бараме за да се приклучи на Robust Intelligence. Ние ја бараме таа страст. Ги бараме луѓето кои ќе ја создадат оваа технологија што ќе ја користи целиот свет.

Ви благодарам за одличното интервју, уживав да дознаам за вашите ставови за спречување на пристрасност на вештачката интелигенција и за потребата од заштитен ѕид за вештачка интелигенција, читателите кои сакаат да дознаат повеќе треба да ги посетат Цврста интелигенција.

Основачки партнер на unite.AI и член на Технолошкиот совет на Форбс, Антоан е а футуристички кој е страстен за иднината на вештачката интелигенција и роботиката.

Тој е и основач на Хартии од вредност.io, веб-страница која се фокусира на инвестирање во непушачка технологија.