стуб Истраживачки тим МИТ-а дизајнира АИ мрежу да се одупре супарничким примерима - Уните.АИ
Повежите се са нама

Вештачка интелигенција

Истраживачки тим МИТ-а дизајнира АИ мрежу да се одупре супарничким примерима

mm

објављен

 on

Тим истраживача са МИТ хкао развијен алгоритам за дубоко учење намењено да помогне вештачкој интелигенцији да се носи са „супарничким“ примерима, који могу да доведу до тога да вештачка интелигенција направи погрешна предвиђања и изврши погрешне радње. Алгоритам који је дизајнирао МИТ тим може помоћи системима вештачке интелигенције да одрже своју тачност и избегну грешке када се суоче са збуњујућим подацима.

Системи вештачке интелигенције анализирају улазне карактеристике догађаја да би одлучили како да реагују на тај догађај. АИ одговорна за маневрисање аутономним возилом мора да узме податке са камера возила и одлучи шта да ради на основу података садржаних у тим сликама. Међутим, постоји шанса да подаци о слици које анализира АИ нису тачан приказ стварног света. Грешка у систему камере могла би да промени неке од пиксела, што би довело до тога да АИ извуче погрешне закључке о одговарајућем току акције.

„Супарнички улази“ су попут оптичких илузија за АИ систем. Они су улази који збуњују АИ у неком облику. Конкурентни улази могу бити направљени са експлицитним циљем да се АИ направи грешке, представљањем података на начин који чини да АИ верује да је садржај примера једно уместо другог. На пример, могуће је створити супротстављени пример за систем компјутерског вида тако што ћете направити мале измене на сликама мачака, што доводи до тога да АИ погрешно класификује слике као компјутерске мониторе. Истраживачки тим МИТ-а дизајнирао је алгоритам који ће помоћи у заштити од супротстављених примера тако што је дозволио моделу да задржи степен „скептицизма“ у вези са инпутима које прима.

Истраживачи са МИТ-а су свој приступ назвали „Сертификована отпорност на супарничку снагу за учење дубоког појачања“ или ЦАРРЛ. ЦАРРЛ се састоји од мреже за учење појачања и традиционалне дубоке неуронске мреже спојене заједно. Учење са појачањем користи концепт „награде“ за обуку модела, дајући моделу пропорционално већу награду што је ближе постизању циља. Модел учења са појачањем се користи за обуку Дееп К-Нетовркк, или ДКН. ДКН-ови функционишу као традиционалне неуронске мреже, али такође повезују улазне вредности са нивоом награде, слично као системи за учење са појачањем.

ЦАРРЛ ради тако што моделира низ различитих могућих вредности за улазне податке.

Под претпоставком да АИ покушава да прати позицију тачке унутар веће слике, АИ сматра да би позиција тачке могла бити резултат супротстављеног утицаја и разматра регионе у којима би тачка могла бити уместо тога. Мрежа тада доноси одлуке на основу најгорег сценарија за позицију тачке, одлучујући се за акцију која би произвела највећу награду у овом најгорем сценарију.

Типичан метод заштите од супротстављених примера укључује покретање мало измењених верзија улазне слике кроз АИ мрежу да би се видело да ли се увек доноси иста одлука. Ако измене слике не утичу драматично на исход, постоји велика шанса да је мрежа отпорна на супротстављене примере. Међутим, ово није одржива стратегија за сценарије у којима треба доносити брзе одлуке, јер су то временски интензивне, рачунарски скупе методе тестирања. Из тог разлога, тим МИТ-а је кренуо да креира неуронску мрежу која би могла да доноси одлуке на основу претпоставки најгорег случаја, способну да функционише у сценаријима где је безбедност критична.

Истраживачи са МИТ-а тестирали су своје алгоритме тако што су вештачку интелигенцију играли понг. Укључили су супротстављене примере тако што су хранили АИ инстанце у којима је лопта била приказана мало даље на екрану него што је заправо била. Како је утицај супротстављених примера растао, стандардне корективне технике су почеле да не успевају док је ЦАРРЛ могао да добије више партија у поређењу. ЦАРРЛ је такође тестиран на задатку избегавања судара. Задатак се одвијао у виртуелном окружењу где су два различита агента покушала да замене позиције без да се сударају. Истраживачки тим је променио перцепцију првог агента о другом агенту и ЦАРРЛ је успео да успешно усмери првог агента око другог агента, чак иу условима велике неизвесности, иако је дошло до тачке у којој је ЦАРРЛ постао превише опрезан и на крају је избегао своје одредиште у целини.

Без обзира на то, постдок одељења за аеронаутику и астронаутику МИТ-а Мицхаел Еверетт, који је водио студију, објаснио је да би истраживање могло имати импликације на способност робота да се носе са непредвидивим ситуацијама. Као што је Еверет објаснио преко МИТ Невс:

„Људи могу бити супротстављени, као што је излазак испред робота да блокира његове сензоре, или интеракција са њима, не нужно у најбољим намерама“, каже Еверет. „Како робот може да смисли све ствари које људи могу да покушају да ураде и покушају да их избегну? Од каквих супротстављених модела желимо да се бранимо? То је нешто о чему размишљамо како да урадимо.”