стуб Тим развија приступ за поређење неуронских мрежа - Уните.АИ
Повежите се са нама

Вештачка интелигенција

Тим развија приступ за поређење неуронских мрежа

објављен

 on

Тим истраживача у Националној лабораторији Лос Аламос развио је нови приступ за поређење неуронских мрежа. Према тиму, овај нови приступ изгледа унутар „црне кутије“ вештачке интелигенције (АИ) и помаже им да разумеју понашање неуронске мреже. Неуронске мреже, које препознају обрасце унутар скупова података, користе се за широк спектар апликација као што су системи за препознавање лица и аутономна возила. 

Тим је представио свој рад, „Ако сте обучили једног, обучили сте их све: међуархитектурна сличност се повећава са робусношћу“, на Конференцији о неизвесности у вештачкој интелигенцији. 

Хаидн Јонес је истраживач у групи за напредна истраживања у сајбер системима у Лос Аламосу и главни аутор истраживачког рада. 

Боље разумевање неуронских мрежа 

„Заједница истраживања вештачке интелигенције не мора нужно да има потпуно разумевање шта неуронске мреже раде; дају нам добре резултате, али не знамо како и зашто“, рекао је Џонс. „Наш нови метод ради бољи посао у поређењу неуронских мрежа, што је кључни корак ка бољем разумевању математике која стоји иза АИ. 

Ново истраживање ће такође играти улогу у помагању стручњацима да разумеју понашање робусних неуронских мрежа. 

Иако су неуронске мреже високих перформанси, оне су такође крхке. Мале промене услова, као што је делимично прекривен знак за заустављање који обрађује аутономно возило, могу довести до тога да неуронска мрежа погрешно идентификује знак. То значи да се можда никада неће зауставити, што се може показати опасним. 

Адверсариал Траининг Неурал Нетворкс

Истраживачи су покушали да побољшају ове врсте неуронских мрежа гледајући начине да побољшају робусност мреже. Један од приступа укључује „напад“ на мреже током њиховог процеса обуке, где истраживачи намерно уводе аберације док обучавају АИ да их игнорише. Процес, који се назива контрадикторна обука, отежава заваравање мрежа. 

Тим је применио нову метрику мрежне сличности на супротстављено обучене неуронске мреже. Изненадили су се када су открили да контрадикторна обука узрокује да се неуронске мреже у домену компјутерског вида конвергирају са сличним приказима података, без обзира на архитектуру мреже, како се величина напада повећава. 

„Открили смо да када обучавамо неуронске мреже да буду отпорне на непријатељске нападе, оне почињу да раде исте ствари“, рекао је Џонс. 

Ово није први пут да стручњаци траже савршену архитектуру за неуронске мреже. Међутим, нова открића показују да увођење контрадикторне обуке значајно затвара јаз, што значи да истраживачка заједница вештачке интелигенције можда неће морати да истражује толико нових архитектура пошто је сада познато да супротстављена обука доводи до тога да се различите архитектуре приближавају сличним решењима. 

„Откривши да су робусне неуронске мреже сличне једна другој, олакшавамо разумевање како робусна вештачка интелигенција заиста може да функционише“, рекао је Џонс. „Можда ћемо чак открити наговештаје о томе како се перцепција јавља код људи и других животиња.

Алекс МекФарленд је новинар и писац вештачке интелигенције који истражује најновија достигнућа у вештачкој интелигенцији. Сарађивао је са бројним АИ стартаповима и публикацијама широм света.