кочан Проучване показва, че AI моделите не отговарят на човешката визуална обработка – Unite.AI
Свържете се с нас

Изкуствен интелект

Проучване показва, че AI моделите не съответстват на човешката визуална обработка

Публикуван

 on

Ново проучване от Йоркския университет показва, че дълбоките конволюционни невронни мрежи (DCNN) не съответстват на човешката визуална обработка чрез използване на конфигурационно възприемане на формата. Според професор Джеймс Елдър, съавтор на изследването, това може да има сериозни и опасни последици в реалния свят за приложенията на ИИ. 

Новото проучване, озаглавено „Моделите за задълбочено обучение не успяват да уловят конфигурационния характер на възприемането на човешката форма” е публикувано в списание Cell Press iScience. 

Това беше съвместно проучване на Елдър, който заема Йоркската изследователска катедра по човешко и компютърно зрение, както и позицията на съдиректор на Йоркския център за изкуствен интелект и общество, и професор Никълъс Бейкър, който е асистент професор по психология и бивш VISTA постдокторант в Йорк.

Нови визуални стимули „Франкенщайн“ 

Екипът разчита на нови визуални стимули, наричани „Франкенщайн“, които им помагат да изследват как човешкият мозък и DCNN обработват холистични, конфигурирани свойства на обекта. 

„Франкенщайн са просто обекти, които са били разглобени и сглобени обратно по грешния начин“, казва Елдър. „В резултат на това те имат всички правилни местни характеристики, но на грешните места.“ 

Проучването установи, че DCNN не се бъркат от Франкенщайн, както е човешката зрителна система. Това разкрива нечувствителност към конфигурираните свойства на обекта. 

„Нашите резултати обясняват защо дълбоките AI модели се провалят при определени условия и сочат необходимостта да се обмислят задачи извън разпознаването на обекти, за да се разбере визуалната обработка в мозъка“, продължава Елдър. „Тези дълбоки модели са склонни да използват „преки пътища“, когато решават сложни задачи за разпознаване. Въпреки че тези преки пътища може да работят в много случаи, те могат да бъдат опасни в някои от реалните AI приложения, върху които в момента работим с нашите индустриални и правителствени партньори.

Изображение: Йоркски университет

Последици от реалния свят

Елдър казва, че едно от тези приложения са системите за видео безопасност на трафика. 

„Обектите в натоварена пътна сцена – превозни средства, велосипеди и пешеходци – се препречват един друг и пристигат в очите на водача като смесица от несвързани фрагменти“, казва той. „Мозъкът трябва да групира правилно тези фрагменти, за да идентифицира правилните категории и местоположения на обектите. Система с изкуствен интелект за наблюдение на безопасността на движението, която е в състояние да възприема само фрагментите поотделно, ще се провали в тази задача, потенциално неразбирайки рисковете за уязвимите участници в движението. 

Изследователите също така казват, че модификациите на обучението и архитектурата, целящи да направят мрежите по-мозъчни, не са постигнали конфигурационна обработка. Нито една от мрежите не може точно да предскаже преценките за човешки обекти опит по опит. 

„Спекулираме, че за да отговарят на човешката конфигурационна чувствителност, мрежите трябва да бъдат обучени да решават по-широк набор от обектни задачи извън разпознаването на категории“, заключава Елдър

Алекс Макфарланд е AI журналист и писател, изследващ най-новите разработки в областта на изкуствения интелект. Той е сътрудничил с множество стартиращи фирми и публикации в областта на изкуствения интелект по целия свят.