кочан Често срещаните предположения относно неизправностите в машинното обучение може да са погрешни - Unite.AI
Свържете се с нас

Изкуствен интелект

Често срещаните предположения за неизправности в машинното обучение може да са погрешни

Обновено on

Дълбоките невронни мрежи са един от най-фундаменталните аспекти на изкуствения интелект (AI), тъй като се използват за обработка на изображения и данни чрез математическо моделиране. Те са отговорни за някои от най-големите постижения в областта, но също така не функционират по различни начини. Тези неизправности могат да имат или малко до несъществуващо въздействие, като просто погрешно идентифициране, до по-драматично и смъртоносно, като неизправност при самостоятелно управление.

Ново изследване, проведено от Университета в Хюстън, предполага, че нашите общи предположения за тези неизправности може да са погрешни, което може да помогне за оценка на надеждността на мрежите в бъдеще.

Документът е публикуван в Интелигентност на машината на природата през ноември.

„Състезателни примери“

Машинното обучение и други видове AI са от решаващо значение в много сектори и задачи, като банкови системи и системи за киберсигурност. Според Камерън Бъкнър, доцент по философия в UH, трябва да има разбиране за провалите, причинени от „противнически примери“. Тези противопоставящи се примери възникват, когато дълбока невронна мрежова система преценява погрешно изображения и други данни, когато попадне на информация извън входните данни за обучение, използвани за разработване на мрежата.

Съперническите примери са редки, тъй като много пъти са създадени или открити от друга мрежа за машинно обучение.

„Някои от тези състезателни събития биха могли вместо това да бъдат артефакти и трябва да знаем по-добре какви са те, за да знаем колко надеждни са тези мрежи“, пише Бъкнър.

Бъкнър казва, че неизправността може да бъде причинена от взаимодействието между действителните включени модели и това, което мрежата възнамерява да обработи, което означава, че не е пълна грешка.

Моделите като артефакти

„Разбирането на последиците от състезателните примери изисква изследване на трета възможност: че поне някои от тези модели са артефакти“, каза Бъкнър. „По този начин в момента има както разходи за простото изхвърляне на тези модели, така и опасности при наивното им използване.“

Въпреки че не е така през цялото време, умишлените злоупотреби са най-високият риск по отношение на тези противопоставящи се събития, причиняващи неизправности в машинното обучение.

„Това означава, че злонамерени участници могат да заблудят системи, които разчитат на иначе надеждна мрежа“, каза Бъкнър. „Това има приложения за сигурност.“

Това може да са хакери, които нарушават система за сигурност, базирана на технология за разпознаване на лица, или неправилно обозначени пътни знаци, за да объркат автономните превозни средства.

Други предишни изследвания показаха, че някои от състезателните примери се срещат естествено, когато система за машинно обучение интерпретира погрешно данни чрез непредвидено взаимодействие, което е различно от това чрез грешки в данните. Тези естествено срещащи се примери са редки и единственият настоящ начин да ги откриете е чрез AI.

Бъкнър обаче казва, че изследователите трябва да преосмислят начините, по които се справят с аномалиите.

Тези аномалии или артефакти са обяснени от Бъкнър чрез аналогията с отблясъка на обектива в снимка, който не е причинен от дефект в обектива на камерата, а по-скоро от взаимодействието на светлината с камерата.

Ако човек знае как да интерпретира усещането на обектива, може да бъде извлечена важна информация като местоположението на слънцето. Поради това Бъкнър смята, че е възможно да се извлече еднакво ценна информация от нежелани събития в машинното обучение, причинени от артефакта.

Бъкнър също казва, че всичко това не означава автоматично, че дълбокото обучение не е валидно.

„Някои от тези враждебни събития може да са артефакти“, каза той. „Трябва да знаем какви са тези артефакти, за да знаем колко надеждни са мрежите.“

Алекс Макфарланд е AI журналист и писател, изследващ най-новите разработки в областта на изкуствения интелект. Той е сътрудничил с множество стартиращи фирми и публикации в областта на изкуствения интелект по целия свят.