Connect with us

Команда разработала подход для сравнения нейронных сетей

Искусственный интеллект

Команда разработала подход для сравнения нейронных сетей

mm

Команда исследователей в Лос-Аламосской национальной лаборатории разработала новый подход для сравнения нейронных сетей. Согласно команде, этот новый подход заглядывает в “черный ящик” искусственного интеллекта (ИИ), и он помогает им понять поведение нейронных сетей. Нейронные сети, которые распознают закономерности в наборах данных, используются для широкого спектра приложений, таких как системы распознавания лиц и автономные транспортные средства.

Команда представила свою статью, “Если вы обучили одну, вы обучили все: межархитектурное сходство увеличивается с устойчивостью”, на Конференции по неопределенности в искусственном интеллекте.

Хейдн Джонс – исследователь в группе перспективных исследований киберсистем в Лос-Аламосе и ведущий автор исследовательской статьи.

Лучшее понимание нейронных сетей

“Исследовательское сообщество искусственного интеллекта не обязательно имеет полное понимание того, что делают нейронные сети; они дают нам хорошие результаты, но мы не знаем, как или почему”, – сказал Джонс. “Наш новый метод лучше сравнивает нейронные сети, что является важным шагом к лучшему пониманию математики, лежащей в основе ИИ.

Новое исследование также сыграет роль в помощи экспертам понять поведение устойчивых нейронных сетей.

Хотя нейронные сети имеют высокую производительность, они также хрупкие. Небольшие изменения условий, такие как частично закрытый знак остановки, обрабатываемый автономным транспортным средством, могут вызвать неправильную идентификацию знака нейронной сетью. Это означает, что она может никогда не остановиться, что может быть опасным.

Адверсарное обучение нейронных сетей

Исследователи поставили цель улучшить эти типы нейронных сетей, изучая способы улучшения устойчивости сети. Одним из подходов является “атака” на сети во время их обучения, когда исследователи намеренно вводят аномалии во время обучения ИИ, чтобы игнорировать их. Процесс, который называется адверсарным обучением, делает более трудным для сетей быть обманутыми.

Команда применила новый метрический показатель сходства сети к адверсарно обученным нейронным сетям. Они были удивлены, обнаружив, что адверсарное обучение вызывает сходимость нейронных сетей в области компьютерного зрения к подобным представлениям данных, независимо от архитектуры сети, по мере увеличения величины атаки.

“Мы обнаружили, что когда мы обучаем нейронные сети быть устойчивыми против адверсарных атак, они начинают делать одни и те же вещи”, – сказал Джонс.

Это не первый раз, когда эксперты пытались найти идеальную архитектуру для нейронных сетей. Однако новые результаты демонстрируют, что введение адверсарного обучения существенно сокращает разрыв, что означает, что сообщество исследователей ИИ может не нужно будет исследовать так много новых архитектур, поскольку теперь известно, что адверсарное обучение вызывает сходимость разнообразных архитектур к подобным решениям.

“Найдя, что устойчивые нейронные сети похожи друг на друга, мы делаем более простым понимание того, как может работать действительно устойчивый ИИ”, – сказал Джонс. “Мы можем даже обнаружить намеки на то, как происходит восприятие у людей и других животных.”

Алекс Макфарленд - журналист и писатель в области искусственного интеллекта, исследующий последние разработки в этой области. Он сотрудничал с многочисленными стартапами и изданиями в области искусственного интеллекта во всем мире.