Свяжитесь с нами:

Исследователи говорят, что люди не смогут контролировать сверхразумный ИИ

Искусственный общий интеллект

Исследователи говорят, что люди не смогут контролировать сверхразумный ИИ

mm

Любой, кто знаком с искусственным интеллектом (ИИ), вероятно, слышал какую-то версию о том, что он в конце концов вырвется из-под контроля человека. Это не просто тема из научно-фантастических фильмов, а скорее очень сильная возможность, которая волнует многих экспертов отрасли. Многие из этих экспертов, в том числе ученые, выступают за то, чтобы мы начали готовиться к этой возможности и всеми возможными способами избегать ее. 

Теперь международная группа исследователей подхватила эту идею и подкрепила ее теоретическими расчетами. Команда, в которую входили ученые из Центра людей и машин Института развития человека им. Макса Планка, использовала эти расчеты, чтобы продемонстрировать невозможность управления сверхразумным ИИ. 

Исследование было недавно опубликовано в Журнал исследований искусственного интеллекта

Сверхинтеллектуальная система искусственного интеллекта

Страх перед сверхразумной системой искусственного интеллекта связан с тем фактом, что такая система будет намного превосходить людей. Он сможет не только учиться самостоятельно, но и получать доступ ко всем существующим данным и очень быстро их обрабатывать. 

Такое событие может привести к тому, что сверхразумный ИИ обгонит все существующие машины онлайн, и хотя он может и будет делать такие вещи, как лечение болезней и решение других серьезных проблем, стоящих перед человечеством, риск выхода из-под контроля также высок. 

Мануэль Себриан — соавтор исследования и руководитель группы цифровой мобилизации в Центре людей и машин Института человеческого развития им. Макса Планка. 

«Сверхразумная машина, управляющая миром, звучит как научная фантастика. Но уже есть машины, которые выполняют определенные важные задачи самостоятельно, а программисты полностью не понимают, как они этому научились. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества», — говорит Себриан. 

Управление системой

Когда дело доходит до управления такой системой, существуют две основные точки зрения. Во-первых, люди могут ограничить возможности сверхразумного ИИ, ограничив его доступ к некоторым источникам данных, например ко всему Интернету. Система также могла функционировать без контакта с внешним миром. Однако проблема в том, что это резко ограничит потенциал ИИ.

Система будет контролироваться только тем, что позволит ей добиваться результатов, которые принесут пользу человечеству, и это можно сделать, запрограммировав в нее этические принципы. 

В исследовании участвовала команда, разработавшая теоретический алгоритм сдерживания, который не позволяет сверхразумному ИИ причинять вред людям ни при каких обстоятельствах. Этого можно достичь, сначала создав симуляцию поведения ИИ и обнаружив любое поведение, которое может быть вредным. Несмотря на эту многообещающую теорию, текущий анализ показывает, что такой алгоритм не может быть разработан. 

Ияд Рахван — директор Центра изучения людей и машин.

«Если разбить проблему на основные правила теоретической информатики, окажется, что алгоритм, который приказывает ИИ не уничтожать мир, может непреднамеренно остановить свои собственные операции. Если бы это произошло, вы бы не знали, продолжает ли алгоритм сдерживания анализировать угрозу или он прекратил сдерживать вредоносный ИИ. По сути, это делает алгоритм сдерживания непригодным для использования», — говорит Рахван.

Другая проблема заключается в том, что эксперты могут даже не осознавать, когда сверхразумная машина достигает этого состояния, в основном из-за того, что она будет более разумной, чем люди. 

 

Алекс МакФарланд — журналист и писатель, занимающийся искусственным интеллектом. Он сотрудничал с многочисленными стартапами и публикациями в области искусственного интеллекта по всему миру.