AGI
Исследователи говорят, что люди не смогут контролировать сверхинтеллектуальный ИИ

Каждый, кто знаком с искусственным интеллектом (ИИ), вероятно, слышал какую-то версию о том, что он в конечном итоге освободится от контроля человека. Это не только тема из научно-фантастических фильмов, но и очень сильная возможность, которая беспокоит многих экспертов в отрасли. Многие из этих экспертов, включая ученых, выступают за то, чтобы мы начали готовиться к этой возможности и избегать ее всеми возможными способами.
Теперь международная команда исследователей взяла эту идею и подтвердила ее теоретическими расчетами. Команда, в которую входили ученые из Центра человека и машин при Институте человеческого развития имени Макса Планка, использовала эти расчеты, чтобы продемонстрировать, что невозможно контролировать сверхинтеллектуальный ИИ.
Исследование было недавно опубликовано в Журнале исследований искусственного интеллекта.
Сверхинтеллектуальная система ИИ
Страх перед сверхинтеллектуальной системой ИИ связан с тем, что такая система будет намного превосходить людей. Она сможет не только учиться самостоятельно, но и получать доступ ко всей существующей информации и обрабатывать ее чрезвычайно быстро.
Такое событие может привести к тому, что сверхинтеллектуальный ИИ возьмет под контроль все существующие машины в Интернете, и хотя он сможет и будет делать такие вещи, как лечить заболевания и решать другие крупные проблемы, с которыми сталкивается человечество, риск того, что все выйдет из-под контроля, также высок.
Мануэль Себриан является соавтором исследования и руководителем Группы цифровой мобилизации в Центре человека и машин при Институте человеческого развития имени Макса Планка.
“Сверхинтеллектуальная машина, контролирующая мир, звучит как научная фантастика. Но уже существуют машины, которые выполняют определенные важные задачи самостоятельно, без того, чтобы программисты полностью понимали, как они этому научились. Поэтому возникает вопрос, может ли это когда-нибудь стать неконтролируемым и опасным для человечества”, – говорит Себриан.
Контроль над системой
Существует две основные школы мысли, когда речь идет о контроле над такой системой. Во-первых, люди могут ограничить возможности сверхинтеллектуального ИИ, ограничив его доступ к некоторым источникам данных, таким как весь Интернет. Система также может функционировать без взаимодействия с внешним миром. Однако проблема заключается в том, что это сильно ограничит потенциал ИИ.
Система будет контролироваться, разрешая ей преследовать только те результаты, которые принесут пользу человечеству, и это можно сделать, запрограммировав в нее этические принципы.
Исследование включало разработку теоретического алгоритма сдерживания, который предотвращает вред сверхинтеллектуального ИИ людям в любых обстоятельствах. Это можно достичь, создав сначала симуляцию поведения ИИ и обнаружив любое поведение, которое может быть вредным. Несмотря на эту перспективную теорию, текущий анализ показывает, что такой алгоритм не может быть разработан.
Ийяд Рахван является директором Центра человека и машин.
“Если вы разбиваете проблему на базовые правила теоретической информатики, то оказывается, что алгоритм, который бы командовал ИИ не уничтожать мир, может непреднамеренно остановить свою собственную работу. Если это произойдет, вы не будете знать, анализирует ли алгоритм сдерживания угрозу или остановился ли он, чтобы сдержать вредный ИИ. По сути, это делает алгоритм сдерживания непригодным для использования”, – говорит Рахван.
Другой проблемой является то, что эксперты могут даже не осознавать, когда сверхинтеллектуальная машина достигнет этого состояния, в основном из-за того, что она будет более интеллектуальной, чем люди.








