Connect with us

Лидеры ИИ предупреждают о ‘риске вымирания’

Этика

Лидеры ИИ предупреждают о ‘риске вымирания’

mm

В эпоху, отмеченную быстрыми технологическими достижениями, восхождение искусственного интеллекта (ИИ) стоит на переднем крае инноваций. Однако этот же чудо человеческого интеллекта, которое стимулирует прогресс и удобство, также вызывает существенные опасения за будущее человечества, как высказали известные лидеры ИИ.

Центр безопасности ИИ недавно опубликовал заявление, поддержанное пионерами отрасли, такими как Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind и Дарио Амодеи из Anthropic. Сентимент ясен – надвигающийся риск вымирания человека из-за ИИ должен быть глобальной приоритетом. Утверждение вызвало дебаты в сообществе ИИ, где некоторые отвергают страхи как преувеличенные, в то время как другие поддерживают призыв к осторожности.

Грозные прогнозы: потенциал ИИ для катастрофы

Центр безопасности ИИ очерчивает несколько потенциальных сценариев катастроф, возникающих из-за неправильного использования или неконтролируемого роста ИИ. Среди них – военизация ИИ, дестабилизация общества через дезинформацию, сгенерированную ИИ, и все более монополистический контроль над технологией ИИ, что позволяет осуществлять повсеместное наблюдение и репрессивную цензуру.

Сценарий ослабления также упоминается, где люди могут стать чрезмерно зависимыми от ИИ, подобно ситуации, изображенной в фильме Wall-E. Эта зависимость может сделать человечество уязвимым, вызывая серьезные этические и экзистенциальные вопросы.

Доктор Джеффри Хинтон, почитаемая фигура в области и активный сторонник осторожности в отношении сверхинтеллектуального ИИ, поддерживает предупреждение Центра, вместе с Йошуа Бенджио, профессором компьютерных наук в Университете Монреаля.

Противоречивые голоса: дебаты о потенциальном вреде ИИ

Напротив, существует значительная часть сообщества ИИ, которая считает эти предупреждения преувеличенными. Ян Лекун, профессор Нью-Йоркского университета и исследователь ИИ в Meta, знаменито выразил свое разочарование этими “пророчествами конца света”. Критики утверждают, что такие катастрофические прогнозы отвлекают от существующих проблем ИИ, таких как предвзятость системы и этические соображения.

Арвинд Нараянан, компьютерный ученый в Принстонском университете, предположил, что текущие возможности ИИ далеки от сценариев катастроф, которые часто изображаются. Он подчеркнул необходимость сосредоточиться на непосредственных вредных последствиях ИИ.

Аналогично, Элизабет Реньерис, старший исследовательский сотрудник в Институте этики ИИ Оксфордского университета, поделилась обеспокоенностью о ближайших рисках, таких как предвзятость, дискриминационное принятие решений, распространение дезинформации и социальная разделенность, вызванная достижениями ИИ. Способность ИИ учиться на созданном человеком контенте вызывает обеспокоенность по поводу передачи богатства и власти от общества к горстке частных сущностей.

Баланс: навигация между настоящими проблемами и будущими рисками

Признавая разнообразие взглядов, Дэн Хендрикс, директор Центра безопасности ИИ, подчеркнул, что решение текущих проблем может предоставить дорожную карту для смягчения будущих рисков. Цель – найти баланс между использованием потенциала ИИ и установлением гарантий для предотвращения его неправильного использования.

Дебаты об экзистенциальной угрозе ИИ не новы. Они получили импульс, когда несколько экспертов, включая Илона Маска, подписали открытое письмо в марте 2023 года с призывом к прекращению разработки технологии следующего поколения ИИ. Диалог с тех пор эволюционировал, и недавние обсуждения сравнивают потенциальный риск с риском ядерной войны.

Путь вперед: бдительность и регулирующие меры

Поскольку ИИ продолжает играть все более важную роль в обществе, важно помнить, что технология является двусмысленной. Она несет огромный потенциал для прогресса, но также представляет экзистенциальные риски, если ее оставить без контроля. Дискурс вокруг потенциальной опасности ИИ подчеркивает необходимость глобального сотрудничества в определении этических руководств, создании надежных мер безопасности и обеспечении ответственного подхода к разработке и использованию ИИ.

Алекс Макфарленд - журналист и писатель в области искусственного интеллекта, исследующий последние разработки в этой области. Он сотрудничал с многочисленными стартапами и изданиями в области искусственного интеллекта во всем мире.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.