Регулирование
Большинство руководителей американских технологических компаний хотят регулирования ИИ, но кто должен возглавить его?

Как и 1990-е годы имели коммерциализацию Интернета, 2000-е годы – смартфон, и 2010-е годы – рост социальных сетей, 2020-е годы принадлежат ИИ. Как и эти ранние технологические прорывы, ИИ также, по-видимому, расширяется быстрее, чем регулирующие органы и законодатели могут идти в ногу с ним.
Пузырь доткомов лопнул в 1993 году с запуском инклюзивного браузера Mosaic, и только в 1996 году Конгресс США принял Закон о телекоммуникациях, первый, который явно касался Интернета. Аналогично, Apple представила iPhone в 2007 году, хотя законодатели приняли Закон о коммуникациях и доступности видео 21-го века в 2010 году, требующий, чтобы все смартфоны включали функции доступности.
И хотя «десятилетие социальных сетей» 2010-х годов увидело создание и расширение платформ như Facebook, WhatsApp, YouTube и Instagram, только во второй половине десятилетия был одобрен закон FOSTA-SESTA, который сделал платформы ответственными за намеренное содействие торговле людьми. Повторится ли история с ИИ?
Хотя ИИ стал мейнстримом после выхода OpenAI ChatGPT в 2022 году, страна, где он был создан, еще не приняла федеральные законы, регулирующие его. США, вместо этого, изменили свою позицию – от ограничительной к дерегуляторной – по мере смены администраций.
ИИ в США: двупартийный вопрос
Бывший президент Джо Байден Безопасный, безопасный и заслуживающий доверия акт потребовал от федеральных агентств в 2023 году принять меры по обеспечению безопасности ИИ, гражданских прав, равенства и прозрачности. «Использование ИИ во благо и реализация его многочисленных преимуществ требует смягчения его существенных рисков», – говорится в акте.
Однако в январе 2025 года действующий президент Дональд Трамп подписал Закон о снятии барьеров для американского лидерства в области искусственного интеллекта, отменив существующие политики и директивы ИИ, которые «являются барьерами для американского инновационного ИИ, очищая путь для того, чтобы США могли решительно сохранить глобальное лидерство в области искусственного интеллекта».
Текущая администрация, следовательно, стремится ускорить инновации ИИ в США посредством дерегуляторных усилий, противодействуя потенциальным рискам за счет инвестиций в исследования и разработки. Однако остается вопрос, должно ли это быть правительство, которое решает эти проблемы.
Сегодня существует почти универсальная тревога по поводу рисков ИИ, включая этику, нарушения и доверие. Исследование 2024 года о проблемах, возникающих у заинтересованных сторон в связи с ИИ, на самом деле выявило, что наиболее насущные проблемы включают предвзятость, неправильное использование, непредвиденные действия машин, неравенство, социальную тревогу и изменения в цепочках поставок, чтобы назвать несколько.
Большинство руководителей американских технологических компаний согласны с этим, но подчеркивают парадокс. Отчет Solvd от сентября 2025 года, AI-адвокатской и цифровой инженерной фирмы, заключил, что хотя 97% респондентов – руководителей информационных служб (CIO) и руководителей технологических служб (CTO) – несколько обеспокоены неэтичным использованием ИИ, 87% считают, что слишком много регулирования ИИ может ограничить инновации и стать конкурентным недостатком.
Основные проблемы этих лидеров повторяют те, которые были выявлены в исследовании 2024 года: модели ИИ становятся настолько мощными, что их нельзя контролировать, злонамеренные акторы потенциально могут воспользоваться уязвимостями ИИ, модели ИИ получают слишком широкий доступ к данным компании, и дезинформация или предвзятость, которую может вызвать эта технология.
Среди 500 американских CIO и CTO в компаниях с выручкой более 500 миллионов долларов в год, опрошенных Solvd, 61% предпочитают государственное регулирование, в то время как 36% отдают предпочтение регулированию, возглавляемому отраслью.
Регулирование, возглавляемое отраслью, может означать смешанную модель, отклоняющуюся от государственно-частного дихотомии. Администрация Байдена, в частности, переговорила о сделке с топ-менеджерами технологических компаний в 2023 году, в которой были изложены добровольные обязательства по поводу ограничений ИИ. Такие обязательства включали обеспечение безопасности продуктов до их публичного запуска, создание систем, которые ставят безопасность на первое место, и завоевание доверия общественности посредством прозрачности и раскрытия возможностей, ограничений и областей подходящего и неподходящего использования систем ИИ.
Глобальный разговор
Несмотря на расхождения в предпочтениях руководителей компаний по поводу государственных или отраслевых регуляторных рамок, остается фактом, что 82% из них в первую очередь отвечают за внутреннее управление ИИ, согласно Solvd. Только 8% респондентов указали на высшее руководство для внутреннего регулирования ИИ, и 5% заявили, что их компании имеют специальный совет по этике ИИ или комитет по соблюдению требований.
Предприятия – и их сотрудники – таким образом, застряли между ожиданием государственной политики, которая может или не может быть принята, и действием в основном независимо от высшего руководства и команд, обученных этике ИИ.
Разные контексты нашли разные решения этой сложности. Европейский Союз (ЕС), например, резко контрастирует с дерегуляторным подходом администрации Трампа посредством Закона ЕС об ИИ, первого в мире комплексного закона об ИИ. Принятый в марте 2024 года, Закон запретил определенные приложения ИИ, установил основу для оценки рисков и юридически потребовал прозрачности и общения с пользователями.
Другие следуют примеру ЕС. Чили, лидер ИИ в Южной Америке, недавно предложил законопроект о регулировании ИИ, вдохновленный Законом ЕС об ИИ. Китай, с другой стороны, в значительной степени обходит эти препятствия, поскольку его политическая система отдает предпочтение государственно-санкционированному регулированию, субсидиям и партнерству с частными компаниями ИИ. Проблемы страны происходят не столько из-за регуляторного дихотомии, сколько из-за рисков цензуры и государственного вмешательства в инновации.
Но США, как глобальный лидер ИИ, обязательно задаст тон будущим регуляторным рамкам.
Заключительные мысли
Реализация и инновации ИИ стали конкурентным преимуществом几乎 в каждой отрасли по всему миру. Но без ясности регулирования и меняющейся политики руководители технологических компаний должны устанавливать свои собственные ограничения, и нести ответственность за защиту потребителей, завоевание их доверия среди широко распространенного страха ИИ, и инновации – все одновременно.
Несмотря на межсекторальные опасения, что строгие правила могут препятствовать инновациям, противоположное может быть правдой. Согласно RegulatingAI, американской некоммерческой организации, посвященной изучению пересечения ИИ и регулирования, неопределенность в отношении полицейского надзора за ИИ задерживает принятие этой технологии, что задерживает реализацию экономических выгод, нехватку инвестиций и препятствует масштабированию компаний.
«Уточнение того, как системы ИИ определяются в регуляторных контекстах, имеет решающее значение, поскольку неопределенность в определениях добавляет к проблемам соблюдения», – отметила некоммерческая организация.
Аналогично, Solvd подчеркнул важность того, чтобы компании воспользовались настоящей регуляторной путаницей. «Теперь идеальный момент для компаний установить эффективное внутреннее управление до того, как внешние регулирующие органы вступят в силу и потенциально навязали менее гибкие решения», – заключил отчет компании.
В этом контексте инноваторы ИИ в США сталкиваются с беспрецедентными проблемами: репутационными рисками за неадoption политики надзора и возможностью пробелов в соблюдении требований, когда регулирование вступит в силу.
Но возможность также светит сквозь. С учетом Интернета, смартфонов и социальных сетей, сейчас именно время посмотреть вперед и построить экосистему, которая балансирует инновации с подотчетностью, способствует доверию и готовится к неизбежности регулирования.












