Регулювання
Більшість керівників американських технологічних компаній хочуть регулювання штучного інтелекту, але хто повинен ним керувати?

Як 1990-ті роки мали комерціалізацію Інтернету, 2000-ні – смартфони, а 2010-ті – підйом соціальних медіа, то 2020-ті належать штучному інтелекту. Як і ті попередні технологічні прориви, штучний інтелект також, здавалося б, розширюється швидше, ніж регулювання та законодавці можуть за ним поспіти.
Пузир互联网у вибухнув у 1993 році з запуском інклюзивного браузера Mosaic, і лише у 1996 році Конгрес США прийняв Закон про телекомунікації, перший, який явно стосувався Інтернету. Подібним чином Apple представила iPhone у 2007 році, хоча законодавці прийняли Закон про доступність комунікацій та відео у 21 столітті у 2010 році, який вимагав, щоб усі смартфони мали функції доступності.
І хоча “соціальний медіа-декада” 2010-х років побачила створення та розширення платформ, таких як Facebook, WhatsApp, YouTube та Instagram, лише у другій половині десятиліття був затверджений закон FOSTA-SESTA, який прийняв закон, який зробив платформи відповідальними за свідоме сприяння торгівлі сексом. Чи повториться історія з штучним інтелектом?
Хоча штучний інтелект став популярним після революційного випуску OpenAI ChatGPT у 2022 році, його рідна країна ще не прийняла федерального законодавства для регулювання його діяльності. США, натомість, змінили свою позицію – з обмежувальної до дерегуляторної – коли змінилися адміністрації.
Штучний інтелект у США: двопартійне питання
Закон колишнього президента Джо Байдена Безпечний, безпечний і заслуговуючий довіри акт вимагав від федеральних агентств у 2023 році вжити заходів для забезпечення безпеки штучного інтелекту, цивільних прав, рівності та прозорості. “Використання штучного інтелекту для добра та реалізації його численних переваг вимагає пом’якшення його суттєвих ризиків”, – зазначено у законі.
У січні 2025 року, однак, чинний президент Дональд Трамп підписав Закон про усунення бар’єрів для американського лідерства у сфері штучного інтелекту, скасував існуючі політики та директиви щодо штучного інтелекту “які діють як бар’єри для американської інновації штучного інтелекту, очищаючи шлях для того, щоб Сполучені Штати могли вирішально діяти для збереження глобального лідерства у сфері штучного інтелекту”.
Поточна адміністрація, тоді, прагне прискорити інновації штучного інтелекту у США за допомогою зусиль з дерегуляції, протидіючи потенційним ризикам через інвестиції у дослідження та розвиток. Питання залишається, однак, чи це уряд повинен займатися цими проблемами.
Сьогодні існує майже універсальна тривога щодо ризиків штучного інтелекту, включаючи етику, порушення та довіру. Дослідження 2024 року щодо проблем, що виникають унаслідок штучного інтелекту, насправді виявило, що найбільш нагальні проблеми включають упередженість, неправильне використання, несподівану дію машини, нерівність, соціальну тривогу та зміни у ланцюгах постачання, щоб назвати лише кілька.
Більшість американських технологічних керівників погоджуються, але підкреслюють парадокс. У вересні 2025 року звіт компанії Solvd, компанії з консалтингу штучного інтелекту та цифрової інженерії, зробив висновок, що хоча 97% керівників інформаційних служб (CIO) та керівників технологічних служб (CTO) відповідають, що вони трохи стурбовані некоректним використанням штучного інтелекту, 87% вважають, що надмірне регулювання штучного інтелекту може обмежити інновації та стати конкурентним недоліком.
Ці лідери мають подібні проблеми, які були визначені у дослідженні 2024 року: моделі штучного інтелекту стають настільки потужними, що їх неможливо контролювати, зловмисні актори можуть скористатися уразливостями штучного інтелекту, моделі штучного інтелекту отримують надмірний доступ до даних компанії, а також дезінформація або упередженість, яку може спричинити ця технологія.
Серед 500 американських CIO та CTO у компаніях, які мають виручку понад 500 мільйонів доларів, 61% віддають перевагу державному регулюванню, тоді як 36% віддають перевагу регулюванню, яке веде галузь.
Регулювання, яке веде галузь, може означати змішану модель, що відходить від публічно-приватної дихотомії. Адміністрація Байдена, фактично, переговорила угоду з керівниками провідних технологічних компаній у 2023 році, яка деталізувала добровільні зобов’язання щодо охорони штучного інтелекту. Такі зобов’язання включали забезпечення безпеки продуктів до їхнього публічного запуску, будівництво систем, які ставлять безпеку на перше місце, та здобуття довіри громадськості завдяки прозорості та розкриттю можливостей, обмежень та сфер відповідного та невідповідного використання систем штучного інтелекту.
Глобальна розмова
Незважаючи на розбіжності у відданості керівників компаній публічним або галузевим регулюванням, залишається фактом, що 82% з них головним чином відповідають за внутрішнє керування штучним інтелектом, згідно з Solvd. Лише 8% респондентів вказали на вищу керівництво для внутрішнього регулювання штучного інтелекту, а 5% заявили, що їхні компанії мають окрему етичну раду або комітет з питань дотримання законодавства щодо штучного інтелекту.
Підприємства – і їхні працівники – таким чином застряли між очікуванням державної політики, яка може або не може з’явитися, та діями здебільшого незалежно від вищого керівництва та команд, які треновані у сфері етики штучного інтелекту.
Різні контексти знайшли різні рішення цієї складності. Європейський Союз (ЄС), наприклад, різко контрастує дерегуляторний підхід адміністрації Трампа через Закон ЄС про штучний інтелект, перший у світі комплексний закон про штучний інтелект. Прийнятий у березні 2024 року, закон заборонив певні застосування штучного інтелекту, встановив rámework для оцінки ризиків та юридично вимагав прозорості та спілкування з користувачами.
Інші слідують прикладу ЄС. Чилі, лідер штучного інтелекту в Південній Америці, нещодавно пропонував законопроект про регулювання штучного інтелекту, натхненний Законом ЄС про штучний інтелект. Китай, з іншого боку, здебільшого обходить ці перешкоди, оскільки його політична система схвалює державне регулювання, субсидії та партнерство з приватними компаніями штучного інтелекту. Проблеми країни стемлються менше від регулювання, а більше від ризиків цензури та державного втручання в інновації.
Але США, як глобальний лідер у сфері штучного інтелекту, зв’язаний встановити тон для майбутніх регулювальних рамок.
Останні думки
Реалізація та інновації штучного інтелекту стали конкурентною перевагою майже у кожній галузі світу. Але без ясності регулювання та зміни політики, керівники технологічних компаній повинні встановити自己的 обмеження, та бути відповідальними за захист споживачів, здобуття їхньої довіри серед поширених страхів щодо штучного інтелекту, та інновацій – tất одночасно.
Незважаючи на міжсекторальні побоювання, що суворі регулювання можуть обмежити інновації, протилежне може бути правдою. Згідно з RegulatingAI, некомерційною організацією, яка досліджує перетин штучного інтелекту та регулювання, неясність щодо регулювання штучного інтелекту обмежує його прийняття, що затримує реалізацію економічних вигод, відсутність інвестицій та обмежує можливості компаній для масштабування.
“Кларифікація того, як системи штучного інтелекту визначаються у регулювальних контекстах, є важливою, оскільки неясність у визначеннях додає до проблем з дотриманням законодавства”, – зазначила некомерційна організація.
Аналогічно, Solvd підкреслив важливість того, щоб компанії скористалися теперішньою регулювальною плутаниною. “Зараз є ідеальний момент для компаній встановити ефективне внутрішнє керування до того, як зовнішні регулювальні органи втрутяться та потенційно накладуть менш гнучкі рішення”, – зробив висновок звіт компанії.
У цьому контексті інноватори штучного інтелекту у США стикаються з безпрецедентними викликами: ризики репутації за неадопцію політики нагляду, та можливість пробілів у дотриманні законодавства, коли регулювання нарешті з’явиться.
Але можливість також сяє. З досвіду Інтернету, смартфонів та соціальних медіа, зараз саме час поглянути вперед та побудувати екосистему, яка балансує інновації з відповідальністю, сприяє довірі та готується до неминучості регулювання.












