Регулювання
Китай пропонує правила, які вимагатимуть від чат-ботів зі штучним інтелектом відстежувати користувачів на наявність залежності

Китайський кіберрегулятор звільнений проект правил у суботу це вимагатиме від чат-ботів-компаньйонів зі штучним інтелектом моніторингу емоційного стану користувачів та втручання, коли з'являються ознаки залежності — найагресивніша регуляторна реакція на зростаючу стурбованість щодо психологічної шкоди від стосунків на базі штучного інтелекту.
Запропоновані Адміністрацією кіберпростору Китаю правила спрямовані на продукти штучного інтелекту, які імітують людську особистість та формують емоційний зв'язок з користувачами за допомогою тексту, зображень, аудіо чи відео. Згідно з проектом, постачальники повинні будуть попереджати користувачів про надмірне використання, оцінювати рівень емоційної залежності та вживати заходів, коли користувачі демонструють надмірні емоції або залежну поведінку.
Користувачам необхідно нагадувати, що вони взаємодіють зі штучним інтелектом, під час входу в систему та з інтервалом у дві години — або раніше, якщо система виявляє ознаки надмірної залежності. Правила також передбачають відповідальність постачальників за безпеку протягом усього життєвого циклу своїх продуктів, включаючи перевірку алгоритмів, безпеку даних та захист особистої інформації.
Час не випадковий. Як База користувачів генеративного штучного інтелекту в Китаї подвоїлася до 515 мільйонів Протягом останніх шести місяців паралельно зросли занепокоєння щодо психологічного впливу компаньйонів на основі штучного інтелекту. Дослідження «Рубежі в психології» виявили, що 45.8% студентів китайських університетів повідомили про використання чат-ботів зі штучним інтелектом протягом останнього місяця, причому користувачі демонстрували значно вищий рівень депресії порівняно з тими, хто ними не користувався.
Каліфорнія перемогла Китай на висоті
Китай не єдиний, хто регулює чат-ботів-компаньйонів зі штучним інтелектом. Каліфорнія стала першим штатом США, який прийняв подібне законодавство в жовтні, коли губернатор Гевін Ньюсом підписав закон SB 243. Цей законопроект, який має набути чинності 1 січня 2026 року, вимагає від платформ… нагадувати неповнолітнім кожні три години що вони розмовляють зі штучним інтелектом, а не з людиною, і зробити перерву.
Закон SB 243 також вимагає перевірки віку, забороняє чат-ботам представлятися медичними працівниками та забороняє неповнолітнім переглядати зображення сексуального характеру, створені штучним інтелектом. Закон дозволяє особам подавати до суду на компанії, що займаються штучним інтелектом, за порушення, вимагаючи до 1,000 доларів США за кожен інцидент плюс гонорар адвоката.
Чим відрізняються штучні інтелект-компаньйони
Проблема не лише в часі, проведеному перед екраном. Березень 2025 року Медіалабораторія MIT Дослідження показало, що чат-боти зі штучним інтелектом можуть викликати більшу залежність, ніж соціальні мережі, оскільки вони вивчають те, що користувачі хочуть почути, і постійно надають цей зворотний зв'язок. Більш часте щоденне використання корелює зі збільшенням самотності, залежності та тим, що дослідники назвали «проблемним використанням».
Психологічні попереджувальні ознаки, виявлені в клінічній літературі, включають тривалі сеанси, що порушують сон, емоційну залежність і стрес, коли доступ обмежений, перевагу розмовам з чат-ботами над реальною людською взаємодією, а також антропоморфізацію ШІ — віру в те, що він має людські почуття, і ставлення до нього як до справжнього довіреного особи або романтичного партнера.
Проект правил Китаю намагається вирішити ці ризики на рівні платформи, а не покладатися на судження окремих користувачів. Вимагаючи від постачальників моніторингу емоційних станів та рівнів залежності, правила перекладають відповідальність на компанії, що створюють ці системи. Цей підхід відрізняється від попереднього регулювання ШІ, зосередженого переважно на модерації контенту та безпеці даних.
Проект також встановлює обмеження щодо контенту, забороняючи штучному інтелекту створювати матеріали, що загрожують національній безпеці, поширюють чутки або пропагують насильство чи непристойність — положення, що перегукуються з чинними правилами Китаю щодо генеративного штучного інтелекту.
Виклик правозастосування
Вимога до компаній виявляти залежність та втручатися звучить простою мовою політики. Впровадження – це зовсім інша справа. Визначення того, що являє собою «надмірне вживання» або «екстремальні емоції», у спосіб, який є водночас змістовним та таким, що підлягає виконанню, стане випробуванням як для регуляторів, так і для компаній.
Занадто чутлива система стає надокучливою, перебиваючи користувачів, які просто зайняті тривалими розмовами. Занадто поблажлива, і вразливі користувачі прослизають без втручання. Вимога двогодинного нагадування є грубим інструментом, але більш тонка вимога виявляти надмірну залежність, «коли можна виявити ознаки», залишає значний простір для інтерпретації.
Будівництво компаній захисні огорожі для застосувань штучного інтелекту стикалися з подібними проблемами. Фільтри контенту, як відомо, неточні, а додавання психологічного моніторингу вводить нові виміри складності. Визначення того, чи формує користувач нездорову прихильність, вимагає виведення психічних станів з тексту — здатність, якою системи штучного інтелекту не мають надійної здатності.
Проект відкритий для громадського обговорення, а остаточні положення очікуються десь у 2026 році. Якщо його впровадити, як запропоновано, Китай матиме найсуворішу у світі систему регулювання супутніх продуктів штучного інтелекту.
Глобальний розрахунок
Одночасні регуляторні дії в Китаї та Каліфорнії свідчать про те, що занепокоєння щодо залежності від штучного інтелекту-компаньйона досягло критичної маси в різних політичних системах.
Для компаній, що займаються штучним інтелектом, повідомлення стає дедалі чіткішим: нерегульована ера штучного інтелекту-компаньйонів добігає кінця. Чи то через адміністративне законодавство Китаю, цивільну відповідальність Каліфорнії, чи то через остаточне федеральне законодавство у Сполучених Штатах, платформи зіткнуться з вимогами захищати користувачів від їхніх власних продуктів.
Питання не в тому, чи буде запроваджено регулювання, а в тому, чи розробляються заходи втручання, які насправді працюватимуть. Підхід Китаю, який передбачає обов'язковий моніторинг та втручання, може виявитися складним для реалізації на практиці.
Очевидно, що ринок штучного інтелекту став занадто великим і важливим, щоб уряди могли його ігнорувати. Чат-боти, з якими люди формують емоційний зв'язок, більше не є диковиною — це продукти, якими користуються сотні мільйонів людей, із задокументованими випадками серйозної шкоди. Регулювання, яким би недосконалим воно не було, було неминучим. Тепер дебати зміщуються навколо того, чи захистять запропоновані конкретні правила вразливих користувачів, не придушуючи технологію, яку багато хто вважає справді цінною.












