заглушки Китай націлений на безпеку даних генеративного штучного інтелекту за допомогою нових пропозицій щодо регулювання - Unite.AI
Зв'язатися з нами

Регулювання

Китай націлений на генеративну безпеку даних штучного інтелекту за допомогою нових нормативних пропозицій

оновлений on

Безпека даних має першочергове значення, особливо в таких впливових сферах, як штучний інтелект (ШІ). Усвідомлюючи це, Китай висунув нові проекти правил, крок, який підкреслює критичність безпеки даних у процесах навчання моделі ШІ.

Механізм «чорного списку» та оцінка безпеки

Команда проект, оприлюднений 11 жовтня, не виник з однієї організації, а був спільним зусиллям. Національний комітет зі стандартизації інформаційної безпеки взяв на себе кермо за значного внеску Управління кіберпростору Китаю (CAC), Міністерства промисловості та інформаційних технологій і кількох правоохоронних органів. Ця участь багатьох відомств свідчить про високі ставки та різноманітні міркування, пов’язані з безпекою даних ШІ.

Можливості генеративного штучного інтелекту одночасно вражаючі та великі. Від створення текстового вмісту до створення зображень, ця підмножина штучного інтелекту вивчає наявні дані для створення нових, оригінальних результатів. Однак велика потужність приносить велику відповідальність, що вимагає суворої перевірки даних, які служать навчальним матеріалом для цих моделей ШІ.

Запропоновані правила є ретельними, виступаючи за ретельну оцінку безпеки даних, які використовуються для навчання генеративних моделей ШІ, доступних для громадськості. Вони йдуть далі, пропонуючи механізм «чорного списку» для вмісту. Поріг для внесення в чорний список є точним — вміст містить понад «5% незаконної та шкідливої ​​інформації». Обсяг такої інформації є широким і охоплює вміст, який підбурює до тероризму, насильства або завдає шкоди національним інтересам і репутації.

Наслідки для глобальних практик ШІ

Проекти нормативних актів із Китаю служать нагадуванням про складності, пов’язані з розробкою штучного інтелекту, особливо в міру того, як технологія стає все більш складною та поширеною. Рекомендації пропонують світ, де компанії та розробники повинні діяти обережно, балансуючи між інноваціями та відповідальністю.

Хоча ці правила стосуються лише Китаю, їхній вплив може мати резонанс у всьому світі. Вони можуть надихнути на подібні стратегії в усьому світі або, принаймні, розпалити глибші розмови про етику та безпеку ШІ. Оскільки ми продовжуємо використовувати можливості штучного інтелекту, шлях уперед вимагає чіткого усвідомлення й проактивного керування потенційними ризиками.

Ця ініціатива Китаю підкреслює універсальну істину: у міру того, як технології, особливо штучний інтелект, все більше переплітаються з нашим світом, потреба в суворій безпеці даних і етичних міркуваннях стає все гострішою. Запропоновані правила відзначають важливий момент, привертаючи увагу до ширших наслідків для безпечної та відповідальної еволюції ШІ.

 

Алекс МакФарланд — журналіст і письменник, що займається штучним інтелектом, досліджує останні розробки в галузі штучного інтелекту. Він співпрацював з численними стартапами та публікаціями зі штучного інтелекту по всьому світу.