Регулирование
Китай нацеливается на безопасность данных генеративного ИИ с помощью новых нормативных предложений

Безопасность данных имеет первостепенное значение, особенно в таких влиятельных областях, как искусственный интеллект (ИИ). Признавая это, Китай представил новые проекты правил, что подчеркивает критическую важность безопасности данных в процессе обучения моделей ИИ.
“Черный список” механизм и оценки безопасности
Проект, опубликованный 11 октября, не был результатом работы одного органа, а был совместным усилием. Национальный комитет по стандартизации информационной безопасности взял на себя руководство, с значительным вкладом от Администрации киберпространства Китая (CAC), Министерства промышленности и информационных технологий, а также нескольких правоохранительных органов. Это участие нескольких органов указывает на высокие ставки и разнообразные соображения, связанные с безопасностью данных ИИ.
Возможности генеративного ИИ впечатляют и обширны. От создания текстового контента до создания изображений, этот подмножество ИИ учится на существующих данных, чтобы генерировать новые, оригинальные выходные данные. Однако с большой властью приходит большая ответственность, требующая строгих проверок данных, которые служат материалом для обучения этих моделей ИИ.
Предлагаемые правила тщательны, отстаивая проведение тщательных оценок безопасности данных, используемых в обучении моделей генеративного ИИ, доступных общественности. Они идут дальше, предлагая механизм “черного списка” для контента. Порог для включения в черный список точен — контент, включающий более “5% незаконной и вредной информации”. Объем такой информации широк, захватывая контент, который подстрекает к терроризму, насилию или наносит вред национальным интересам и репутации.
Последствия для глобальной практики ИИ
Проект правил из Китая служит напоминанием о сложностях, связанных с разработкой ИИ, особенно когда технология становится более сложной и распространенной. Руководящие принципы предполагают мир, где компании и разработчики должны действовать осторожно, балансируя инновации с ответственностью.
Хотя эти правила специфичны для Китая, их влияние может распространиться по всему миру. Они могут вдохновить подобные стратегии во всем мире или, по крайней мере, вызвать более глубокие обсуждения вокруг этики и безопасности ИИ. Когда мы продолжаем использовать возможности ИИ, путь вперед требует проницательного осознания и активного управления потенциальными рисками.
Эта инициатива Китая подчеркивает универсальную истину — когда технология, особенно ИИ, становится более переплетенной с нашим миром, необходимость строгой безопасности данных и этических соображений становится более насущной. Предлагаемые правила отмечают значимый момент, привлекая внимание к более широким последствиям для безопасной и ответственной эволюции ИИ.












