๊ท์
์ค๊ตญ, ์์ฑ์ AI ๋ฐ์ดํฐ ๋ณด์์ ์ํ ์๋ก์ด ๊ท์ ์ ์ ๋ฐํ

데이터 보안은 인공 지능(AI)와 같은 분야에서 매우 중요합니다. 이러한 점을 인식하고 중국은 생성적 AI 모델 훈련 과정에서 데이터 보안의 중요성을 강조하는 새로운 규제 초안을 발표했습니다.
“블랙리스트” 메커니즘과 보안 평가
10월 11일에 공개된 규제 초안은 단일 기관에서 나온 것이 아니며, 협력적인 노력의 결과입니다. 국가 정보 보안 표준화위원회가 주도했으며, 사이버 공간 관리위원회(CAC), 산업 정보 기술부, 및 여러 법 집행 기관에서 중요한 입력을 제공했습니다. 이러한 다중 기관 참여는 AI 데이터 보안에 관련된 높은 위험과 다양한 고려 사항을 나타냅니다.
생성적 AI의 능력은 인상적이고 광범위합니다. 텍스트 콘텐츠 작성에서 이미지 생성까지, 이 AI 하위 집합은 기존 데이터에서 학습하여 새로운 원본 출력을 생성합니다. 그러나 큰 권한이 주어지면 큰 책임이 따르므로, 이러한 AI 모델에 대한 학습 자료로 사용되는 데이터에 대한 엄격한 검사가 필요합니다.
제안된 규제는 공공에 공개된 생성적 AI 모델에 사용되는 데이터에 대한 철저한 보안 평가를 주장합니다. 또한 콘텐츠에 대한 ‘블랙리스트’ 메커니즘을 제안합니다. 블랙리스트의 기준은 명확합니다 — “5% 이상의 불법적이고 유해한 정보”를 포함하는 콘텐츠입니다. 이러한 정보의 범위는 넓으며, 테러, 폭력, 또는 국가의 이익과 명예에 해가되는 콘텐츠를 포함합니다.
глобальные AI 관행에 대한 영향
중국의 규제 초안은 특히 기술이 더 복잡하고 널리 퍼짐에 따라, AI 개발에서 관련된 복잡성을 상기시킵니다. 지침은 혁신과 책임 사이에서 조심스럽게 발을 들여놓아야 하는 회사의 세계를 제안합니다.
이러한 규제는 중국에 특정하지만, 그 영향은 전 세계적으로 울려 퍼질 수 있습니다. 그것은 유사한 전략을 세계적으로 영감을 줄 수 있거나, 적어도, AI의 윤리와 보안에 대한 더 깊은 대화를 일으킬 수 있습니다. 우리는 AI의 가능성을 계속해서 받아들이는 동안, 앞으로의 길은 관련된 잠재적인 위험에 대한 예각한 인식과 적극적인 관리를 요구합니다.
중국의 이 이니셔티브는 기술, 특히 AI가 우리 세계와 더密接하게 얽히면, 데이터 보안과 윤리적 고려의 필요성이 더 긴급해짐을 강조합니다. 제안된 규제는 중요한 순간을 표시하며, AI의 안전하고 책임 있는 발전에 대한 더 широк은 의미를 강조합니다.












