사상 리더
AI를 금지하면 보안 위험이 증가하고 기관은 어떻게 대응해야 하는가

전 미국을 통틀어 학교 지역과 공공 부문 기관들은 생성적 인공지능(GenAI) 기술이나 특정 도구에 대한 접근을 제한하거나 차단하기 위해 움직이고 있다. 콜로라도의 볼더 밸리 학교 지역은 학교 네트워크에서 ChatGPT를 금지했다. 이는 오용, 안전, 학업诚実성에 대한 우려를 인용했다.
보안 사고나 데이터 오용에 대한 노출을 줄이려는 본능은 이해할 수 있다. 약한 가드레일이나 불분명한 개인 정보 보호 약속을 가진 플랫폼인 DeepSeek와 같은 것은 제한과 검토를 받을 만하다. 그러나 GenAI 도구에 대한 접근을 금지하면 위험을 의미 있게 줄이지 않는다. 종종それは 단지 감독이消える 환경으로 위험을 전환한다.
College Board 설문조사에 따르면 84%의 고등학생이 학교 과제를 위해 GenAI를 사용한다고 보고했으며, 45%의 교장은 학교에서 AI 접근에 대한 제한을 일부 보고했다. 同様に, IBM 보고서는 80%의 사무실 근로자가 AI를 사용하지만, 고용주 제공 도구만을 사용하는 사람은 22%에 불과하다고 발견했다.
접근 정책만이 행동을 결정하지 않는다. 학생들은 휴대폰을 꺼내서 셀룰러 데이터 네트워크를 통해任意의 AI 도구를 사용하거나, 집이나 공공 와이파이에서 플랫폼을 사용할 수 있다. 또한 VPN, 원격 데스크톱, 플러그인을 사용하여 제한을 우회할 수 있다. 직원들도 작업장 제어를 우회하기 위해同様의 일을 할 수 있다.
기관은 AI를 사용하려는 의지가 있다면 방법이 있을 것이라고 가정해야 한다. 기술이 제한되어 기관의 가시성 밖으로 사용이 밀어붙일 때, 그림자 AI의 위험은 증가한다. 프롬프트에 입력된 정보나 모델이 보유한 데이터에 대한 감독은 없다. 보안에 대한 제어는 즉시 사라진다.
그림자 AI의 위험을 넘어서, 금지조치는 학생들을 미래에 큰 부분을 차지할 기술을 사용할 준비가 되지 않은 상태로 남긴다. 이러한 도구는 점점 더 검색 엔진, 비즈니스 플랫폼, 생산성 스위트, 개인 기기에 내장되고 있다. Pew Research 설문조사에 따르면 62%의 미국 성인은 적어도 일주일에 여러 번 AI와 상호작용한다고 말했다. 기관의 정책과 상관없이 학생들과 직원들은 GenAI 시스템을 마주칠 가능성이 거의 확실하다.
이 환경에서, 오용이나 보안에 대한 우려에 대한 가장 신뢰할 수 있는 방어 수단은 교육이다. 또한 학생들과 근로자们이 자신의 경력에 필수적인 도구를 사용할 준비가 되도록 한다. 책임감 있고 윤리적인 사용을 가르침으로써 사용자는 데이터 위험을 인식하고 이러한 시스템을 어디서나遭遇할 때 정보에 기반한 결정을 내릴 수 있다.
교육 프로그램은 대형 언어 모델(LLM)이 데이터를 처리하고 보유하는 방법, 환각을 식별하는 방법, AI 생성 출력을 검증하는 방법, 피싱 캠페인과 AI 생성 이미지를 식별하는 방법 등에 중점을 두어야 한다. 사용자를怀疑하게 한다. AI 출력은 자주 자신감 있고 정리된 언어로 표시되므로 권위의 환상을 생성할 수 있다. 훈련 없이 사용자는 잘 정리된 답이 본질적으로 정확하다고 가정할 수 있다.
디지털 콘텐츠를 질문하는 능력은 딥페이크와 AI 강화 피싱 캠페인이 더 복잡해짐에 따라 최전선의 방어이다. Gartner 설문조사에 따르면 62%의 기관은 지난 해에 딥페이크 공격을 경험했으며, 32%는 AI 애플리케이션에 대한 공격을 겪었다. 이러한 사건의 빈도와 범위는 계속 증가할 것으로 예상된다.
공공 부문 기관인 학교와 지방 정부는 특히 딥페이크를 사용한 사회 공학에 취약하다. 그들의 많은 활동이 기록되고 공개되기 때문이다. 공공 회의의 오디오 클립을 조작하여 설득력 있는 음성 호출을 생성할 수 있다. 우리는 이러한 기술을 사기, 예를 들어 민감한 거래 중에 자금을 전환하는 데 사용하는 위협 행위자를 보았다. 이는 주로 대상이 되는 경우에 발생하지만, 이러한 기술을 인식하지 못하거나 가능하다는 것을 모르는 사용자는 처음부터 불리하다.
교육에 이어 기관은 AI 사용과 거버넌스에 대한 명확하게 전달된 정책을 가져야 한다. 이러한 정책은 승인된 도구, 허용되는 사용 사례, 모델에 입력할 수 있는 데이터를 정의해야 한다. 정책은 부서 간에 일관되게 적용되어야 하며, 교실에서 교실으로 또는 사무실에서 사무실로 다를 수 없다. 명확한 기대는 모호성을 줄이고 책임성을 강화한다.
일괄적인 제한 대신 기관은 기술이 실제로 사용되는 방식을 형성해야 한다. 기관이 접근성이 좋고, 보안이 좋고, 잘 작동하는 도구를 승인하면, 대부분의 사용자에게 기본값이 된다. 사소한 그림자 AI 사용은 대안이 있기 때문에 감소한다. 사용하기 위해 VPN을 다운로드할 필요가 없다.
기관과 기관은 LLM에 대한 보안 접근을 제공하는 방식으로 데이터가 보안되고 공유되지 않으며 훈련에 사용되지 않도록 하려고 한다. AI 활성화 및 보안 도구의 새로운 카테고리가 이를 정확히 수행하기 위해 등장하고 있다. 이러한 도구는 기관의 데이터를 안전하게 컨테이너화하면서 여러 LLM에 대한 접근을 제공할 수 있다. 데이터 보유 제로 계약은 기관의 데이터가 회사 또는 기관의 재산이며, LLM이 이를 훈련에 사용할 수 없도록 하는 법적 프레임워크를 제공한다. 또한, 직원이 기관을 떠나면 AI 사용, 워크플로, 데이터는 기관의 재산으로 남아 있다.
기능 수준에서 기술 가드레일을 적용할 수도 있다. 기관은 학생이나 직원이 승인된 LLM 내에서 일반적인 질문을 묻도록 허용하면서 파일 업로드, 문서 공유 또는 기타 고위험 기능을 비활성화할 수 있다. 이러한 구성은 생산성의 이점을 유지하면서 데이터 노출을 제어하지 않는다.
보다 고급 도구는 모델에 도달하기 전에 민감한 정보를 자동으로匿名化할 수 있다. 예를 들어, 의사와 간호사가 생성적 인공지능을 사용할 수 있지만 보호된 데이터를 노출하지 않도록 환자 이름이나 식별자를 중립적인 플레이스홀더로 바꿀 수 있다. 다른 도구는 소셜 보안 번호, 금융 계정 데이터 또는 기타 규제 정보가 프롬프트에 제출되는 것을 탐지하고 차단하는 데이터 손실 방지 컨트롤을 통합한다.
명확한 정책과 기술 가드레일, 교육을 기반으로 하는 것은 특히 기술이 매우 빠르게 변화하는 경우에 최선의 방어이다. GenAI는 공공 부문 기관과 그 예산이 적응할 수 있는 속도보다 더 빠르게 발전하고 있다. 각 새로운 모델이 등장할 때마다 이를 차단하려고 시도하는 것은 지속 불가능하다. 사용자가 도구와 버전 전체에서 적응할 수 있도록 기본적인 위험을 이해하도록 훈련시킨다.
AI가 일상 생활에 내장된 현실을 인정하는 것이 AI 환경에서의 보안에 달려 있다. 지니를 다시 병에 넣을 수는 없다. 일괄적인 금지조치는 주의를 신호할 수 있지만, 종종 가시적이고 관리 가능한 위험을 가시적이지 않으며, 관리되지 않는 노출로 바꾼다. 사람에게 AI를 책임감 있게 사용하는 방법을 가르치면, 그들이 다음에 무엇이든 대비할 수 있다.












