Connect with us

사상 리더

아무도 주시하지 않는 AI 위험: 기업 업무 흐름에서의 비밀 노출

mm

기업 AI 위험에 대한 대부분의 논의는 익숙한 우려로 시작합니다. 직원들이 고객 데이터를 챗봇에 붙여넣는 것이죠. 프라이버시와 규제 준수 문제가 헤드라인과 이사회 브리핑을 지배하며, Deloitte의 연구에 따르면 데이터 프라이버시와 보안은 조직들이 걱정하는 최상위 AI 위험 요인에 속합니다. 그러나 실제 기업 사용 현황에서 나오는 데이터는 다른 이야기를 전합니다. AI 도구로 유입되는 가장 흔한 민감 정보는 개인 데이터가 전혀 아닙니다. 바로 비밀과 자격 증명입니다. API 키, 액세스 토큰, 웹훅, 인증 아티팩트가 이제 AI 프롬프트에서 관찰되는 민감 데이터 노출의 가장 큰 부분을 차지합니다. 이러한 공개는 부주의나 악의적 의도에서 비롯되는 경우는 드물며, 오히려 실패한 통합 디버깅, 자동화 문제 해결, 코드 테스트, 고객 문제 해결과 같은 일상적인 업무에서 발생합니다. AI가 일상 업무 흐름에 내재됨에 따라, 이러한 순간들은 끊임없이 발생하며 종종 기존 보안 통제의 가시 범위를 벗어납니다. 결과는 명확합니다. AI 도입이 확대됨에 따라 조직들은 실제 위험이 어디서 발생하는지에 대한 더 정확한 그림을 얻고 있으며, 거버넌스는 이를 해결하기 위해 진화해야 합니다.

간과된 AI 데이터 노출 위험이 눈앞에 숨어 있다

Nudge Security에서 수행한 최근 AI 사용 분석은 기업 환경 전반의 익명화된 원격 측정 데이터를 검토하여 직장에서 AI 도구가 실제로 어떻게 사용되는지 이해하고자 했습니다. 설문조사나 자가 보고에 의존하는 대신, 이 연구는 기업 SaaS 생태계 전반에서 관찰된 AI 활동, 통합, 프롬프트 행동을 분석했습니다. 연구 결과는 기업 사용에서 AI 위험이 실제로 어디서 발생하는지에 대한 새로운 통찰을 제공합니다. AI 프롬프트의 민감 데이터 노출은 운영 자격 증명이 대부분을 차지합니다. 비밀과 자격 증명은 탐지된 민감 데이터 이벤트의 약 48퍼센트를 구성하는 반면, 금융 데이터는 36퍼센트, 건강 관련 정보는 16퍼센트였습니다. 이러한 패턴은 가장 중요한 AI 데이터 노출 과제가 프라이버시 유출이 아니라 비밀의 확산임을 시사합니다. 동일한 연구는 AI 도입이 실험 단계를 넘어섰음을 보여줍니다. AI 도구는 업무 흐름에 내재되고, 핵심 비즈니스 플랫폼과 통합되며, 점점 더 자율적인 조치를 취할 수 있는 능력을 갖추고 있습니다. 핵심 대규모 언어 모델 제공업체는 이제 거의 보편화되어 있으며, OpenAI는 조직의 96퍼센트에, Anthropic는 78퍼센트에 존재합니다. McKinsey의 연구에 따르면, 조직의 88퍼센트가 적어도 하나의 비즈니스 기능에서 정기적인 AI 사용을 보고했으며, 이는 1년 전 78퍼센트에서 증가한 수치입니다. 회의 인텔리전스 도구, AI 지원 코딩 플랫폼, 프레젠테이션 생성기, 음성 기술이 널리 배포되어 AI가 채팅 인터페이스에서 일상 업무 흐름으로 어떻게 확장되었는지를 반영합니다. 이러한 확장은 위험이 사용을 따라가기 때문에 중요합니다. AI가 개발자 환경, 협업 플랫폼, 고객 지원 업무 흐름에 내재됨에 따라, 민감한 시스템 및 운영 데이터에 근접하게 됩니다. 도입은 또한 하향식으로 추진되었습니다. 최근 KPMG 연구에 따르면 직원의 44퍼센트가 고용주가 승인하지 않은 방식으로 AI 도구를 사용하며, 이는 이러한 도구가 일상 업무 흐름에 얼마나 빠르게 진입하는지를 보여줍니다. 직원들은 브라우저 확장 프로그램을 설치하고, 어시스턴트를 연결하며, 통합을 실험하여 일상 작업을 가속화하는데, 이는 종종 중앙 집중식 조달 프로세스 외부에서 이루어집니다. 보안 분석가들은 이러한 패턴을 섀도우 AI라고 설명하는데, 이는 도구가 기존 IT 가시 범위를 벗어난 브라우저 및 SaaS 업무 흐름 내에서 운영되는 것을 의미합니다. 이러한 도구는 즉시 배포될 수 있고 기술적 설정이 거의 필요하지 않기 때문에, 공급업체 승인 프로세스와 허용 사용 정책을 중심으로 구축된 거버넌스 프로그램은 AI가 실제로 기업 전반에 어떻게 도입되고 사용되는지 따라잡기 어려워합니다.

유출된 비밀이 즉각적인 운영 위험을 초래할 수 있는 이유

개인 데이터는 여전히 민감하고 규제 대상이지만, 비밀은 즉각적인 운영적 영향을 미칩니다. 유출된 API 키는 프로덕션 시스템에 대한 액세스를 제공할 수 있습니다. 손상된 토큰은 저장소를 노출시킬 수 있습니다. 웹훅 URL은 무단 자동화를 가능하게 할 수 있습니다. 자격 증명은 일상 업무 흐름 중에 AI 프롬프트에 자주 등장합니다. 개발자들은 인증 실패 문제 해결 중에 채팅 인터페이스에 토큰을 붙여넣고, 엔지니어들은 통합 문제를 진단하기 위해 구성 코드 조각을 공유할 수 있습니다. 이러한 행동은 특이하지 않습니다. 비밀은 기술적 업무 흐름에 내재되어 있으며 로그, 스크립트, 구성 파일, 자동화 출력에 나타납니다. 팀이 문제를 신속하게 해결해야 하는 압박을 받을 때, 그들은 포함된 민감 데이터가 무엇인지 고려할 여유 없이 이러한 아티팩트를 공유할 수 있습니다. AI 인터페이스는 이러한 행동을 증폭시킵니다. 프롬프트는 컨텍스트 공유를 장려합니다. 파일 업로드는 더 풍부한 문제 해결을 지원합니다. 통합적 업무 흐름은 시스템 간 데이터 이동을 쉽게 만듭니다. Nudge Security의 연구에 따르면 프롬프트의 17퍼센트가 복사 및 붙여넣기 활동이나 파일 업로드를 포함합니다. 이러한 환경에서 민감한 자격 증명은 몇 초 만에 노출될 수 있습니다.

전통적 거버넌스는 행동적 위험을 놓친다

AI 거버넌스 프로그램은 종종 정책과 승인된 도구와 같은 형식적 통제에 초점을 맞춥니다. 이 접근 방식은 위험이 오용이나 모델 행동에서 비롯된다고 가정합니다. 실제로 가장 중요한 노출은 선의를 가진 직원들이 수행하는 일상 업무 흐름 중에 발생합니다. AI 환경은 빠르게 움직이며, 새로운 기술이 매일 출시됩니다. 직원들이 최신 도구를 찾을 때, 그들은 단순히 따라잡을 수 없기 때문에 네트워크 통제라는 전통적 접근 방식을 우회할 수 있습니다. 브라우저는 컨텍스트 행동에 대한 직접적인 관찰을 허용하며, 이는 현대 업무의 끊임없이 진화하는 환경을 따라잡는 데 필요한 유연성을 제공합니다. 이러한 단절은 조직이 강력한 정책을 시행할 수 있음에도 여전히 민감 데이터 노출을 경험할 수 있는 이유를 설명합니다. 정책은 기대치를 설정합니다. 행동이 결과를 결정합니다. 효과적인 거버넌스는 AI 도구가 실제로 어떻게 사용되는지에 대한 가시성과 데이터가 공유되는 순간 더 안전한 결정을 이끄는 가드레일이 필요합니다.

통합과 에이전트는 노출 범위를 확장한다

AI 도구의 위험 프로필은 그것이 액세스할 수 있는 것에 의해 형성됩니다. 통합은 시스템 간 신뢰할 수 있는 경로를 생성합니다. OAuth 권한 부여, API 토큰, 서비스 계정은 AI 도구가 문서를 검색하거나, 티켓을 업데이트하거나, 코드 저장소와 상호 작용할 수 있게 합니다. 기업 AI 도입에 대한 연구는 통합이 효과적으로 노출 범위를 정의한다는 점을 강조합니다. 잘못 구성된 권한이나 손상된 토큰은 신뢰할 수 있는 연결이 기계 속도로 데이터 이동을 가능하게 하기 때문에 전체 문서 저장소나 개발 환경을 노출시킬 수 있습니다. 에이전트 AI는 추가적인 복잡성을 도입합니다. 초기 배포는 종종 최소 권한보다 기능성을 우선시합니다. 실험 중 부여된 권한은 초기 사용 사례가 진화한 후에도 오랫동안 지속될 수 있습니다. 시간이 지남에 따라, 이러한 누적된 권한은 침묵하는 위험을 생성합니다. 보안 팀은 통합과 에이전트 권한을 일시적인 편의가 아닌 지속적인 액세스 결정으로 취급해야 합니다.

보안 팀이 지금 해야 할 일

AI 업무 흐름에서 비밀 노출을 줄이려면 반응적 통제에서 실제 업무가 어떻게 이루어지는지를 반영하는 거버넌스로의 변화가 필요합니다. 보안 리더는 생산성을 저하시키지 않으면서 가시성을 개선하고, 더 안전한 행동을 유도하며, 노출을 줄이는 실질적인 단계로 시작할 수 있습니다:

  • AI 상호 작용이 발생하는 위치를 매핑하라. 브라우저 확장 프로그램, 개발자 환경, 자동화 플랫폼, 채팅 인터페이스를 포함하여 데이터가 AI 도구로 유입되는 환경을 식별하라. 이러한 접점에 대한 지속적인 가시성은 효과적인 거버넌스의 기초를 제공한다.
  • 결정이 내려지는 순간에 개입하라. 자격 증명이나 민감한 아티팩트가 공유되려 할 때 사용자에게 경고하는 비밀 스캐닝, 수정 프롬프트, 적시 경고를 구현하라. 시의적절한 안내는 업무 흐름 속도를 유지하면서 우발적 노출을 줄인다.
  • 통합 거버넌스를 OAuth 앱과 동일한 엄격함으로 적용하라. 이메일, 문서, 티켓 시스템, 저장소에 연결된 AI 도구를 검토하라. 최소 권한 범위를 시행하고 주기적인 권한 검토를 수행하여 장기적 노출 위험을 줄인다.
  • 문제 해결 및 지원을 위한 더 안전한 업무 흐름을 생성하라. 팀이 라이브 자격 증명을 노출시키지 않고 문제 해결을 위해 AI를 사용할 수 있도록 로그나 구성 파일 분석을 위한 수정된 템플릿, 안전한 커넥터, 내부 도구를 제공하라.
  • 에이전트 기반 자동화를 위한 가드레일을 수립하라. 높은 영향력을 미치는 조치에 대해 인간의 승인을 요구하고, 에이전트 활동을 중앙에 기록하며, 범위가 지정된 액세스 토큰을 사용하여 권한 확산과 의도하지 않은 자동화를 방지하라.
  • 교육을 실제 업무 흐름에 기반을 두라. 통합 디버깅, 로그 검토, 파일 업로드와 같은 일반적인 작업을 반영할 때 교육이 가장 효과적이다. 실용적인 예시는 직원들이 위험이 발생하는 순간 이를 인식하는 데 도움을 준다.

이러한 조치들은 거버넌스를 일상 업무와 일치시켜, 조직이 AI 도입을 주도하는 생산성 향상을 지원하면서도 비밀 노출을 줄일 수 있게 합니다.

AI 정책에서 AI 행동 거버넌스로

AI는 생산성 도구에서 일상 업무에 짜여진 운영 계층으로 진화하고 있으며, 연구에 따르면 AI 에이전트가 이제 기업 업무 흐름 전반에 내재되어 있고, 상당수의 기업 애플리케이션 내에 작업별 에이전트가 존재할 것으로 예측됩니다. 도입이 심화됨에 따라, 지배적인 위험은 프라이버시 침해나 모델 오용을 넘어섭니다. 이는 실제 업무 흐름에서 사람, 권한, 플랫폼이 어떻게 교차하는지에서 발생합니다. AI 프롬프트에서의 비밀 노출은 이 더 광범위한 변화의 가시적 신호입니다. 이는 경계 기반 통제와 정책 중심 거버넌스의 한계를 강조하고, 결정이 내려지는 곳에서 작동하는 가드레일의 필요성을 강화합니다. 적응하는 조직들은 반응적 통제를 넘어 실제 행동에 기반한 거버넌스 모델로 나아갈 것입니다. 그들은 통합과 권한을 지속적인 액세스 관계로 취급할 것입니다. 그들은 정책 시행에만 의존하기보다는 행동의 순간에 직원들을 안내할 것입니다. AI는 현대 업무에서 도구에서 협력자로 이동하고 있습니다. 그 협업을 보호하려면 속도를 따라잡는 거버넌스가 필요하며, 이는 중요한 데이터를 보호하면서 더 안전한 결정을 유도하고 AI가 가능하게 하는 속도와 효율성을 유지합니다.

Russell Spitler is the co-founder and CEO of Nudge Security, the leader in SaaS and AI security governance. Russell has over 20 years of experience building products and startup companies that secure organizations worldwide. Before Nudge, Russell served in product, engineering, and strategy leadership roles at AT&T Cybersecurity, AlienVault (acquired by AT&T Cybersecurity), and Fortify Software. At AlienVault, he co-founded the Open Threat Exchange, the world’s largest open threat intelligence community with over 370,000 global participants today.