์ฌ์ ๋ฆฌ๋
์ ๊ฑฐ๋ฒ๋์ค AI๋ ์ง์ฅ์ ๋ค์ ์ ์ ์ธ๊ฐ?

우리는 10년 동안 그림자 IT와 싸웠다. 승인되지 않은 SaaS 앱. 유령 스프레드시트. 승인되지 않은 Dropbox 계정. IT 리더들은 이 문제를 중심으로 전체 컴플라이언스 프로그램을 구축했으며, 대부분의 경우 여전히 패배했다. Reco AI의 2025 그림자 AI 보고서는 평균 기업 내의 47%의 SaaS 애플리케이션만이 공식적으로 승인되었으며, 평균 조직은 현재 490개의 애플리케이션을 관리하고 있다고 발견했다.
그것은 옛 문제였다. 새로운 문제는 더 심각하다.
그림자 AI 문제는 이번에는 다르다
사원이 승인되지 않은 프로젝트 관리 도구에 가입할 때, 손상은 제한된다. 팀의 작업이 잘못된 곳에 있다. 아마 일부 데이터가 유출될 수 있다. 데이터 유출 유형은 비교적 예측 가능하다.
AI는 다르다. 직원들은 이제 고객 커뮤니케이션을 작성하기 위해, 재무 보고서를 생성하기 위해, 기밀 회의를 요약하기 위해, 자동화된 워크플로를 구축하기 위해 AI 도구를 사용하고 있으며, 종종 누구에게도 말하지 않는다. Microsoft의 2024 워크 트렌드 지수는 78%의 AI 사용자가 작업에 자신의 AI 도구를 가져온다고 발견했다. 그들이 어려움을 일으키거나 악의적이라고 생각해서가 아니라, 도구가真正로 유용하고, 그들이 성과를 더 잘 수행할 압력을 느끼기 때문이다. 그러나 그들의 조직은 프로세스, 절차 및 도구를 제공하기에 너무 느리다.
여기서 출력은 문제이다. AI 도구가 고객 계약을 초안으로 작성하거나, 법적 통화를 요약하거나, 분기별 이사회 보고서를 생성할 때, 위험은 단지 “우리가 어떤 도구를 사용했는지 모른다”는 것이 아니다. 그것은 데이터 관행, 정확성, 결정-making이 포함된 출력이 조직에 완전히 보이지 않는다는 것이다.誰도 프롬프트를 검토하지 않았다. 누구도 결과를 검증하지 않았다. 누구도 그것이 발생했다는 것을 알지 못했다. 그리고 AI가 इतन 자신감 있게 보이기 때문에, 대부분의 사용자는 출처를 교차 확인하지 않고 결과를 맹목적으로 수용할 것이다.
KPMG의 2025 그림자 AI 분석에 따르면, 작업에서 AI를 사용하는 직원의 44%가 회사 정책 및 지침에 위배하는 방식으로 그렇게 했다. 그것은 주변 행동이 아니다. 그것은 거의 반의 노동력이다.
자율 에이전트가 이것을 더 어렵게 만들고 더好的 이유
여기서 대화가 흥미롭게 된다. 우리는 더 이상 직원이 ChatGPT에 텍스트를 붙여 넣는 것에 대해 이야기하지 않는다. 우리는 AI 에이전트의 시대, 즉 연속적으로 실행할 수 있는 자율 시스템, 기업 도구에 연결할 수 있는 시스템, 인간의 개입 없이 결정할 수 있는 시스템의 시대에 진입하고 있다.
Deloitte의 2025 테크 트렌드 보고서는 이것을 “실리콘 기반 워크포스”로의 전환으로 설명하며, 많은 초기 에이전트 AI 구현이 인간을 위한 기존 프로세스를 자동화하려고 시도하는 조직에서 실패한다고 지적한다.
이것은 갈림길이다. 자율 AI는 두 가지 방향으로 갈 수 있다;
첫 번째 경로: 더 많은 그림자 IT, 하지만 더 나쁨. 직원들은 개인 계정을 사용하여 에이전트를 실행하고, 회사 IT에 연결하고, 개인 API 키를 통해 회사 도구에 연결하고, 팀의 다른 구성원이 볼 수 없고, 감사할 수 없고, 재현할 수 없는 출력을 생성한다. 에이전트는 일일 보고서를 실행한다. 보고서가 잘못되었다. 몇 주 동안誰도 그것을 잡지 못했다. 왜냐하면 그것이 존재한다는 것을誰도 알지 못했기 때문이다. 이것은 가상적인 것이 아니다. 지금 조직에서 일어나고 있다. AI 채택을 개인 생산성 놀이로 취급하는 조직에서.
두 번째 경로: 거버넌스 자율성. 같은 에이전트가 같은 일일 보고서를 실행하지만, 팀이 그것이 무엇을 하는지, 어떤 데이터를触している지,誰가 설정했는지, 무엇을 생성했는지 볼 수 있는 환경에서. 에이전트는 공유된다, 시로되지 않는다. 출력은 보인다. 권한은 범위가 지정된다. 그리고何か가 잘못되면, 경로가 있다.
두 경로 사이의 차이는 기술이 아니다. 그것은 환경이다.
실제로 거버넌스 AI는 어떻게 작동하는가
거버넌스는 일반적으로 빌더가 움찔하는 단어이다. 그것은 일반적으로 “느리다”를 의미한다. 더 많은 승인. 더 많은 프로세스. 작업을 수행하는 사람들과 위험을 관리하는 사람들 사이에 더 많은 마찰.
그러나 거버넌스 AI는 그렇게 작동할 필요가 없다. 내가 본 가장好的 구현은 몇 가지 특징을 공유한다;
기본적으로 보이는 것. 모든 AI 생성 출력, 모든 보고서, 모든 경고, 모든 초안은 팀에게 보인다, 개인 채팅 기록에 묻혀 있지 않는다. 이것은 감시와 관련이 없다. 그것은 공유된 컨텍스트와 관련이 있다. 에이전트가 주간 경쟁 분석을 생성할 때, 전체 팀이 그것을 볼 수 있어야 한다, 질문할 수 있어야 한다, 그리고 그것을 기반으로 할 수 있어야 한다.
범위가 지정된 권한, 전체 액세스가 아니다. 오류 로그를 모니터링하는 에이전트는 CRM에 액세스할 필요가 없다. 소셜 콘텐츠를 작성하는 에이전트는 재무 데이터에 액세스할 필요가 없다. 최소 권한의 원칙은 새로운 것이 아니다. 그것은 단지 AI 시스템에 적용되지 않는다 — 그리고 그것이 应該한다.
경로가 실제로 존재하는 감사 기록. McKinsey의 에이전트 AI 보안 플레이북은 자율 에이전트가 “주의와 행동이 지금 필요하는 새로운 및 복잡한 위험 및 취약성의 배열”을 제시한다고 강조한다. 가장 기본적인 것 중 하나는, 에이전트가 무엇을 했는지, 어떤 데이터에 액세스했는지, 어떤 결정했는지 추적할 수 없다면, 그것을 거버넌스할 수 없다. 풀 스톱.
팀 수준의 제어, 단지 IT 수준의 제어가 아니다. 이것은 대부분의 거버넌스 프레임워크가 잘못된 부분이다. 그것은 모든 AI 제어를 IT 또는 보안에 중앙화한다, 이는 그림자 AI를 유발하는 정確한 병목현상을 생성한다. 올바르게 구현하는 조직은 팀 수준으로 제어를 푸시하고 있다 — 팀 매니저와 팀 리드가 사용하는 에이전트를 구성하고, 범위를 지정하고, 모니터링할 수 있게 하면서, IT가 설정하고 미세하게 관리할 수 있는 가이드를 제공한다.
조직이 올바르게 구현하는 곳
AI 에이전트를 잘 배치하는 회사들은 가장 복잡한 모델을 가진 것이 아니다. 그것은 가장 명확한 운영 경계를 가진 것이다.
나는 세 가지 분야에서 가장 강력한 결과를 보이고 있다;
보고서 및 모니터링. 일일 스탠드업, 주간 지표 요약, 오류 로그 요약을 실행하고 팀 채널에 직접 전달하는 에이전트. 여기서의 가치는 자동화뿐만 아니라 일관성이다. 보고서가 매일 아침 실행된다, 누군가 데이터를 가져오는지 기억하지 못하더라도. 그리고 그것이 팀에게 보이기 때문에, 오류는 더 빠르게 잡힌다.
콘텐츠 및 커뮤니케이션 워크플로우. 출판이 아닌 초안 작성. 내부 업데이트, 회의 요약 또는 아웃바운드 콘텐츠의 첫 번째 초안을 생성하고 인간의 검토를 위해 그것을 표면화하는 에이전트. 여기서 거버넌스 조각이 중요하다, 왜냐하면 고객에게 전달되는 출력의 품질 바가 내부 슬랙 채널에 전달되는 출력의 품질 바와 다르기 때문이다.
분석 및 경고. 대시보드를 감시하고, 메트릭이 예상 범위 밖으로 벗어날 때 경고를 보내는 에이전트. 이것은 모든 팀이เคย 겪었던 “누군가 이것을看着 있어야 한다” 문제를 대체한다, 즉 생산 문제가 주말 동안 chú ý되지 않은 경우.
대부분의 조직이 여전히 잘못하는 것
가장 큰 실수는 AI 거버넌스를 정책 문제로 취급하는 것이 아니라, 인프라 문제로 취급하는 것이다.
당신은 사용 가능한 모든 정책을 작성할 수 있다. 그러나 직원이 승인된, 쉽게 사용할 수 있는 환경에서 AI를 배포할 수 있는 실제로 작동하는 환경이 없다면, 그들은 정책을 우회할 것이다. 그것은 사람 문제가 아니다. 그것은 디자인 문제이다.
IDC의 그림자 AI 분석은 이 점을 명확히 한다: 스텔스 생산성은 “기업 AI 채택을 조르며, 보안 악몽을 생성한다” 왜냐하면 조직은 이익을 원하지만, 위험을 두려워하기 때문이다. 결과는 무위이다 — 이는 최악의 결과이다, 왜냐하면 그것은 제어되지 않은 채택을 보장하기 때문이다.
두 번째 실수는 거버넌스와 속도를 반대하는 것으로 취급하는 것이다. 그것들은 반대가 아니다. 가장 잘 거버넌스된 AI 환경은 또한 가장 빠른 환경이다 — 왜냐하면 팀이 이미 존재하는 작업을 재창조하거나, 볼 수 없는 에이전트를 디버깅하거나, 개인 AI 계정이 회사에서 떠난 경우 개인 AI 계정과 함께 깨진 워크플로를 재건축하는 시간을 보내지 않기 때문이다.
전선은 모델이 아니라 환경이다
산업의 주목은 모델 능력에 고정되어 있다. 더 큰 컨텍스트 창. 더好的 추론. 멀티모달 입력. 그것들이 중요하다. 그러나 대부분의 팀이 작업을 수행하려고 할 때, 병목 현상은 모델이 아니다. 그것은 모델이 실행되는 환경이다.
팀이 그것이 하는 일을 볼 수 있나? 그것이 액세스하는 것을 제어할 수 있나? 그것이 생성하는 것을 공유할 수 있나? 그것이 올바른 데이터와 올바른 제약 조건으로 작동하는지 신뢰할 수 있나?
그것들은 인프라 질문이다, 모델 질문이 아니다. 그리고 그것들이 조직이 실제로 지속 가능한 가치를 얻는 조직과 단지 그림자 IT의 또 다른 계층을 추가하는 조직을 구분할 것이다.
전선은 더智能한 모델을 구축하는 것이 아니다. 그것은智能한 모델이 실제로 작동할 수 있는 환경을 구축하는 것이다.












