Connect with us

Shadow AI: ์กฐ์ง์ด ๋ฌด์‹œํ•  ์ˆ˜ ์—†๋Š” ๊ฑฐ๋ฒ„๋„Œ์Šค ๊ฒฉ์ฐจ

์‚ฌ์ƒ ๋ฆฌ๋”

Shadow AI: ์กฐ์ง์ด ๋ฌด์‹œํ•  ์ˆ˜ ์—†๋Š” ๊ฑฐ๋ฒ„๋„Œ์Šค ๊ฒฉ์ฐจ

mm
A female executive looks out a high-rise office window at night where a glowing, interconnected digital network of

이 시점에서 AI 여정에서 비즈니스 리더들은 광범위하게 AI 거버넌스의 중요성을 인식합니다. 그러나 조직이 정책과 가드레일을 개발하는 속도는 직원들이 일상 업무에 AI를 채택하고 통합하는 속도에 비해 뒤처지고 있습니다.

조직이 거버넌스 프레임워크가 “완전”하게 느껴질 때까지 기다렸다가 AI를 활성화하는 것은 어려운 현실을 직면해야 합니다. 명확한 규칙이 없으면 직원들이 그 경계를 스스로 정의할 것입니다. 그리고 그 결정은 조직 표준, 위험 감수 또는 규제 의무와 직접적으로 충돌할 수 있습니다.

이 거버넌스 격차는 많은 조직 내에서 Shadow AI가 기본 운영 모델이 되도록 만들었습니다.

광범위하고 증가하는 문제

Shadow AI는 개인 기여자가 주변에서 실험하는 것만으로 제한되지 않습니다. 그것은 리더십을 포함하여 조직 전체에 걸쳐 확장됩니다. AI가 일상 업무 워크플로에 내장됨에 따라 심지어 고위 의사 결정자도 공식 승인 프로세스를 우회하여 그 이점을 캡처합니다. 실제로, 최근 연구에 따르면 68%의 보안 리더, 포함 CISO,는 워크플로에 일부 정도의 승인되지 않은 AI를 통합한다는 것을 인정합니다.

동시에 79%의 IT 리더는 보고 bahwa 그들의 조직은 이미 AI 도구와 기업 데이터를 공유하는 부정적인 결과를 경험했다고 보고합니다. 그리고 분석가들은 이 문제가 심화할 것이라고 예측합니다. Gartner는 2030년까지 40% 이상의 조직이 승인되지 않은 AI 도구를 사용하여 보안 또는 규정 준수 사고를 경험할 것이라고 추정합니다.

확장되는 위험 표면

Shadow AI는 다음과 같은 광범위한 위험을 제시합니다:

  • 데이터 제어의 손실 및 잠재적인 데이터 누출
  • 보안 취약성 및 공격 표면의 확장
  • 규정 준수 및 규제 노출
  • AI가 어떻게 사용되는지에 대한 가시성의 부족
  • 지적 재산권의 손실
  • 평판 손상
  • 부정확하거나 편향된 출력

이러한 위험의 주요 원인은 AI 시스템이 데이터를 처리하는 방식에 대한 근본적인 오해입니다.

많은 직원들은 “무료” 도구, 특히 로그인 자격 증명이 필요하지 않은 도구를 사용하면 익명성 또는 보호를 제공한다고 가정합니다. 그러나 실제로 이러한 도구는 사용자 입력을 사용하여 모델을 훈련하고 개선하며 경우에 따라 데이터를 제3자와 공유합니다. 그 데이터에는 개인 식별 정보(PPI), 의료 또는 법적 데이터, 금융 기록, 지적 재산권 및 기타 기밀 비즈니스 정보와 같은高度 민감한 정보가 포함될 수 있습니다.

さらに, 인식이 항상 행동을 변경하지는 않습니다. 연구에 따르면 38%의 직원들은 조직의 승인 없이 AI 도구와 민감한 정보를 공유한다는 것을 알고 있습니다.

Shadow AI가 지속되는 이유

Shadow AI를 효과적으로 해결하려면 조직은 먼저 그根本적인 원인을 이해해야 합니다.

대부분의 경우, 직원들은 악의적인 의도를 가지고 있지 않습니다. 그들은 환경에 합리적으로 대응하고 있습니다. 그들은 더 빠르게 움직이기, 더 적은 것으로 더 많은 것을 수행하기, 더 나은 결과를 제공하기 위해 압력을 받고 있습니다. AI는 모든 것을 가능하게 합니다.

Shadow AI는 조직 시스템이 이러한 기대에 따라 가지 못할 때 나타납니다. 일반적인 원인에는 다음이 포함됩니다:

  • 작업장에서 AI 도구에 대한 엄격한 금지
  • 승인된 도구가 덜 능숙하거나 사용자 친화적이지 않은 경우
  • 적극적인 마감일을 충족하기 위한 압력
  • 느리거나 복잡한 조달 프로세스
  • 불분명한, 일관되지 않은 또는 존재하지 않는 정책
  • 제한된 훈련 또는 지침
  • 개인 판단에 대한 과한 자신감 또는 위험의 과소평가

본질적으로, Shadow AI는 트레이드오프입니다. 인식된 생산성 이익이 인식된 위험을 초과하는 경우 직원들은 항상 속도와 효율성을 선택할 것입니다.

혁신을 억제하지 않고 AI를 관리

직원들은 이미 AI를 사용하고 있습니다. 이 사실을 무시하거나 행동을 지연시키면 정책과 관행 사이의 격차가 더 커질 뿐입니다.

조직은 통제에서 활성화로 접근 방식을 전환해야 합니다.

그것은 명확한, 실제적이고 투명한 지침을 설정하는 것으로 시작합니다. 초기 가드레일은 방향을 제공하고, 모호성을 줄이고, 사용에 대한 공유된 이해를 생성합니다.

그러나 정책만으로는 충분하지 않습니다. 조직은 가시성이 필요합니다. 이것은 직원들이 안전하게 사용 중인 도구와 이유를 공개할 수 있는 신뢰 기반 메커니즘을 구축하는 것을 필요로 합니다. “Shadow AI 사면” 기간이나 익명 보고와 같은 접근 방식은 즉시 행동을 처벌하지 않고도 중요한 통찰력을 제공할 수 있습니다.

동시에, 조직은 책임을 유지해야 합니다. 데이터 노출이重大하거나 과실적인 경우, 결과는 여전히 필요할 수 있습니다. 목표는 위험을 완전히 제거하는 것이 아니라, 지능적으로 관리하는 것입니다.

Shadow에서 전략으로

Shadow AI는 혁신이 이를 포함하기 위한 조직 구조보다 더 빠르게 진행되고 있음을 나타냅니다.

조직은 기다릴 수 없습니다. 지금 거버넌스를 설정하는 것은, 완전하지 않더라도, 위험을 줄이고 가시성을 다시 얻는 데 중요합니다. 그러나 거버넌스만으로는 충분하지 않습니다. 명확한 가드레일은 활성화, 교육 및 사용자들이 AI를 안전하게 효과적으로 사용할 수 있는 접근 가능한 대안과 함께 짝지어야 합니다.

목표는 AI 채택을 제한하는 것이 아니라, 그것을 형성하는 것입니다. 조직이 그 균형을 맞출 때, Shadow AI는 숨겨진 책임에서 관리되는 전략적 능력으로 전환됩니다. 그렇게 함으로써, 그들은 AI가 사용되는 방식과 사용되어야 하는 방식 사이의 격차를 닫을 수 있습니다.

๋ฆฌ๋‚˜ ๋‹คะฑะธั‚์€ Optiv ์บ๋‚˜๋‹ค์—์„œ 30๋…„ ์ด์ƒ์˜ ์šด์˜ ๋ฐ ์ „๋žต์  ๋ฆฌ๋”์‹ญ ๊ฒฝํ—˜์„ ๊ฐ€์ง€๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ๋‹คะฑะธั‚์€ ๋‹ค์–‘ํ•œ ๋ณด์•ˆ ์ „๋ฌธ ์ง€์‹์„ ํ™œ์šฉํ•˜์—ฌ ์กฐ์ง์ด ์œ„ํ˜‘ ์ธํ…”๋ฆฌ์ „์Šค, ์ œ3์ž ์œ„ํ—˜ ๊ด€๋ฆฌ ๋ฐ ๊ต์ฐจ ๊ธฐ๋Šฅ ๋ณด์•ˆ ๋ณต์›๋ ฅ์— ๋Œ€ํ•œ ํ”„๋กœ์•กํ‹ฐ๋ธŒ ์ ‘๊ทผ ๋ฐฉ์‹์„ ์ทจํ•  ์ˆ˜ ์žˆ๋„๋ก ํ•ฉ๋‹ˆ๋‹ค. ๋‹คะฑะธั‚์€ ๋ณดํ˜ธ ์ž‘์ „,็ทŠๆ€ฅ ๊ณ„ํš, ์œ„ํ˜‘ ์ธํ…”๋ฆฌ์ „์Šค ๋ฐ ๊ตญ์ œ ์ „์ˆ  ์ž‘์ „์— ๋Œ€ํ•œ ์—ฌ๋Ÿฌ ๋ถ„์•ผ์—์„œ ํŒ€์„ ์ด๋Œ์—ˆ์Šต๋‹ˆ๋‹ค.

๋กœ์—ด ์บ๋‚˜๋‹ค ๋งˆ์šดํ‹ฐ๋“œ ๊ฒฝ์ฐฐ์—์„œ ์€ํ‡ดํ•˜๊ธฐ ์ „์— ๋‹คะฑะธั‚์€ ํ† ๋ก ํ†  ์‚ฌ์ด๋ฒ„ ๋ฒ”์ฃ„ ์ˆ˜์‚ฌ ํŒ€์˜ ์ง€ํœ˜๊ด€์œผ๋กœ์„œ ์ž‘์ „์„ ์ตœ์ ํ™”ํ•˜๊ณ  ํšจ์œจ์ ์ด๊ณ  ํ™•์žฅ ๊ฐ€๋Šฅํ•œ ์›Œํฌํ”Œ๋กœ๋ฅผ ๊ตฌ์ถ•ํ•˜๊ธฐ ์œ„ํ•œ ์ „๋žต์  ์ด๋‹ˆ์…”ํ‹ฐ๋ธŒ๋ฅผ ์„ค๊ณ„, ๊ตฌํ˜„ ๋ฐ ์ง€์‹œํ–ˆ์œผ๋ฉฐ ์—ฌ๋Ÿฌ ๊ณ ์œ„๊ธ‰ ์‚ฌ์ด๋ฒ„ ๋ฒ”์ฃ„ ์ˆ˜์‚ฌ์—์„œ ํŒ€์„ ์ด๋Œ์—ˆ์Šต๋‹ˆ๋‹ค.