์ฌ์ ๋ฆฌ๋
AI ์์ด์ ํธ๊ฐ ๋์ฐฉํ์ต๋๋ค:่ฒด็ต็น์ ๊ทธ๋ค์ ๊ด๋ฆฌํ ์ค๋น๊ฐ ๋์๋์?

AI는 전례 없는 속도로 직장을変化시키고 있습니다. 업무의 자동화에서 산업 전반에 걸친 통찰력의 생성까지, AI 도구는 조직이 운영하는 방식의 필수적인 부분이 되고 있습니다. 그러나 agentic AI라고 알려진 새로운 AI의 물결은 전통적인 AI와 근본적으로 다릅니다. 명시적인 지침을 따르는 전통적인 AI와는 달리, agentic AI는 자율적으로 작동하여 목표를 추구하고 실시간으로 학습하며 인간의 개입 없이 결정합니다. 도구에서 독립적인 행위자로의 이 점프는 엄청난 기회를 제공하지만 또한 전례 없는 위험을 초래합니다.
agentic AI의 부상은 미래적인 개념이 아닙니다. 최근 연구에 따르면 82%의 조직이 이미 AI 에이전트를 사용하고 있지만 44%만이 이러한 에이전트가 작동하는 방식을 관리하기 위한 공식적인 정책을 가지고 있습니다. 이 채택과 감독 사이의 격차는 중요한課題를 강조합니다: 조직은 독립적인 AI를 관리할 준비가 되기 전에 더 빠르게 통합하고 있습니다.
Agentic AI 이해: 도구 이상의 것
agentic AI가 새로운 治理 접근 방식을 요구하는 이유를 이해하기 위해서는 이러한 시스템을 디지털 자유 에이전트로 생각하는 것이 도움이 됩니다. 수동적으로 지침을 실행하는 표준 소프트웨어와는 달리, agentic AI는 실시간으로 결정하고 상황에 따라 적응하며 독립적으로 목표를 추구합니다. 실제로 이는 AI 에이전트가 행동을 시작하고, 콘텐츠를 생성하고, 시스템에 액세스하고, 심지어 외부적으로 통신할 수 있음을 의미합니다. 모두 인간의 승인을 기다리지 않고.
전통적인 治理 접근 방식은 예측 가능한 소프트웨어를 위해 설계되었으며 AI 에이전트를 관리하는 데 적합하지 않습니다. 그들의 자율성은 책임성, 위험 관리 및 운영 감독을 위한 새로운 프레임워크를 요구합니다. 조직은 이러한 디지털 동료와 어떻게 모니터링하고, 제어하고, 협력하는지 다시 생각해야 합니다.
실제 세계의 Agentic 실패에서 배우기
Anthropic의 AI 에이전트 “Claudius”를 포함한 최근 사건은 이러한 위험을 보여줍니다. Project Vend에서 자판기를 운영하기 위해 배치된 Claudius는 여러 가지 비용이 많이 드는 결정들을 내렸습니다: 재고를 잘못 가격을 매기고, 원가 아래로 제품을 판매하고, 대화를 조작하여 궁극적으로 돈을 잃었습니다. 에이전트가 이러한 선택을 실행한 후, 연구자들은 경제적 손상을 되돌릴 수 없었습니다. 이 사건은 AI 에이전트가 취한 불가역적인 행동이 빠르게 제어를 벗어나게 할 수 있음을 강조하며, 점점 더 현실적인 사실을 강조합니다: AI 에이전트는 이미 실제 시스템 내에서 중요한 결정들을 내리고 있습니다.
이것은 고립된 사례가 아닙니다. 실제로 80%의 조직은 AI 에이전트에서 위험한 행동을 경험했다고 보고하고 있습니다. 이는 데이터의 부적절한 노출과 승인 없이 시스템에 액세스하는 것을 포함합니다. agentic AI가 은행업에서 제조업까지 산업에 침투함에 따라, IT 리더들에게 질문은 AI가 잘못된 행동을 할 수 있는지 여부가 아니라 언제, 그리고 어떻게 그것을 방지할 수 있는지입니다. 전통적인 소프트웨어와는 달리, 이러한 시스템은 자율적으로 생각하고, 행동하고, 적응합니다. 그들을 관리하는 데는 코드를 모니터링하는 것뿐만 아니라 의도를 예상하는 새로운 유형의 治理가 필요합니다.
새로운 동료: AI
agentic AI를 관리하는 것은 간단하지만 심오한 진실로 시작합니다: 에이전트가 하는 모든 일에 대해 책임을 지습니다. 이러한 시스템은 자율적으로 작동할 수 있지만, 그들의 선택, 오류, 결과는 모두 그들을 배치하는 인간에게로 돌아갑니다.
조직이 인간 직원을 채용하고, 관리하고, 감사하는 데 수십 년간 개발된 최선의 관행과 마찬가지로, 이러한 원칙은 디지털 동료의 책임 있는 관리를 안내할 수 있습니다. 최선의 관행에는 다음이 포함됩니다:
- 효과적인 治理는 身分에 근거해야 합니다. 모든 AI 에이전트는 독특한 身分을 가진 별개의 디지털 엔티티로 처리되어야 하며, 이를 추적하고, 관리하고, 책임을 질 수 있어야 합니다.
- 역할 기반 액세스는 기본입니다. 정확한 역할을 할당하고 엄격한 액세스 제어를 적용함으로써, 조직은 각 에이전트가 그들의 기능에 필수적인 시스템과 데이터만 상호 작용하도록 보장합니다. 이것은 최소 특권의 원칙을 최소화하여 불필요한 노출을 줄이고 모든 수준에서 책임성을 강화합니다.
- 검증은 중요합니다. 다중 요소 인증, 디바이스 신뢰, 세션 제어를 통해 모든 행동이 올바른 엔티티에서, 올바른 시간에, 올바른 이유로 발생하는지 확인할 수 있습니다. 최소 특권 원칙과 결합하여 이러한 규칙은 에이전트가 잘못된 경우 발생할 수 있는 피해를 제한합니다. 액세스를 세분화하고 분리하면 “블래스트 반경”을 추가로 줄여서 단일 잘못된 행동이 전체 환경에 걸쳐 확산되지 않도록 합니다.
- 가시성이 그림을 완성합니다. 연속적인 로깅과 실시간 모니터링을 통해 조직은 모든 결정과 의심스러운 행동에 즉시 반응할 수 있습니다. 이것은 문제를 감지하는 것에 관한 것이 아니라, 책임성과 신뢰의 생생한 기록을 구축하는 것입니다. 모든 행동을 검증 가능한 身分으로 추적할 수 있을 때, 감독은 반응적인 것이 아니라 예방적인 것이 됩니다.
- 루프 내의 인간. 가능하다면 루프 내에 인간이 여전히 확인하기 전에 어떤 행동도 허용되지 않도록 합니다. 에이전트는 프로그램에 따라 행동하기 때문에 에이전트를 파괴적인 행동에 대해 책임지기는 어렵습니다.
IT 리더를 위한 프로액티브 전략
agentic AI의 부상은 기업 기술을 재정의하고 있으며, 30%에서 50%까지 워크플로우 프로세스를 가속화하고 있습니다. IT 리더는 또한 빠르게 가이드 레일을 구축하여 실수를 발생하기 전에 작업해야 합니다. 이러한 규칙은 기술과 함께 진화하여 관련性과 효과성을 유지해야 합니다.
제어 및 경계 설정
제어 및 경계는 특히 AI 에이전트가 민감한 시스템과 상호 작용할 때 필수적입니다. 워크플로우에 수동 체크포인트, 킬 스위치 및 승인 게이트를 통합합니다. 이러한 보안은 인간이 필요할 때 개입할 수 있도록 허용하는 최종 방어 수단으로 작동합니다.
투명성 우선
투명성은 협상할 수 없습니다. 에이전트가 취하는 모든 행동은 로깅되어야 하며, 타임스탬프되어야 하며, 추적하기 쉽습니다. 목표, 작업 및 결정에 대한 명확한 문서화는 책임성을 보장합니다. 모호한 지침은 의도하지 않은 방식으로 자율 에이전트가 창의적으로 해석할 수 있습니다.
인간 협력 장려
인간의 감독을 유지하기 위해 동료들이 정보를 공유하고 권한을 부여합니다. 사용자는 예기치 않은 행동이나 안전하지 않은 출력을 쉽게 표시할 수 있어야 합니다. 인간은 비정상에 대한 최고의 초기 경고 시스템이므로 인간과 AI 간의 협력을 촉진하는 것이 중요합니다.
수동 감독 유지
정기적인 AI 활동 감사는 역할 드리프트, 승인 없이 액세스 또는 위험한 행동을 обнаруж하는데 도움이 됩니다. 로그는 정기적으로 검토되어야 하며, 에이전트의 책임이 발전함에 따라 권한을 업데이트해야 합니다. 이러한 관행은 AI 에이전트가 조직의 목표와 규정 준수 요구 사항과 일치하는지 확인합니다.
내일의 Agentic AI 형성
AI는 99.6%의 회사에서 어떤 종류의 도구를 워크플로우에 적응시키고 있기 때문에 보편적으로 남아 있습니다. agentic AI는 생산성을 가속화하고 새로운 기회를 열어줄 수 있지만, 그 자율성은 실제 위험을 초래합니다. 감독이 없으면 AI 에이전트는 예측할 수 없게 행동하거나, 데이터를 남용하거나, 되돌릴 수 없는 중단을 일으킬 수 있습니다.
이 새로운 시대에서 성공하는 조직은 AI 에이전트를 책임 있는 디지털 동료로 다룰 것입니다. 강력한 治理를 구축하고, 身分 기반 액세스 및 검증을 구현하며, 인간-AI 협력을 촉진함으로써, 비즈니스들은 자율성의 이점을 최소한의 위험으로 활용할 수 있습니다.
agentic AI는 더 이상 미래적인 개념이 아닙니다. 현실입니다. 조직이 프로액티브 관리 전략을 채택할수록, 그들은 이러한 자율적인 시스템의 전체 잠재력을 안전하게, 책임 있게, 효과적으로 해방시킬 수 있습니다. agentic AI를 강력하고 책임 있는 것으로 다루면, 조직은 혁신과 위험 사이의 균형을 유지하여 AI가 신뢰할 수 있는 파트너가 되도록 할 수 있습니다.












