사상 리더
핵심은 AI가 아닌 데이터입니다

인공 지능은 기업에 너무 깊이 뿌리내려 거의 모든 운영이 어떤 식으로든 이 기술의 영향을 받고 있습니다. 그리고 AI 사용을 구체적으로 살펴보면, 조직들이 기존 시스템을 혁신하고 개선하기 위해 새로운 형태의 AI에 뛰어들고 있음을 볼 수 있습니다. 실제로, IT 리더들을 대상으로 한 최근 설문 조사에 따르면, 98%가 이미 에이전트 AI를 사용하여 GenAI 사용 사례를 조율하거나 가까운 미래에 그렇게 할 계획이라고 답했습니다. 지난 몇 년간 등장한 AI 도구와 기술의 폭발적 증가 속에서 AI 에이전트는 가장 인기 있는 기술 중 하나로 빠르게 자리 잡고 있습니다. 이러한 에이전트는 고객 경험과 지원 개선부터 내부 프로세스 자동화 또는 이미 사용 중인 기존 GenAI 모델 최적화에 이르기까지 조직이 무엇이든 할 수 있도록 돕습니다. 하지만 AI 에이전트와 AI 전반의 많은 이점을 전체 기업에 걸쳐 확장하는 것은 어려움이 따릅니다. 많은 조직이 대규모로 AI, 특히 AI 에이전트를 도입하는 데 어려움을 겪는 이유는 기술이 아닌 신뢰에 있습니다. AI 에이전트는 본질적으로 다양한 시스템을 가로지르며 작동합니다. 그 시스템들이 어디에 있든, 그것들은 대량의 고객 데이터, 의료 정보, 또는 은행 및 금융 데이터와 같은 매우 민감한 데이터에 의존할 가능성이 큽니다. 문제는 바로 여기에 있습니다. 적절한 데이터 개인정보 보호 및 보안 인프라 없이 방대한 양의 데이터를 어떤 AI 모델에나 끌어오는 것은 기업에 상당한 위험을 남깁니다. AI 모델의 출력 결과가 무엇이든, 그것을 훈련시킨 데이터를 신뢰할 수 있을 때만 가치가 있습니다. 하지만 단순히 데이터가 안전하게 보호되는지 확인하는 것 이상의 문제입니다. 특히 AI 에이전트의 경우, 이러한 모델이 작동하는 방식에 상당한 자율성이 관여합니다. 누가 데이터에 접근해야 하는지, 언제 접근해야 하는지, 어떻게 접근해야 하는지에 대한 이해를 에이전트가 갖추도록 하는 것이 신뢰를 구축하는 데 중요합니다. 그러나 데이터 개인정보 보호 문제를 극복하는 것은 불가능하지 않습니다. 올바른 데이터 정책, 메타데이터 거버넌스, API, 그리고 엔터프라이즈급 인증 프레임워크가 갖춰지면, 기업 IT 리더들은 AI를 구동하는 데이터가 안전하고 신뢰할 수 있도록 보장할 수 있습니다. 자세히 살펴보겠습니다.
데이터 개인정보 보호와 대규모 AI 필요성 균형 맞추기
AI 에이전트를 기업에 통합하는 더 넓은 목표 중 하나는 운영 및 시스템 전반의 워크플로를 간소화하는 것입니다. 하지만 아무런 안전 장치 없이 이를 수행하면 과정에서 민감한 데이터가 의도치 않게 노출될 수 있습니다. 데이터 유출과 악의적인 공격이 끊임없이 진화하는 시대에, 무단 사용자에게 노출되거나 접근되는 모든 데이터는 단지 AI 이니셔티브뿐만 아니라 전체 기업에 재앙을 초래할 수 있습니다. IBM에 따르면, 2025년 기준 데이터 유출의 평균 비용은 400만 달러 이상입니다. AI 도입은 빠르게 가속화되고 있으며, 기업 리더들이 더 많은 혁신, 더 깊은 통찰력, 새로운 성장 기회를 추구함에 따라 종종 거버넌스와 보안이 뒤처지곤 합니다. 하지만 AI 도입이 급증함에 따라, 규제 정책과 요구사항도 데이터가 안전하게 유지되도록 보장하기 위해 진화하고 있습니다. GDPR부터 CCPA, 그리고 HIIPA와 같은 오래된 정책에 이르기까지, 규제적 복잡성은 AI 에이전트 확장에 복잡한 도전 과제를 제기합니다. 방대한 양의 데이터를 필요로 하는 AI 도구는 제대로 통제되지 않을 경우 증가된 위험을 초대합니다. AI 모델이 이 모든 내부 시스템에 걸쳐 작동함에 따라, 민감한 데이터는 종종 이동되고 접근됩니다. 데이터와 관련하여 전 세계 규제 기관들은 개인정보 보호, 효과적인 거버넌스, 그리고 강력한 보안을 보장하는 데 더 큰 중점을 두고 있습니다. DORA와 같은 보다 최근의 정책(유럽 연합에서 운영하는 금융 서비스 회사들을 위한 ICT 위험 관리 지침)은 데이터의 기밀성, 무결성 또는 가용성에 영향을 미치는 사건을 포함한 ICT 사고 분류 및 보고를 명시적으로 요구합니다. 이 정책은 주로 운영 복원력에 중점을 두고 있지만, 그 영향은 AI 도입에도 미칩니다. AI 에이전트를 포함한 더 많은 AI 이니셔티브가 기업 규모로 데이터를 활용함에 따라, 무단 접근의 위험도 커집니다. AI 프로젝트가 데이터 손실 또는 노출을 초래할 경우, 이러한 규정들은 빠르게 관련성을 갖게 될 것입니다. 위험 부담이 너무 크기 때문에, 기업 조직들이 보안, 거버넌스, 데이터 접근이 얼마나 중요한지 잊지 않는 것이 중요합니다.
AI 에이전트를 구동할 기반 구축하기
기업들은 효과적인 거버넌스에 뿌리를 둔 기반을 구축해야 합니다. 이 기반에는 에이전트가 할 수 있는 일과 할 수 없는 일을 정의하는 확고한 안전 장치와 시행 가능한 규칙이 포함되어야 합니다. 이 기반의 핵심에는 데이터 거버넌스, 즉 조직 전반에서 데이터가 책임 있게 사용되는 방식을 관리하는 상위 수준의 정책, 표준 및 구조가 있습니다. 이러한 정책들은 에이전트가 제한된 데이터 세트에 접근하거나 인간의 감독 없이 프로세스를 시작하는 등 자신의 역할을 넘어서지 않도록 보장합니다. 강력한 데이터 거버넌스 정책을 구현하는 것은 몇 가지 핵심 사항으로 시작해야 합니다. 여기에는 책임과 소유권, 데이터 품질과 일관성, 보안과 개인정보 보호, 규정 준수와 감사 가능성, 투명성과 추적 가능성이 포함됩니다. 이러한 사항을 거버넌스의 기초로 삼으면, 기업 리더들은 의사 결정에 대한 더 큰 통제력, 데이터에 대한 더 큰 신뢰, 그리고 데이터 사일로로 인한 규제 위험 감소를 얻을 수 있습니다. 이는 메타데이터 관리, 데이터 분류, 계보 추적과 같은 기능을 활용하여 누가, 또는 어떤 AI 도구가 접근할 수 있는지에 대한 투명성과 가시성을 높임으로써 이루어집니다. 이러한 각 메커니즘은 기업이 데이터의 출처, 흐름, 변환 과정을 추적할 수 있게 합니다.
기술도 중요하지만, 신뢰가 최우선입니다
새로운 AI 모델이나 혁신이 등장할 때마다 도입률은 급증합니다. 하지만 어떤 AI 이니셔티브에도 위험이 나타납니다. 비록 항상 예상하는 곳에서 나타나는 것은 아니지만 말입니다. 새로운 도구 도입을 방해하는 기술적 도전이 항상 AI 통합이 느린 데 대한 주범은 아닙니다. 종종 그것은 데이터로 귀결됩니다. 구체적으로는 그 데이터에 대한 신뢰와 개인정보 보호에 대한 우려 때문입니다. AI가 너무 빠르게 발전하기 때문에, 접근 제어, 데이터 거버넌스, 계보 추적, 규정 준수와 같은 것들이 그 속도를 따라잡도록 보장하는 것이 때로는 어려울 수 있습니다. 거버넌스는 신뢰의 중요한 부분이지만, 효과적인 평가도 필요로 합니다. 특히 에이전트 AI 내에서는 표준화된 평가에 여전히 큰 격차가 있지만, 이러한 평가는 시스템이 안정적이고 안전하게 작동함을 입증하는 데 필수적입니다. 내부 시스템 성능을 최적화하거나, 사기 탐지를 개선하거나, 단순히 고객 경험을 더 매끄럽게 만들고자 하든, 최고의 AI 에이전트와 대규모 AI 이니셔티브는 모두 신뢰할 수 있는 데이터, 개인정보 보호, 보안을 기반으로 구축됩니다.












