Connect with us

AI ์—์ด์ „ํŠธ๋ฅผ ์„ค๊ณ„๋กœ ์‹ ๋ขฐํ•  ์ˆ˜ ์žˆ๊ฒŒ ๋งŒ๋“ค๊ธฐ, ์šฐ์—ฐํžˆ ๊ทธ๋Ÿฐ ๊ฒƒ์ด ์•„๋‹˜

์‚ฌ์ƒ ๋ฆฌ๋”

AI ์—์ด์ „ํŠธ๋ฅผ ์„ค๊ณ„๋กœ ์‹ ๋ขฐํ•  ์ˆ˜ ์žˆ๊ฒŒ ๋งŒ๋“ค๊ธฐ, ์šฐ์—ฐํžˆ ๊ทธ๋Ÿฐ ๊ฒƒ์ด ์•„๋‹˜

mm
A photorealistic widescreen image of a compliance team overseeing an AI

에이전틱 AI는 큰 소동을 벌이며 등장하는 것이 아니라 일상적인 작업으로 서서히 들어옵니다. 인간의 지시를 기다리며闲한 시스템은 이제 주도적으로 행동합니다. 이러한 진화는 이미 조직 내에서 발생하고 있지만 AI 治理에 대한 대화는 이전 시대에 머물러 있습니다. 우리의 법과 조직 구조는 자율적이고 비인간적인 행위자를 염두에 두고 설계되지 않았습니다. GDPR에 따라 규제되는 회사에서는 이것이 이론적인 문제가 아니라 실질적인 운영적인 도전입니다. 그리고 대부분의 컴플라이언스 팀이 편안하게 처리할 수 있는 속도보다 더 빠르게 진행되고 있습니다.

AI 도구가 대화하기 시작할 때

治理에 대해 논의할 때, 주목하는 것은 일반적으로 컴플라이언스, 리스크 관리, 그리고 피해를 방지하는 것입니다. 이러한 것들은 매우 중요하지만, AI가 대부분 정적인 세계에서 만들어졌습니다. 훈련, 테스트, 릴리즈, 그리고 예측 가능한 주기에 따라 모니터링되었습니다.

AI 에이전트가 의사결정 과정에 통합됨에 따라, 중앙 도전은 이제 행동과 신뢰에 관한 것입니다. 경영진은 “시스템이 행동할 수 있는 경우 어떻게 신뢰할 수 있게 할 수 있을까?”라고 자신에게 물어봐야 합니다. 신뢰는 설계 선택으로 의도적으로 만들어야 하며, 설득을 통해 엔지니어링되어서는 안 됩니다. GDPR 지침을 따르는 조직은 컴플라이언스가 중요하며 법적 결과를 초래한다는 것을 이해합니다.

에이전틱 AI가 오늘의 GDPR 가정에 미치는 세 가지 영향

GDPR가 설계될 때, 자율적 에이전트를 위해 작성된 것은 아니었습니다. 그러나 GDPR의 세 가지 핵심 원칙 – 목적 제한, 데이터 최소화, 투명성 및 책임성 -은 중요합니다. 에이전틱 AI는 새로운 방식으로 각 영향을 미치며, 세 가지 주요 영역이 해결되어야 합니다.

첫 번째 위험은 AI 에이전트가 작업을 “생각하는” 방식입니다. 하나의 고정된 프로세스를 실행하는 대신, 작업을 많은 작은 단계로 나누고, 외부 도구를 호출하고, 데이터베이스에서 가져오고, 추측하고, 그 과정에서 개인 데이터를 처리합니다. 이러한 대부분은 시야에서 벗어납니다. 어떤 데이터가 사용되었는지, 어느 단계에서, 그리고 어떤 이유로 사용되었는지 정확히 파악하는 것은 실제로 어려운 일입니다. 그러나 이것은 정확히 GDPR가 기대하는 투명성과 책임성입니다.

두 번째 위험은 에이전트가 메모리를 사용하는 방식입니다. 에이전트는 작업을 완료하는 동안 단기 메모리에 개인 데이터를 보유할 수 있으며, 여러 세션에 걸쳐 장기 메모리에 데이터를 보유할 수 있습니다. 메모리가仔細하게 분리되지 않으면, 한 사람의 상호작용에서 정보가 다른 사람의 상호작용으로泄露될 수 있습니다. 만약 명확한 보존 제한을 적용하지 않으면, 개인 데이터는 삭제되어야 할 때보다 오래 남아있을 수 있습니다. GDPR의 삭제 권한에 따라, 에이전트의 메모리 내부에 데이터가 숨겨져 있는 경우, 개인 정보 팀이 쉽게 찾고 쿼리할 수 있는 데이터베이스에 데이터가 있는 경우보다 관리하기가 훨씬 더 어려워집니다.

세 번째 위험은 프롬프트 주입 – 본질적으로, 에이전트를 속이는 것입니다. 에이전트가 문서를 읽거나 웹을 브라우징하거나 들어오는 메시지를 처리할 때, 이러한 출처中的 악의적인 콘텐츠는 에이전트의 행동을 탈취하여 개인 데이터를泄露하거나 조직이 승인하지 않은 행동을 수행하도록 유도할 수 있습니다. 이것은 에이전틱 시스템에 특有的 알려진 공격 패턴입니다. 따라서 핵심 시스템이 해킹된 것이 아니라, AI 에이전트가 작업을 수행하는 동안 호스트 콘텐츠를 만났기 때문에 데이터 침해를 겪을 수 있습니다. 그리고 GDPR에 따라, 귀하는 여전히 책임을 집니다.

진정한 신뢰를 구축하기, 단순히 친절한 인터페이스가 아닌

엔지니어링된 신뢰와 획득된 신뢰 사이에 차이가 있다는 것을 이해하는 것이 중요합니다. 엔지니어링된 신뢰는 일반적으로 사용자에게 주요 점을 확신시키는 데 도움이 되며, 이는 감정적 거울, 인간과 같은 신호 또는 설득력 있는 설계를 통해 이루어질 수 있습니다.

그러나 지속 가능한 신뢰는 인간이 이해하고, 예상하고, 평가할 수 있는 방식으로 행동하는 시스템에 관한 것입니다. 에이전트의 추론, 제한, 의도는 합법적입니다. 이것은 GDPR 준수 설계의 전제 조건입니다. 여기서 투명성이 의미 있게 됩니다.

신뢰 스택이 실제로 무엇을 의미하는지

조직 하나의 전략은 계층화된 신뢰 스택을 사용하는 것입니다. 이는 각 계층이 인간과 기계 간의 책임을 명확하게 합니다.

  • 명확한 추론 경로: 에이전트는 결과를 생성한 방법과 이유를 설명할 수 있어야 합니다. 깊은 기술적인 세부 사항으로 설명할 필요는 없지만, 따라가고 확인할 수 있는 방식으로 설명해야 합니다. 이것은 GDPR의 투명성 규칙과 제22조에 따른 자동화된 결정에 대한 설명 권한과 일치합니다.
  • 명확한 권한 제한: 에이전트가 수행하거나 결정하거나 권고할 수 있는 사항에 대한 명확한 경계가 있어야 합니다. 시간이 지남에 따라 조용히 확장되는 것이 없습니다. GDPR 목적으로 인간이 여전히 결정합니다. 에이전트는 도구이지, 컨트롤러가 아닙니다.
  • 개방형 목표: 에이전트의 목표는 공개적으로 명시되어야 합니다. 사람들이 정확성, 안전성, 속도 또는 상업적 이익을 최적화하는지 여부를 알아야 하며, 그 목표는 문서화되고 이해되어야 합니다.
  • 쉬운 도전과 중지 버튼: 사람들이 에이전트의 결정에 대해 질문하거나, 수정하거나, 마찰 없이 끌 수 있어야 합니다. 쉬운 방법으로 선택 취소를 하는 것은 신뢰를 위한 필수 조건입니다. 그리고 제22조에 따라, 이것은 법적 요구 사항이기도 합니다.
  • 내장된 거버넌스: 로깅, 체크, 메모리 제어, 오버사이트는 시스템에 처음부터 내장되어야 하며, 나중에 추가되어서는 안 됩니다. 프라이버시 바이 디자인은 선택이 아닌, 모든 것을 작동하게 하는 기본 구조입니다.

신뢰 스택을 활용하면 자율성을 안전하게 확장할 수 있습니다.

거버넌스가 실제 경험을 만날 때

거버넌스는 규칙과 프로세스에 관한 것만이 아닙니다. 시스템이 사용자에게 어떻게 느껴지는지에도 관한 것입니다. 사람들은 여전히 제어력을 가지고 있다고 느껴야 합니다. 사람들은 AI가 행동하고 있는지, 왜 그렇게 하는지 이해해야 하며, 중지해야 할 때 어떻게 개입할 수 있는지 알아야 합니다.

컴플라이언스 체크박스를 체크하는 시스템이지만 블랙박스처럼 느껴지면 신뢰를 잃게 됩니다. 이것은 매우 의도적인 설계 선택을 요구합니다. 인간과 같은 신호가 없으며, 시스템이 실제로 가지고 있지 않은 공감이나 도덕적 판단을 암시하지 않습니다. 에이전트가 불확실하거나 제한적일 때 명확한 신호가 있어야 하며, 경험을 조작하여 감정적 의존성을 생성하지 않아야 합니다.

리더들은 “우리 AI가 책임 있습니까?”라고 묻는 것을 넘어섰습니다. 더 나은 질문 세트는 “이 시스템이 어떤 행동을 정상으로 만들 것인가? 어떤 것을 사람들로부터 조용히 밀어낼 것인가? 어떻게 판단을 시간이 지남에 따라 형성할 것인가? 그리고 우리는 그것에 대해 책임을 질 준비가 되었는가?”입니다.

Ivana ๋ฐ”๋ฅดํ†จ๋ ˆํ‹ฐ๋Š” Wipro์˜ ๊ธ€๋กœ๋ฒŒ ๊ฐœ์ธ ์ •๋ณด ๋ณดํ˜ธ ๋ฐ AI ๊ฑฐ๋ฒ„๋„Œ์Šค ์ฑ…์ž„์ž์ž…๋‹ˆ๋‹ค. Wipro๋Š” ์ฃผ์š” ์ธ๊ณต์ง€๋Šฅ ๊ธฐ๋ฐ˜ ๊ธฐ์ˆ  ์„œ๋น„์Šค ๋ฐ ์ปจ์„คํŒ… ํšŒ์‚ฌ์ž…๋‹ˆ๋‹ค. ๊ฐœ์ธ ์ •๋ณด ๋ณดํ˜ธ, AI ๊ฑฐ๋ฒ„๋„Œ์Šค, ์ฑ…์ž„ ์žˆ๋Š” ๊ธฐ์ˆ  ๋ถ„์•ผ์—์„œ ๊ตญ์ œ์ ์œผ๋กœ ์ธ์ •๋ฐ›๋Š” ์‚ฌ์ƒ ์ง€๋„์ž๋กœ์„œ, Ivana๋Š” ์œ ๋Ÿฝ ํ‰์˜ํšŒ ์ „๋ฌธ๊ฐ€๋กœ ํ™œ๋™ํ•˜๋ฉฐ, ์ธ๊ณต์ง€๋Šฅ์ด ์„ฑ๋ณ„ ํ‰๋“ฑ์— ๋ฏธ์น˜๋Š” ์˜ํ–ฅ์„ ์กฐ์‚ฌํ•œ ์ค‘๋Œ€ํ•œ ์—ฐ๊ตฌ๋ฅผ ๊ณต๋™์œผ๋กœ ์ง‘ํ•„ํ–ˆ์Šต๋‹ˆ๋‹ค.