Connect with us

๋กœ๋ด‡์ด ์•„์ด๋“ค๊ณผ ํ”Œ๋ŸฌํŒ…ํ•  ์ˆ˜ ์žˆ๋‹ค๋ฉด, ๋‹น์‹ ์˜ ๋ฐ์ดํ„ฐ์™€๋Š” ๋ฌด์—‡์„ ํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€?

์‚ฌ์ƒ ๋ฆฌ๋”

๋กœ๋ด‡์ด ์•„์ด๋“ค๊ณผ ํ”Œ๋ŸฌํŒ…ํ•  ์ˆ˜ ์žˆ๋‹ค๋ฉด, ๋‹น์‹ ์˜ ๋ฐ์ดํ„ฐ์™€๋Š” ๋ฌด์—‡์„ ํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€?

mm
A professional boardroom at night featuring a large monitor displaying a glowing

누설된 내부 지침이 메타가 자사의 AI 챗봇이 아이들과 플러팅할 수 있도록 허용하고 있다는 것을 밝혔을 때, 대부분의 사람들은 이를 스캔들로 여겼고 넘어갔다. 그러나 이 조사가 현재 AI 윤리의 상태에 대해 우리에게 무엇을 알려주는지 더 자세히 살펴보는 것이 가치 있다. 메타와 같은 회사가 이러한 정책을 지지한다면, 이러한 플랫폼은 조용히 당신의 데이터와 무엇을 할 수 있는가? 그리고 비즈니스 리더들은 AI 도구를 평가할 때 무엇을 할 수 있는지, 얼마나 빠른지, 얼마나 비용이 드는지에 초점을 맞추는 경향이 있다. 그러나 특히 AI 도구가 빠르게 표준이 되는 경우에 더 어려운 질문을 해야 한다. 당신의 팀이 AI 도구를 사용하기 시작할 때, 당신은 어떤 조건에 동의하는가? 모델 제공자와 에이전트 빌더는 당신의 데이터와 무엇을 하는가? 그리고何か 잘못된 경우, 누가 책임을 지는가? 대부분의 조직은 새로운 기술에서 가능한 한 많은 돈을榨取하는 방법을 알아내는 데 너무忙해서, 가장 중요한 질문을 고려하지 못했다.

실제로 당신의 데이터는 무엇이 일어나는가?

대부분의 사람들은 채팅봇과 공유하는 것의 위험을 과대평가하거나 전혀 간과한다. 사실은, 대규모 언어 모델은 일단 훈련되고 공개되면 동결된다. 즉, 당신의 대화는 시스템의 메모리에 즉시 연결되지 않고 별도로 저장된다. 당신이 오늘 아침 ChatGPT에게 말한 것은 오후에 다른 사람에게 모델이 말할 것을 즉시 알려주지 않는다. 이것은 당신의 데이터가 사용되지 않는다는 것을 의미하지 않는다. 사용된다. 경로는 단순히 더 복잡하다. 대화 로그는 별도로 저장되며, 많은 AI 연구소는 명시적으로 이러한 로그를 사용하여 다음 버전의 모델을 훈련할 권리를 보유한다. 이는 서비스 약관에 명시되어 있다. 오늘날 고객 지원 쿼리 또는 전략 브레인스토밍으로 입력된 내용은 시간이 지남에 따라 수백만 명이 사용할 모델에 영향을 줄 수 있다. 기밀 데이터에 대한 위험은 정책을 넘는다. 2025년, Scale AI는 우연히 메타, 구글, xAI를 포함한 클라이언트의 기밀 프로젝트 자료 수천 페이지를 노출시켰다. 별도로, 11월에 발생한 OpenAI 벤더의 침해로 해커가 고객 데이터, 이름, 이메일, 시스템 세부 정보를 빼돌렸다. 명확히 하자, 이것은 5단계 경보 상황은 아니지만, 위험이 전혀 없는 것도 아니다. 기업급 시스템은 데이터 재사용을 둘러싼 계약적 가드레일을 가지고 있다. 소비자 도구는 그렇지 않다. 당신의 데이터가 너무 민감하여 보호하기 위해 NDA를 원한다면, 소비자 채팅봇에 이를 넘겨주고 다른 곳에서 사용되지 않을 것이라고 가정해서는 안 된다. 숫자는 대부분의 조직이 아직 이를 흡수하지 못했다는 것을 시사한다. 거의 8명 중 7명의 직원이 회사 정보를 AI 도구에 붙여넣었으며, 그 중 5명 중 4명은 개인 계정을 사용하여 그렇게 했다고 2025년 워크포스 조사가 밝혔다. 5개 중 1개의 조직은 이미 AI 도구 사용과 관련된 침해를 보고했으며, 37%만이 이를 탐지 또는 관리하기 위한 정책을 가지고 있다고 IBM의 2025년 데이터 침해 비용 보고서에 따르면. 일단 이해되면, 이러한 종류의 데이터 위험은 작업 주변을 돌아가기 어렵지 않다. 소비자 도구와 기업 도구를 구별하고, 서명하는 것을 알면, 대부분의 기지를 다 커버할 수 있다.

AI 매개 커뮤니케이션이 비즈니스에 실패하는 곳

당신의 데이터가 발생하는 일은 그림의 한 부분이다. 다른 부분, 그리고 많은 비즈니스에 더 중요한 부분은, 이러한 시스템이 당신의 가장 중요한 커뮤니케이션의 품질과 책임에 무엇을 하는가이다. 비즈니스에서 움직이는 대화에 대해 생각해 보라. 오랜 시간 동안 고객을 유지하기 위한 회의, 음성과 신뢰가 거래 언어보다 거의 더 중요할 수 있는 판매 협상, 또는 분기별 이사회 발표에서 진행 상황에 대한 마일스톤. 결론은, AI는 이러한 상호작용의 거래적 요소를 합리적으로 잘 다룰 수 있다. 회의록을 작성하고, 우선순위를 할당하고, 행동 계획을 강조하는 것과 같은 것들. 그러나 모든 것이 아래에서 실패한다. 특정 실패 모드는 이름을 지정할 가치가 있다. AI는 컨텍스트를 압축한다. 요약, 매끄럽게, 표준화하는 방식으로 세부 사항을 제거할 수 있다. 또한, 대규모 언어 모델이 생성하는 내용은 검증하기 어렵다. AI 생성 이메일이나 요약 회의록을 받은 사람들은 받은 내용이 당신이 의도한 것을 반영하는지, 또는 메시지가 AI에 의해 필터링되거나 재구성되지 않았는지 확인할 방법이 없다. 이것은 비즈니스 커뮤니케이션에서 AI가 아무런 역할을 할 수 없다는 것을 의미하지 않는다. 분명히 역할이 있다. 그러나 효율성의 이익이 노출을 정당화하지 않는 대화의 범주가 있으며, 대부분의 조직은 이러한 사용 사례를 충분히 구별하지 않았다.

직접 수행할 때

그래서, 질문은 된다. 당신의 가장 민감한 커뮤니케이션에 대해, AI가 루프에 있는가? 내诚實한 대답은 아니오, 적어도 책임을 질 수 있는 사람이 없으면 그렇다. 메시지가 어떻게 전달되었는지, 메시지가 전달되었는지, 메시지가 필터링되거나 재구성되지 않았는지 확인하는 것은 구식의 방법을 선호하는 것이 아니다. 일부 대화는 사람 뒤에 서 있는 것이 필요하다. 리더들은 숙제를 해야 한다. 벤더의 데이터 정책은 데이터 재사용에 대해 무엇이라고 하는가? 계약이 종료되면 팀의 대화 로그가 어떻게 되는가? 이것들은 배경에서 해결할 IT 팀의 질문이 아니다. 이것들은 조달 질문이며, 현재보다 프로세스에서 더 일찍 있어야 한다. 아이들과 플러팅할 수 있는 봇은 그 결정은 스스로 내리지 않았다. 누군가가 승인했다. 모든 AI 시스템은 이를 구축하고 배포한 사람들의 판단을 반영하며, 이러한 호출은 항상 외부에서 명확하지는 않다. AI 도구 및 시스템을 감사하는 도구가 채택과 따라잡을 때까지, 비즈니스 리더들이 취할 수 있는 가장 방어 가능한 위치는 AI를 통해 라우팅할 수 있는 대화와 그렇지 않은 대화를 구분하는 것이다. AI에 대한 효율성 논리는 설득력 있다. 당신의 이름으로 무엇이 나가는지 소유하는 것도 마찬가지다.

Victor Cho๋Š” Emovid์˜ CEO๋กœ์„œ AI๊ฐ€ ๋” ์ง„์ •์„ฑ ์žˆ๊ณ  ๊ฐ์ •์ ์œผ๋กœ ์ง€๋Šฅ์ ์ธ ์˜์‚ฌ์†Œํ†ต์„ ์ง€์›ํ•˜๋Š” ๋ฐฉ๋ฒ•์„ ํƒ๊ตฌํ•œ๋‹ค. ์ œํ’ˆ ํ˜์‹ ๊ณผ ๋””์ง€ํ„ธ ๋ฆฌ๋”์‹ญ ๋ฐฐ๊ฒฝ์„ ๊ฐ€์ง€๊ณ  ์žˆ๋Š” ๊ทธ๋Š” ์ธ๊ฐ„์˜ ๊ฐ์ •์„ ์žƒ์ง€ ์•Š๋Š” ๋” ํšจ๊ณผ์ ์ธ ์—ฐ๊ฒฐ์„ ๋„์™€์ฃผ๋Š” ๋„๊ตฌ๋ฅผ ๊ตฌ์ถ•ํ•˜๋Š” ๋ฐ ์ง‘์ค‘ํ•˜๊ณ  ์žˆ๋‹ค.