Connect with us

AI ์ดˆ๊ธฐํ™”์—์„œ 95%๊ฐ€ ROI 0์„ ์ „๋‹ฌํ•˜๋Š” ์ด์œ 

์‚ฌ์ƒ ๋ฆฌ๋”

AI ์ดˆ๊ธฐํ™”์—์„œ 95%๊ฐ€ ROI 0์„ ์ „๋‹ฌํ•˜๋Š” ์ด์œ 

mm

MIT의 최근 연구에 따르면 95%의 조직은 생성적 AI 초기화에서 ROI 0을 얻고 있다. 이는 상당한 투자에도 불구하고 측정 가능한 이익이 없다. 헤드라인은 실패율에 집중했지만 실제 질문은 기술이 작동하는지 여부가 아니다. 대규모 언어 모델은 강력하고 접근성이 좋으며 빠르게 개선되고 있다. 문제는 기업이 어떻게 사용하려고 하는지에 있다.

대부분의 기업은 AI 에이전트를 다른 기술 론칭과 같은 방식으로 접근한다. 기존 프로세스에 AI를 추가하고 마법을 기대한다. 작동하지 않으면 모델을 비난한다. 하지만 실패는 AI가 관여하기 훨씬 전에 발생한다.

私は이 패턴을 반복적으로企業에서 AI 워크플로우를 구축하는 동안 보았다. 팀은 가능성에 대해 흥奮하지만 개발에 급진적으로 뛰어들고 예측 가능한 장애물에 부딪힌다. 5%의 성공과 95%의 ROI 0을 생성하는 차이는 운이나 예산이 아니다. 그것은 AI 에이전트의 가치를 처음부터 죽이는 6가지 臨界錯誤를 피하는 것이다.

당신의 데이터는 생각보다 더 지저분하다

대부분의 팀은 데이터를 가지고 있으면 AI에 준비가 되었다고 생각한다. 그들은 데이터 레이크, CRM, 신중하게 유지되는 데이터베이스를 가리키고 성공이 보장된다고 가정한다. 그런 다음 모든 것을 LLM에 덤프하고 왜 에이전트가 쓰레기 출력을 생성하거나 예산을 몇 일 안에 소진하는지 궁금해한다.

지저분한 데이터는 지저분한 에이전트를 생성한다. 원시 데이터베이스 덤프, HTML이 포함된 내보내기, 구조화되지 않은 텍스트 블록을 AI 에이전트에 보내면 실패를 설정하는 것이다. 모델은 관련이 없는 필드에 의해 혼란스럽게 되고, 서식 지정 아티팩트에 의해 방해받고, 순수한 볼륨에 의해 압도된다.

팀은 3개만 의사결정에 중요하지만 47개의 필드를 가진 고객 레코드를 보낸다. 그들은 아무 의미가 없는 UUID를 포함하고 귀중한 토큰을 소비한다. 그들은 에이전트에게 내부 도구에서 스크랩한 HTML을 보내지 않고 깨끗한 구조화된 정보를 보낸다.

예상보다 더 빠르게 한계에 도달할 것이다

모든 팀은 컨텍스트 한계에 도달하지 않을 것이라고 믿는다. “우리는 몇 개의 고객 레코드만 처리하고 있다”고 말한다. “어떻게 어려울 수 있겠는가?” 그런 다음 에이전트가 전체 대화 기록이 포함된 500개의 지원 티켓을 분석해야 하고 갑자기 백만 토큰 제한에 부딪힌다.

대규모 컨텍스트는 누구도 예상하지 못할 정도로 빠르게 축적된다. 에스컬레이션을 처리하는 고객 지원 에이전트는 티켓 기록, 지식 베이스 문서, 이전 상호작용 및 제품 문서에 액세스해야 할 수 있다. 이는 요청당 수백 개의 토큰이다. 동시 사용자 수를 곱하면 인프라 비용이 제어할 수 없을 정도로 증가한다.

순진한 접근 방식은 모델에 모든 것을 보내고 최선을 기대하는 것이다. 지능형 팀은 요청을 청크로 나누고, 각 조각을 요약한 다음, 요약의 요약에서 작동한다. 이러한 계층적 요약은 요청을 관리 가능하게 유지하면서 에이전트가 좋은 의사결정을 내리기 위해 필요한 중요한 정보를 보존한다.

보안은 빠르게 복잡해진다

팀은 에이전트의 성격과 능력에 대해 흥奮하고 기본 지침을 작성하고 보호된다고 생각한다. 실제로는 AI 에이전트가 전통적인 애플리케이션보다 근본적으로 다른 보안 사고가 필요하다.

AI 에이전트는 속일 수 있다, 조작되고 강제로 작동할 수 있다. 사용자 입력에는 에이전트의 신중하게 작성된 프롬프트를 재정의하는 숨겨진 명령어가 포함될 수 있다. 에이전트는 지침을 무시하고 볼 수 없는 데이터에 액세스하거나 의도하지 않은 범위에서 작동할 수 있다.

지능형 구현에는 에이전트가 수행할 수 있는 것과 수행할 수 없는 것에 대한 엄격한 경계가 필요하다. 상태를 변경하는 모든 항목에 대해 제안-정당화-승인 워크플로우가 필요하다. 에이전트는 수행하고자 하는 작업과 이유를 설명한 다음 작동하기 전에 인간의 승인을 기다린다. 이것은 제어할 수 없는 자동화를 방지하면서 AI 지원의 이점을 유지한다.

실제로 작동하는 것

수백 개의 AI 에이전트 구현을 관찰한 결과, 6가지 관행이 성공적인 배포와 비싼 실패를 구분한다.

첫 번째는 데이터 위생이다. 컴팩트한 JSON을 고정된 스키마와 함께 보낸다. UUID, HTML, 중복 필드 및 절대적으로 의사결정에 중요하지 않은 모든 민감한 정보를 제거한다. 가능하다면 메타데이터로 민감한 데이터를 대체한다. 이것은 모델을 유지하면서 페이로드 크기, 비용 및 대기 시간을 절약한다.

두 번째는 컨텍스트 관리이다. 예상보다 더 빠르게 토큰 제한에 도달할 것이다. 요청을 더 작은 청크로 나누고, 각 청크를 요약한 다음, 요약에서 작동한다. 이러한 계층적 접근 방식은 요청을 제어 가능하게 유지하면서 필요한 컨텍스트를 보존한다.

세 번째는 프롬프트 안전이다. 에이전트가 수행할 수 있는 것과 수행할 수 없는 것에 대한 엄격한 경계를 정의한다. 상태를 변경하는 모든 항목에 대해 제안-정당화-승인 워크플로우를 구현한다. 모든 사용자 콘텐츠를 신뢰할 수 없는 것으로 처리하고 코드와 링크를 제거하고 모델이 사용자 텍스트에 숨겨진 명령을 따라야 한다고 상기시킨다. 경계가 효과적으로 유지되도록 경고와 출력을 모니터링한다.

네 번째는 비용 제어이다. 요청 및 워크플로우당 토큰 및 비용 예산을 설정한다. 도구 및 프롬프트별 토큰 사용량을 로깅하여 회귀를 조기에 발견한다. 규율 없이, 채택이 증가함에 따라 비용이 폭주하거나 대기 시간이 증가할 수 있다.

다섯 번째는 품질 보증이다. 실제 사건과 에지 케이스의 개인 평가 세트를 유지한다. 정밀도, 재현성 및 회귀를 추적한다. 새로운 모델은 일반적으로 나쁜 방식으로 당신을 놀라게 할 것이다. 중요한 워크플로우의 경우 일관된 출력을 위해 온도 근처 0과 시드된 백엔드를 사용한다.

여섯 번째는 거버넌스이다. 정보가 흐르기 전에 데이터 공유 계약을 잠금으로 설정한다. 공유하는 내용, 보호하는 방법 및 책임 있는 사람을 명확히 한다. 이것은 법적 보장이 아니다. 데이터를 진지하게 생각한다는 신호이다.

대부분의 팀이 왜 잘못되는가

AI 에이전트 프로젝트는 ROI를 전달하지 못한다. 팀은 잘못된 것에 집중한다. 모델을 사용하는 것에 집착하면서 데이터 품질을 무시한다. 기본적인 보안 컨트롤을 건너뛰면서 복잡한 워크플로우를 구축한다. 비용 제어 없이 에이전트를 배포한 다음 비용이 급증할 때 패닉에 빠진다.

성공적인 5%는 AI 에이전트가 단순한 소프트웨어가 아니라는 것을 이해한다. 그것은 새로운 범주의 디지털 워커이다. 그것은 다른 관리 관행을 필요로 한다. 깨끗한 데이터, 명확한 경계 및 상시 감시가 필요하다. 이러한 기본적인 사항을 올바르게 설정하면 AI 에이전트는 강력한 생산성 승수기가 된다. 잘못 설정하면 ROI 0을 생성하는 95%에 합류한다.

Rohan Sathe๋Š” Nightfall AI์˜ ๊ณต๋™ ์ฐฝ๋ฆฝ์ž์ด์ž CEO์ž…๋‹ˆ๋‹ค. Nightfall์„ ๊ณต๋™ ์ฐฝ๋ฆฝํ•˜๊ธฐ ์ „์— ๊ทธ๋Š” Uber Eats์˜ ๋ฐฑ์—”๋“œ ํŒ€์„ ์ด๋Œ์—ˆ์œผ๋ฉฐ, ETA ์˜ˆ์ธก ๋ฐ ์ˆ˜์š” ์˜ˆ์ธก๊ณผ ๊ฐ™์€ ์ ์šฉ๋œ ๊ธฐ๊ณ„ ํ•™์Šต ์„œ๋น„์Šค๋ฅผ ๊ตฌ์ถ•ํ–ˆ์Šต๋‹ˆ๋‹ค. ๊ทธ๋Š” CISO Series ํŒŸ์บ์ŠคํŠธ์™€ ์ธ๊ณต์ง€๋Šฅ ํŒŸ์บ์ŠคํŠธ๋ฅผ ํฌํ•จํ•œ ์—ฌ๋Ÿฌ ๋งค์ฒด์— ๊ฒŒ์ŠคํŠธ๋กœ ์ถœ์—ฐํ–ˆ์Šต๋‹ˆ๋‹ค.