Connect with us

2026 ์˜ˆ์ธก – ์˜คํ”ˆ ์†Œ์Šค๊ฐ€ AI์˜ ๋ฌผ๊ฒฐ์„ ํƒ€๊ณ  ๋‹ค์Œ ํ™ฉ๊ธˆ ์‹œ๋Œ€๋กœ ํ–ฅํ•  ๊ฒƒ

์‚ฌ์ƒ ๋ฆฌ๋”

2026 ์˜ˆ์ธก – ์˜คํ”ˆ ์†Œ์Šค๊ฐ€ AI์˜ ๋ฌผ๊ฒฐ์„ ํƒ€๊ณ  ๋‹ค์Œ ํ™ฉ๊ธˆ ์‹œ๋Œ€๋กœ ํ–ฅํ•  ๊ฒƒ

mm
A widescreen, photorealistic digital landscape of a futuristic smart city where glowing data streams in various colors flow like highways between glass buildings and centralized glowing hubs.

IBM의 1,100억 달러 규모의 Confluent 인수는 초기 12월에 발표되었으며, 이는 데이터 인프라에서 주요 통합 플레이 이상입니다. 이는 인공 지능(AI)이 본질적으로 이벤트 주도적이라는 공공 고백입니다. 즉, 이 인수는 기업이 데이터-인-모션(data-in-motion)을 데이터-어-레스트(data-at-rest)만큼 필요로 한다는 것을 증명합니다. 2025년에 조직이 운영 전체에 걸쳐 AI 에이전트를 배포하기 위해 서두르면서, 이 거래는 중요한 실상을 강조합니다: 실시간 컨텍스트는 기업 규모에서 에이전트 기반 AI를 작동시키는 데 필요한 중요한 성분입니다.

IBM의 자체 프레임워크는 전략적 전환을 나타냅니다. 그들은 결합된 엔티티를 “AI 에이전트를 위한 스마트 데이터 플랫폼”으로 пози션합니다. 즉, 에이전트가 하이브리드 환경에서 무결하게 작동할 수 있도록 데이터를 연결, 처리 및 관리할 수 있는 인프라입니다. 이는 더 많은 스트리밍 인프라를 판매하는 것이 아닙니다. 에이전트가 신뢰할 수 있는 방식으로 작동하기 위해 연속적으로 새로운 컨텍스트를 필요로 한다는 것을 인정다는 것입니다. 또한 스트리밍 데이터가 이를 가능하게 하는 플럼빙이라는 것을 인정하는 것입니다.

기업 AI의 핵심에 있는 역설

IBM의 인수는 또한 데이터 인프라 랜드스케이프에서 흥미로운 역설을 강조합니다. 지난 몇 년 동안 일부 인프라 벤더는 라이선스를 변경하고 오픈 소스에서 물러나서 더 강력한 수익화 모델을 추구했습니다. 그러나 AI의 채택은 생태계를 다시 열림으로 돌아가게 하고 있습니다. 왜일까요? 에이전트는 여러 시스템에 걸쳐 상호 운용 가능한 파이프라인, 커넥터 및 거버넌스를 필요로 합니다. 하나의 벤더의 폐쇄된 스택이 아닙니다.

강력한 오픈 소스 대규모 언어 모델(LLM)의 부상은 전체 AI 생태계를 투명성과 이식성으로 밀어붙이고 있습니다. Llama, Mistral 및 수많은 다른 모델은 기업에 폐쇄된 모델보다 더 저렴하고 좋은 대안을 제공합니다. 이는 긴장을 생성합니다. 데이터 인프라 벤더는 자신의 정원을 닫는 동안 AI 회사들이 제품을 소비하는 동안 자신의 정원을 열고 있습니다. IBM의 Confluent 인수는 AI의 끌림이 인프라를 다시 열림으로 돌아가게 하는 리셋의 시작을 신호합니다.

컨텍스트 관리: AI가 요구하는 기업 능력

왜인지 이해하려면 “컨텍스트 관리”에 대해 이야기해야 합니다. 즉, 모델 컨텍스트 창에 가장 관련性이 높고 신뢰할 수 있으며 유지되는 컨텍스트를 제공하는 기업 능력입니다. 이는 다양한 팀에 걸쳐 산재한 임시 Retrieval-Augmented Generation(RAG) 구현이 아닙니다. 이는 에이전트가 필요로 하는 정보에 접근할 수 있도록 시스템적인 접근 방식을 보장하는 것입니다. 적절한 거버넌스와 출처와 함께 말입니다.

단순한 정신 모델입니다: 에이전트는 컨텍스트에서 실행됩니다. 컨텍스트는 파이프라인에서 실행됩니다.

컨텍스트 파이프라인은 다음과 같습니다:

소스 → 스트리밍 → 저장소(레이크하우스/OLTP) → 인덱싱(벡터 + 렉시컬 + SQL) → 정책/거버넌스 → 서빙 → 관찰 가능성/평가.

각 레이어는 신뢰할 수 있는 방식으로 작동해야 하며, 함께 작동해야 합니다. 스트리밍은 에이전트가 필요로 하는 연속적인 신선함을 제공하기 때문에 기초에 있습니다.

전통적인 RAG 접근 방식은 종종 반응적입니다. 즉, 에이전트도 프로액티브 업데이트를 필요로 합니다. 이벤트는 연속적으로 메모리를 새로 고치고, 검색 인덱스를 업데이트하고, 권한을 조정하고, 정책을 시행합니다. Confluent의 IBM 인수는 본질적으로 “항상 업데이트되는 컨텍스트 레이어”가 기업 AI를 위한 임팩트 인프라가 된다는 것입니다.

에이전트가 실패하는 이유(그리고 왜 중요한지)

기업 AI 팀은 이 불행한 진실을 힘들게 발견하고 있습니다. 에이전트가 실패하는 이유는 LLM이 “멍청하다”는 것이 아닙니다. 에이전트가 실패하는 이유는 기본 컨텍스트가 손상되거나, 구식이거나, 불완전하거나, 거버넌스가 되지 않았기 때문입니다. 실제로 분석가들은 AI 준비가 된 데이터가 부족하여 60%의 AI 프로젝트가 중단될 것이라고 추정합니다. 어제의 재고 데이터를 기반으로 조달 결정을 내리는 에이전트는 유용하지 않습니다. 적절한 승인 없이 고객 레코드에 액세스하는 에이전트는 규정 준수 나이트메어입니다. 이유를 설명할 수 없는 에이전트는 규제 산업에서 사용할 수 없습니다.

기업은 컨텍스트가 없는 경우 AI 결정에 대한 감사할 수 없습니다. 일관된 데이터 신선함 없이 AI 애플리케이션을 확장할 수 없습니다. 적절한 거버넌스 가드레일 없이 에이전트를 확신할 수 없습니다. 이러한 모든 요구 사항은 동일한 결론으로 지적합니다. 컨텍스트 관리는 사후 처리가 아닌 1차 인프라가 되어야 합니다.

오픈 소스 부흥

이것은 어디에서 오픈 소스 부흥이 시작되는지입니다. 컨텍스트는 여러 벤더와 시스템을 아우르기 때문에 단일 프로프리터리 스택이 승리할 수 없습니다. 성공적인 접근 방식은 오픈 인터페이스와 이식 가능한 빌딩 블록이 될 것입니다. 커넥터, 스트리밍 플랫폼, 메타데이터 관리, 검색 시스템 및 정책 시행입니다. 폐쇄 라이선스는 통합을 느리게 합니다. 그리고 통합은 에이전트 기반 AI의 전체 게임입니다.

IBM은 이를 이해합니다. Red Hat을 통해 오픈 소스와의 역사는 그들에게 신뢰성을 부여합니다. IBM-Confluent 결합 엔티티는 “이벤트 주도형 지능”을 오픈 소스에서 중요한 통합 지점에서 오픈 소스를 채택함으로써 가속화할 수 있는 위치에 있습니다.

이동은 이미 진행 중입니다. 오픈 소스 스트리밍 플랫폼, Apache Iceberg 및 Delta Lake와 같은 오픈 테이블 형식, 메타데이터 및 거버넌스에 대한 오픈 표준은 기업 AI 인프라의 연결 고리를 구성하고 있습니다. 조직은 여러 AI 모델, 여러 데이터 저장소 및 여러 도구와 함께 작업할 것을 알고 있기 때문에 이식성과 상호 운용성을 요구하고 있습니다. 잠금은 그들이 필요로 하는 유연성의 적입니다.

2026년 예측

2026년 말까지, “컨텍스트 관리”가 기업 기술 스택에서 명명된 카테고리로 등장할 것이라고 예측합니다. 구매자는 세 가지 것을 요구할 것입니다:

  • 첫째, 데이터 저장소 및 인덱스에 대한 오픈 커넥터 및 “자신의 아키텍처를 가져오기” 아키텍처입니다. 단일 벤더는 전체 컨텍스트 파이프라인을 제어하지 않을 것입니다.
  • 둘째, 도구 전반에 걸친 표준화된 컨텍스트 API입니다. 팀은 전체 시스템을 재구성하지 않고도 구성 요소를 교체할 수 있어야 합니다.
  • 셋째, 기본적으로 거버넌스된 출처입니다. 컨텍스트의 각 조각에는明確한 계보가 필요하며, 각 에이전트 결정에는 감사 트레일이 필요합니다.

이것은 좋을 수 있는 것이 아닙니다. 기업 AI 채택을 대규모로 확장하기 위한 필수 조건입니다.

리셋의 시작

IBM이 Confluent를 인수하는 것은 데이터 인프라에서 근본적인 리셋의 시작을 표시합니다. AI의 추진력, 신선하고 신뢰할 수 있는 컨텍스트에서 작동하는 복잡한 에이전트의 필요성에 의해 추진되는 것은 산업을 다시 열림으로 돌아가게 하고 있습니다. 이것이 순수한 오픈 소스인지, 또는 최소한으로 오픈이고 시행 가능한 상호 운용성인지에 따라 시장은 어떻게 진화할지에 달려 있습니다. 그러나 방향은 명확합니다.

이 새로운 시대에서 번창하는 벤더는 가장 폐쇄적이고 프로프리터리한 스택을 가진 것이 아닙니다. 통합 레이어에서 오픈 소스를 채택하고, 진정한 상호 운용성을 제공하며, 인공적인 제약 없이 컨텍스트 관리 능력을 구축하는 데 도움이 되는 것입니다.

다음 波의 혁신은 기업이 벤더 잠금 없이 복잡한 에이전트와 애플리케이션을 구축할 수 있는 오픈 소스 AI 인프라에서 나올 것입니다. 이는 이상주의가 아닙니다. 현실주의입니다. 미션 크리티컬 AI 시스템을 구축할 때, 전체 기업을 아우를 수 있어야 하기 때문입니다. 오픈 소스는 철학이 아닙니다. 요구 사항입니다.

Sijie Guo๋Š” StreamNative์˜ ์„ค๋ฆฝ์ž์ด์ž CEO์ž…๋‹ˆ๋‹ค. Sijie์˜ Apache Pulsar์™€์˜ ์—ฌ์ •์€ Yahoo!์—์„œ ์‹œ์ž‘๋˜์—ˆ์œผ๋ฉฐ, ๊ทธ๋Š” ํšŒ์‚ฌ์—์„œ ๊ธ€๋กœ๋ฒŒ ๋ฉ”์‹œ์ง• ํ”Œ๋žซํผ์„ ๊ฐœ๋ฐœํ•˜๋Š” ํŒ€์˜ ์ผ์›์œผ๋กœ ํ™œ๋™ํ–ˆ์Šต๋‹ˆ๋‹ค. ๊ทธ๋Š” ์ดํ›„ Twitter๋กœ ์ด๋™ํ•˜์—ฌ ๋ฉ”์‹œ์ง• ์ธํ”„๋ผ ๊ทธ๋ฃน์„ ์ด๋Œ์—ˆ๊ณ  DistributedLog์™€ Twitter EventBus๋ฅผ ๊ณต๋™์œผ๋กœ ๊ฐœ๋ฐœํ–ˆ์Šต๋‹ˆ๋‹ค. 2017๋…„์— ๊ทธ๋Š” Streamlio๋ฅผ ๊ณต๋™ ์„ค๋ฆฝํ–ˆ์œผ๋ฉฐ, ์ด๋Š” Splunk์— ์ธ์ˆ˜๋˜์—ˆ์Šต๋‹ˆ๋‹ค. ๊ทธ๋ฆฌ๊ณ  2019๋…„์— ๊ทธ๋Š” StreamNative๋ฅผ ์„ค๋ฆฝํ–ˆ์Šต๋‹ˆ๋‹ค. ๊ทธ๋Š” Apache Pulsar์™€ Apache BookKeeper์˜ ์›๋ž˜ ์ œ์ž‘์ž ์ค‘ ํ•œ ๋ช…์ด๋ฉฐ, ์—ฌ์ „ํžˆ Apache BookKeeper์˜ VP์ด์ž Apache Pulsar์˜ PMC ๋ฉค๋ฒ„์ž…๋‹ˆ๋‹ค. Sijie๋Š” ์บ˜๋ฆฌํฌ๋‹ˆ์•„์˜ ์ƒŒํ”„๋ž€์‹œ์Šค์ฝ” ๋ฒ ์ด ์—๋ฆฌ์•„์— ๊ฑฐ์ฃผํ•ฉ๋‹ˆ๋‹ค.