ソートリーダー
2026 年の予測 – オープンソースは AI の波に乗って次の黄金時代に入る

IBM の Confluent を 110 億ドルで買収する発表は、データインフラストラクチャーにおける大規模な統合プレイだけでなく、人工知能 (AI) が本質的にイベント駆動型であることを公に認めたものである。言い換えれば、この買収は、企業がデータインモーションを信頼できるものとする必要があることを証明したものである。2025 年に企業が運用全体に AI エージェントを急いで展開している中で、この取引は重要な認識を強調する。リアルタイムのコンテキストは、エンタープライズ スケールでのエージェント型 AI を実現するための欠けている要素である。
IBM 自身の説明では、この戦略的シフトが明らかである。彼らは、結合されたエンティティを「AI エージェントのためのスマート データ プラットフォーム」として位置付けている。つまり、エージェントがシームレスに動作できるように、リアルタイムでデータを接続、処理、管理するインフラストラクチャーである。この買収は、ストリーミング インフラストラクチャーの販売の増加ではなく、AI エージェントが信頼性を持って動作するために、継続的な新しいコンテキストが必要であること、および ストリーミング データがそれを可能にするプランニングであることを認識している。
エンタープライズ AI の核心にあるパラドックス
IBM の買収は、データ インフラストラクチャー ランドスケープにおける興味深いパラドックスも強調している。過去数年間、インフラストラクチャー ベンダーの何社かがオープンソースから撤退し、ライセンスを変更して独自のモデルに戻った。これは、より強力な収益化を追求するためであった。しかし、AI の採用は、エコシステムを再びオープン性に向かわせている。なぜなら、エージェントは、1 つのベンダーの囲い込みされたスタックではなく、多くのシステムを横断するインターオペラブルなパイプライン、コネクター、管理が必要だからである。
強力なオープンソースの Large Language Models (LLMs) の台頭は、全 AI エコシステムを透明性と移植性に向かわせている。Llama、Mistral などのモデルは、企業に閉じたモデルよりも安価で優れた代替手段を提供する。これにより、緊張が生じる。データ インフラストラクチャー ベンダーは、自社のガーデンを閉じている一方で、AI 企業はオープン化を進めている。IBM の Confluent買収は、AI の牽引力がインフラストラクチャーを再びオープン性に向かわせるリセットの始まりを示す。
コンテキスト管理: エンタープライズが AI に求める能力
これを理解するには、私が「コンテキスト管理」と呼ぶエンタープライズ能力について話す必要がある。これは、モデル コンテキスト ウィンドウに最も関連性の高い、信頼性の高い、保持されたコンテキストを提供する能力である。これは、異なるチームに分散された ad-hoc Retrieval-Augmented Generation (RAG) 実装ではなく、エージェントが必要な情報にアクセスできるように、体系的にアプローチすることである。適切な管理とプロバンスを伴うものである。
ここにシンプルなメンタル モデルがある:エージェントはコンテキストで動作し、コンテキストはパイプラインで動作する。
コンテキスト パイプラインは次のようになる:
ソース → ストリーミング → ストレージ (レイクハウス / OLTP) → インデックス (ベクター + レキシカル + SQL) → ポリシー / 管理 → サービング → オブザーバビリティ / 評価。
各レイヤーは信頼性を持って動作し、すべてが一緒に動作する必要がある。ストリーミングは基盤にあるため、エージェントが必要とする継続的な新鮮さを提供するからである。
従来の RAG アプローチは、 souvent 反応的である。プロンプトを受け取ったときにコンテキストを取得する。しかし、エージェントはプロアクティブな更新も必要である。イベントは、メモリを更新し、取得インデックスを更新し、権限を調整し、ポリシーを適用する。Confluent の IBM による買収は、基本的に「常に更新されるコンテキスト レイヤー」がエンタープライズ AI の重要なインフラストラクチャーになるという賭けである。
エージェントが失敗する理由 (およびその重要性)
エンタープライズ AI チームは、この不幸な真実を難しい道で発見している。エージェントは、LLM が「馬鹿」だから失敗するのではない。エージェントは、基礎となるコンテキストが壊れている、古い、不完全、または管理されていないため失敗するのである。実際、分析家は、AI プロジェクトの最大 60% が AI 対応データの不足により放棄されると推定している。昨日の在庫データに基づいて調達決定を行うエージェントは役に立たない。適切な認証なしに顧客レコードにアクセスするエージェントは、コンプライアンスの悪夢である。理由を説明できないエージェントは、規制された業界では使用できない。
エンタープライズは、プロバンスなしで AI の決定を監査できない。データの新鮮さが一貫してないと、AI アプリケーションをスケールできない。適切な管理ガイドレールなしで、エージェントを自信を持って展開できない。これらのすべての要件は、同じ結論に到達する。コンテキスト管理は、後回しではなく、第一級のインフラストラクチャーになる必要がある。
オープンソースの復活
ここで、オープンソースのルネッサンスが始まる。コンテキストは、単一のプロプライエタリ スタックが勝つことができない、多くのベンダーとシステムを横断する。成功するアプローチは、オープン インターフェイスと移植可能なビルディング ブロックである。コネクター、ストリーミング プラットフォーム、メタデータ管理、取得システム、ポリシー適用である。閉じたライセンスは統合を遅くする。統合は、エージェント型 AI の全てである。
IBM はこれを理解している。Red Hat を通じてのオープンソースとの歴史は、彼らに信頼性を与える。IBM と Confluent の統合エンティティは、オープン性を重要な点で受け入れることで、イベント駆動型インテリジェンスの加速を可能にする。つまり、システムがシームレスに協調して動作する必要がある統合ポイントでである。
このシフトはすでに進行中である。オープンソースのストリーミング プラットフォーム、Apache Iceberg や Delta Lake などのオープン テーブル形式、メタデータと管理のためのオープン スタンダードは、エンタープライズ AI インフラストラクチャーの結合組織となりつつある。組織は、複数の AI モデル、複数のデータ ストア、複数のツールを使用することを知っているため、移植性とインターオペラビリティを要求している。ロックインは、必要な柔軟性の敵である。
2026 年への予測
2026 年末までに、「コンテキスト管理」がエンタープライズ テクノロジー スタックの中で名前の付いたカテゴリとして登場することを予測する。購入者は、3 つのことが必要になる。
- 第一に、オープン コネクターと「持ってくる」アーキテクチャーをデータ ストアとインデックス用に。単一のベンダーがコンテキスト パイプライン全体を管理することはない。
- 第二に、ツール全体で標準化されたコンテキスト API。チームはシステム全体を再構築せずにコンポーネントを交換できる必要がある。
- 第三に、デフォルトとして管理されたプロバンスを。コンテキストの各部分には明確なプロバンスが必要であり、エージェントの各決定には監査証跡が必要である。
これらは、ニーズではなく、エンタープライズ AI の採用におけるテーブル ステークスである。
リセットの始まり
IBM が Confluent を買収したことは、データ インフラストラクチャーにおける根本的なリセットの始まりを示す。AI の勢いは、エージェントが新鮮で信頼性の高いコンテキストで動作する必要性によって推進されており、業界を再びオープン性に向かわせている。純粋なオープンソースか、少なくともオープンで施行可能なインターオペラビリティかは、市場がどのように進化するかによって異なる。しかし、方向性は明らかである。
この新しい時代で成功するベンダーは、閉じたプロプライエタリ スタックを持っているものではなく、統合レイヤーでオープン性を受け入れるもの、真正なインターオペラビリティを提供するもの、企業が人工的制約なしでコンテキスト管理能力を構築するのを支援するものである。
次のイノベーションの波は、エンタープライズがベンダーロックインなしで複雑なエージェントとアプリケーションを構築できるようにするオープンソース AI インフラストラクチャーから来る。これは理想主義ではなく、現実主義である。ミッションクリティカルな AI システムを構築する場合、オープン性は哲学ではなく、要件である。












