Pemimpin pemikiran
2026 Prediksi – Open Source Akan Menunggangi Gelombang AI Menuju Zaman Keemasan Berikutnya

Akuisisi IBM senilai $11 miliar atas Confluent yang diumumkan pada awal Desember, lebih dari sekedar konsolidasi besar di infrastruktur data: ini adalah pengakuan publik bahwa Kecerdasan Buatan (AI) secara fundamental didorong oleh peristiwa. Dengan kata lain, akuisisi ini membuktikan bahwa perusahaan memerlukan data-in-motion yang tepercaya sama seperti data-at-rest. Ketika organisasi terburu-buru untuk menggelar agen AI di seluruh operasional mereka pada 2025, kesepakatan ini menyoroti realisasi kritis: konteks waktu nyata adalah bahan yang hilang dalam membuat agen AI bekerja pada skala perusahaan.
Pembingkaian IBM sendiri mengungkapkan pergeseran strategis. Mereka memposisikan entitas gabungan sebagai “platform data pintar untuk agen AI” – infrastruktur yang dapat menghubungkan, memproses, dan mengatur data secara waktu nyata sehingga agen dapat beroperasi dengan lancar di seluruh lingkungan hybrid. Ini bukan tentang menjual lebih banyak infrastruktur streaming. Ini tentang mengakui bahwa agen AI memerlukan konteks yang terus-menerus dan segar untuk berfungsi dengan andal, dan bahwa data streaming adalah plumbing yang membuatnya memungkinkan.
Paradoks di Jantung AI Perusahaan
Akuisisi IBM juga menyoroti paradoks menarik di lanskap infrastruktur data. Beberapa tahun terakhir, beberapa vendor infrastruktur menarik diri dari open source, mengubah lisensi dan mundur ke model proprietary dalam mengejar monitisasi yang lebih kuat. Namun, adopsi AI memaksa ekosistem kembali ke arah keterbukaan. Mengapa? Agen memerlukan pipa dan penghubung yang dapat dioperasikan serta pengaturan di banyak sistem – bukan satu tumpukan vendor tertutup.
Munculnya model bahasa besar open-source (LLM) telah mendorong seluruh ekosistem AI ke arah transparansi dan portabilitas. Model seperti Llama, Mistral, dan banyak lainnya memberikan alternatif yang lebih murah dan lebih baik bagi perusahaan daripada model tertutup. Ini menciptakan ketegangan: vendor infrastruktur data menutup taman mereka tepat ketika perusahaan AI yang mengonsumsi produk mereka membuka taman mereka. Akuisisi IBM atas Confluent menandai awal dari reset, di mana tarikan AI memaksa infrastruktur kembali ke arah keterbukaan.
Manajemen Konteks: Kemampuan Perusahaan yang Diminta AI
Untuk memahami mengapa, kita perlu berbicara tentang apa yang saya sebut “manajemen konteks” – kemampuan perusahaan untuk menyampaikan konteks yang paling relevan, andal, dan terjaga kepada jendela konteks model. Ini bukan hanya implementasi Retrieval-Augmented Generation (RAG) ad-hoc yang tersebar di berbagai tim. Ini adalah pendekatan sistematis untuk memastikan agen AI memiliki akses ke informasi yang mereka butuhkan, kapan mereka membutuhkannya, dengan pengaturan dan provenance yang tepat.
Berikut adalah model mental sederhana: Agen berjalan pada konteks. Konteks berjalan pada pipa.
Pipa konteks terlihat seperti ini: sumber → streaming → penyimpanan (lakehouse/OLTP) → pengindeksan (vektor + leksikal + SQL) → kebijakan/pengaturan → penyajian → pengamatan/evaluasi.
Setiap lapisan perlu bekerja dengan andal, dan mereka perlu bekerja bersama. Streaming duduk di dasar karena menyediakan kesegaran terus-menerus yang agen perlukan.
Pendekatan RAG tradisional sering reaktif – mereka mengambil konteks ketika dipicu. Namun, agen juga memerlukan pembaruan proaktif: peristiwa yang terus-menerus menyegarkan memori, memperbarui indeks pengambilan, menyesuaikan izin, dan menegakkan kebijakan. Akuisisi Confluent oleh IBM pada dasarnya adalah taruhan pada “lapisan konteks yang selalu diperbarui” menjadi infrastruktur kritis untuk AI perusahaan.
Mengapa Agen Gagal (Dan Mengapa Ini Penting)
Tim AI perusahaan menemukan kebenaran yang tidak menyenangkan ini dengan cara yang sulit: agen tidak gagal karena LLM “bodoh.” Mereka gagal karena konteks yang mendasarinya rusak, ketinggalan zaman, tidak lengkap, atau tidak diatur. Faktanya, analis memperkirakan bahwa hingga 60% proyek AI akan ditinggalkan karena kurangnya data yang siap AI. Agen yang membuat keputusan pengadaan berdasarkan data inventori kemarin tidak berguna. Agen yang mengakses catatan pelanggan tanpa otorisasi yang tepat adalah mimpi buruk kepatuhan. Agen yang tidak dapat menjelaskan alasan mereka tidak dapat digunakan dalam industri yang diatur.
Perusahaan tidak dapat memeriksa keputusan AI tanpa provenance. Mereka tidak dapat menskalakan aplikasi AI tanpa kesegaran data yang konsisten. Mereka tidak dapat menggelar agen dengan percaya diri tanpa pengaturan yang tepat. Semua persyaratan ini menunjuk pada kesimpulan yang sama: manajemen konteks perlu menjadi infrastruktur kelas satu, bukan sesuatu yang dipikirkan belakangan.
Kebangkitan Open Source
Inilah di mana kebangkitan open source dimulai. Konteks melintasi terlalu banyak vendor dan sistem untuk satu tumpukan proprietary tunggal untuk menang. Pendekatan yang sukses akan menjadi antarmuka terbuka plus blok bangunan yang dapat dipindahkan: penghubung, platform streaming, pengelolaan metadata, sistem pengambilan, dan penegakan kebijakan. Lisensi tertutup memperlambat integrasi – dan integrasi adalah seluruh permainan dalam AI agen.
IBM memahami ini. Sejarah mereka dengan open source (terutama melalui Red Hat) memberi mereka kredibilitas. Entitas IBM-Confluent yang digabungkan diposisikan untuk mempercepat apa yang mereka sebut “kecerdasan yang didorong oleh peristiwa” dengan mengadopsi keterbukaan di mana itu penting: pada titik integrasi di mana sistem yang berbeda perlu bekerja bersama dengan lancar.
Kita sudah melihat pergeseran ini terjadi. Platform streaming open-source, format tabel terbuka seperti Apache Iceberg dan Delta Lake, dan standar terbuka untuk metadata dan pengaturan menjadi jaringan yang menghubungkan infrastruktur AI perusahaan. Organisasi menuntut portabilitas dan interoperabilitas karena mereka tahu mereka akan bekerja dengan banyak model AI, banyak toko data, dan banyak alat. Ketergantungan adalah musuh dari fleksibilitas yang mereka butuhkan.
Prediksi untuk 2026
Pada akhir 2026, saya memprediksi “manajemen konteks” akan muncul sebagai kategori yang diberi nama dalam tumpukan teknologi perusahaan. Pembeli akan menuntut tiga hal:
- Pertama, penghubung terbuka dan arsitektur “bawa-sendiri” untuk toko data dan indeks. Tidak ada vendor tunggal yang akan mengontrol seluruh pipa konteks.
- Kedua, API konteks standar di seluruh alat. Tim perlu dapat menukar komponen tanpa membangun seluruh sistem.
- Ketiga, provenance yang diatur sebagai default, bukan tambahan. Setiap bagian konteks perlu memiliki garis keturunan yang jelas, dan setiap keputusan agen perlu jejak audit.
Ini bukanlah hal yang enak. Ini adalah taruhan untuk adopsi AI perusahaan pada skala besar.
Reset Dimulai
IBM membeli Confluent menandai awal dari reset mendasar dalam infrastruktur data. Momentum AI, yang didorong oleh kebutuhan akan agen yang canggih yang beroperasi dalam konteks yang segar dan andal, memaksa industri kembali ke arah keterbukaan. Apakah itu open source murni atau, setidaknya, interoperabilitas yang terbuka dan dapat ditegakkan, tergantung pada bagaimana pasar berkembang. Namun, arahnya jelas.
Vendor yang akan berkembang dalam era baru ini tidak akan menjadi mereka yang memiliki tumpukan tertutup dan proprietary paling banyak. Mereka akan menjadi mereka yang mengadopsi keterbukaan pada lapisan integrasi, yang menyediakan interoperabilitas yang sebenarnya, dan yang membantu perusahaan membangun kemampuan manajemen konteks tanpa kendala buatan.
Gelombang inovasi berikutnya akan datang dari infrastruktur AI open-source yang memungkinkan perusahaan membangun agen dan aplikasi canggih tanpa ketergantungan vendor. Ini bukan idealisme – ini adalah pragmatisme. Karena ketika Anda membangun sistem AI kritis yang perlu melintasi seluruh perusahaan, keterbukaan bukanlah filosofi. Ini adalah persyaratan.












