Pemimpin pemikiran
Mengapa Agen AI di Perusahaan Mengalami Masalah Pengetahuan, Bukan Teknologi

Tahun lalu, S&P Global melaporkan bahwa proporsi perusahaan yang meninggalkan sebagian besar inisiatif AI mereka lebih dari dua kali lipat, dari 17% menjadi 42%. Sebelum itu, Gartner menerbitkan ramalan tentang proyek AI agen: 40% dari mereka akan dihentikan pada akhir 2027.
Menurut McKinsey & Company, hampir setengah dari semua perusahaan bereksperimen dengan agen AI. Tapi, berapa banyak yang telah melampaui tahap pilot dan benar-benar beroperasi? Sekitar satu dari sepuluh.
Industri ini tidak kekurangan penjelasan: halusinasi model, kurangnya tata kelola, biaya GPU yang tinggi, dan kekurangan spesialis. Semua ini adalah tantangan nyata. Namun, setelah tiga tahun bekerja dengan sistem manajemen pengetahuan dan agen AI, saya semakin melihat pola yang berbeda: perusahaan yang memberikan data yang tidak lengkap kepada agen mereka.
Sebagai Doktor Ilmu Pedagogi, saya melihat ini sebagai masalah transfer pengetahuan. Jika seseorang tidak dapat menjelaskan bagaimana mereka membuat keputusan, logika mereka tidak dapat dipindahkan ke karyawan baru — apalagi ke agen AI. Mari kita jelajahi mengapa ini terjadi dan apa yang dapat dilakukan tentang hal itu.
Di mana pengetahuan tentang bagaimana perusahaan benar-benar beroperasi berada
Tanyakan kepada perusahaan besar di mana pengetahuan karyawan disimpan, dan Anda akan mendengar daftar panjang: Confluence, SharePoint, platform LMS, bot FAQ, arsip Slack. Ini mungkin tampak seperti ini adalah tepat stack yang dapat digunakan sistem RAG untuk mengambil semua yang dibutuhkan. Namun, satu elemen krusial yang hilang — pengetahuan yang hidup di kepala orang. Pengetahuan yang tidak pernah ditulis.
Mengapa ini menjadi masalah?
Karena agen AI untuk mengambil alih sebagian alur kerja — memahami konteks, memilih tindakan, dan menyelesaikan tugas — membutuhkan tidak hanya akses ke basis pengetahuan, tetapi juga logika pengambilan keputusan yang digunakan oleh spesialis berpengalaman.
Bayangkan agen dukungan baru yang menerima permintaan: pelanggan mengklaim telah membayar untuk layanan, tetapi akses belum diaktifkan. Skrip termasuk set standar langkah yang berakhir dengan meminta pelanggan untuk menunggu. Namun, agen memperhatikan bahwa situasi ini tidak biasa: pelanggan telah menghubungi dukungan dua kali, dan ada beberapa kasus serupa di sistem selama satu jam terakhir. Mereka menghubungi rekan yang lebih berpengalaman, yang menjelaskan bahwa mereka telah melihat ini sebelumnya dan bahwa masalahnya kemungkinan besar adalah kegagalan di persimpangan gerbang pembayaran, bank, dan sistem aktivasi internal — sehingga kasus tersebut harus dinaikkan ke departemen lain.
Bagi agen AI, logika ini tidak terlihat. Mungkin memiliki akses ke skrip, riwayat tiket, dan status pembayaran jika sumber data ini terhubung, tetapi tidak tahu tanda-tanda apa yang dianggap penting oleh operator berpengalaman. Ini bukan karena ahli sengaja menyembunyikan pengetahuan ini. Mereka hanya tidak dapat memformalkan atau memecahnya menjadi langkah-langkah: opsi mana yang dihilangkan, mengapa tindakan tertentu dipilih, dan pada titik mana menjadi jelas bahwa skenario standar tidak berlaku. Ilmuwan kognitif menyebut fenomena ini pengetahuan tacit — pengetahuan implisit yang bahkan pemiliknya mungkin tidak sepenuhnya menyadari.
Ini adalah mengapa bottleneck tidak muncul pada tingkat akses ke dokumen, tetapi pada tahap mengubah pengalaman ahli menjadi format yang sesuai untuk melatih agen AI.
Apa yang dapat dilakukan tentang hal itu
Untuk membuat agen AI bekerja secara efektif, tidak cukup hanya untuk menghubungkan LLM ke basis pengetahuan perusahaan, karena keputusan yang sukses sering bergantung pada pengetahuan tacit. Lapisan pengetahuan harus dibuat terlebih dahulu, termasuk kriteria pengambilan keputusan yang terstruktur.
Dalam manajemen pengetahuan, proses ini disebut eksternalisasi — mengubah pengetahuan tacit menjadi pengetahuan eksplisit. Dengan kata lain, perusahaan perlu memahami tidak hanya apa yang dilakukan ahli, tetapi bagaimana mereka berpikir. Ini biasanya dilakukan melalui serangkaian wawancara mendalam dengan ahli terbaik. Bersama mereka harus ada orang yang terampil dalam mengajukan pertanyaan yang tepat: metodolog, insinyur pengetahuan, atau spesialis desain instruksional. Tugas mereka bukan untuk menulis “instruksi berdasarkan apa yang dikatakan ahli,” tetapi untuk merekonstruksi kriteria untuk memilih antara opsi, memecah kasus tepi, dan mengungkap kesalahan umum yang ahli sudah tangani secara otomatis.
Di sini, AI dapat membantu secara signifikan: menyalin wawancara, mengelompokkan kasus serupa, mengubah penjelasan ahli menjadi draf skenario, dan menghasilkan situasi untuk validasi. Namun, struktur akhir masih perlu ditinjau dan disetujui oleh ahli.
Hasilnya harus menjadi corpus pengetahuan yang berfungsi. Ini dapat digunakan dalam dua arah secara bersamaan — untuk melatih karyawan baru dan untuk mengkonfigurasi agen AI. Kedua skenario bergantung pada fondasi yang sama: pengalaman terstruktur dari spesialis terbaik.
Alternatifnya adalah terus mengandalkan asumsi bahwa RAG di atas Confluence akan merekonstruksi logika yang tidak pernah didokumentasikan. Dalam praktek, ini hampir tidak pernah berhasil: sistem mungkin mengambil dokumen yang relevan, tetapi tidak akan belajar bagaimana membuat keputusan dalam situasi di mana tindakan yang benar bergantung pada konteks dan pengalaman.
Bagaimana memeriksa apakah agen siap bekerja
Anda telah mengubah pengetahuan ahli menjadi skenario dan mengkonfigurasi agen. Namun, ada kesenjangan antara jawaban agen yang masuk akal dan kinerja operasional nyata — dan kesenjangan ini hanya menjadi terlihat selama validasi. Pada tahap ini, penting untuk menentukan apakah Anda telah benar-benar menangkap semua pengetahuan yang diperlukan.
Pendekatan praktis adalah pengujian berbasis skenario. Anda memberikan agen kasus nyata dari pekerjaan sehari-hari ahli: pelanggan membantah biaya, email yang tidak biasa tiba, atau permintaan yang tidak sesuai dengan skrip dasar. Hasilnya tidak boleh dievaluasi oleh LLM lain, tetapi oleh ahli yang sama yang membantu membangun corpus pengetahuan. Jika agen mengambil jalur yang berbeda dari ahli berpengalaman, itu tidak selalu berarti modelnya lemah. Lebih sering, ini menunjukkan bahwa aturan kritis, pengecualian, atau contoh yang hilang. Dalam hal ini, prosesnya kembali ke awal: metodolog memperjelas logika dengan ahli, corpus pengetahuan diperbarui, instruksi diperbarui, dan pengujian diulangi.
Siklus ini bukanlah langkah opsional, tetapi tahap yang menentukan perbedaan antara agen yang hanya “menunjukkan potensi” dan yang benar-benar melakukan pekerjaan. Ini adalah bagian lambat dan tidak terlalu mengesankan dari proses: tidak menghasilkan demo yang mencolok dan memerlukan keterlibatan ahli. Namun, mereka yang melalui ini secara sistematis berakhir dengan agen yang benar-benar mengurangi beban kerja rutin untuk spesialis. Mereka yang melewatkan ini, dalam enam bulan sering menemukan diri mereka dalam statistik Gartner, yang memprediksi bahwa 40% proyek akan dibatalkan.
AI agen tidak gagal karena teknologi — model modern sudah mampu melakukan tugas yang kompleks. Ini gagal karena perusahaan “memberi” pengetahuan yang tidak lengkap. Pada 2024–2025, ini masih bisa dijelaskan oleh tahap eksperimental. Pada 2026, kesalahan ini sudah memiliki biaya yang tinggi.












