Connect with us

Pemimpin pemikiran

95% Pilot AI Gagal, dan Data Buruk adalah Penyebabnya

mm

Penelitian MIT membawa kenyataan yang menyedihkan bagi para pemimpin perusahaan: 95% proyek AI tidak pernah melewati tahap pilot. Meskipun ada banyak pembicaraan di ruang rapat tentang potensi transformasi AI, sebagian besar inisiatif gagal menghasilkan nilai bisnis yang berarti.

Kebijaksanaan konvensional menyalahkan model yang lemah, kemampuan komputasi yang terbatas, atau bakat teknis yang langka. Namun, pengalaman bekerja dengan ratusan perusahaan mengatakan cerita yang berbeda. Hambatan sebenarnya bukanlah algoritma. Ini adalah data. Data buruk atau tidak konsisten secara diam-diam melemahkan bahkan upaya AI yang paling canggih, mengubah taruhan inovasi menjadi biaya yang terbuang.

Biaya Tersembunyi dari Data Buruk

Di perusahaan, data buruk sering menggagalkan proyek AI sebelum mereka berkembang. Pertimbangkan skenario yang familiar: sebuah Perusahaan Fortune 500 menghabiskan berbulan-bulan untuk membangun model prediksi churn. Pilot terlihat kuat — akurat dan penuh janji. Namun, saat itu bergerak menuju produksi, retakan mulai muncul.

Pipa pecah pada waktu-waktu terburuk. Pekerjaan kritis berjalan berjam-jam terlambat, melewatkan jendela intervensi. Tabel tiba-tiba kehilangan baris setelah perubahan hulu yang tidak diumumkan. Kredential API kedaluwarsa tanpa peringatan, memutuskan umpan penting. Data pilot yang bersih berubah menjadi aliran input yang tidak segar atau tidak konsisten.

Efek riaknya sangat dahsyat. Ada prediksi yang tidak dapat diandalkan, dan stakeholders kehilangan kepercayaan. Proyek tersebut diletakkan, tidak karena algoritma gagal, tetapi karena fondasi runtuh. Berbulan-bulan pengembangan, jutaan dalam investasi, dan berjam-jam kerja insinyur menghilang. 

Ini bukanlah kasus yang terisolasi. Menurut laporan State of Data Observability 2024 dari Pantomath, 94% organisasi mengatakan masalah pipa merusak kepercayaan pada data mereka, dan 90% membutuhkan berjam-jam atau bahkan berminggu-minggu untuk memperbaikinya. Jika strategi AI Anda bergantung pada data yang tidak dapat diandalkan, kegagalan menunggu di sekitar sudut. 

Mengapa AI Membutuhkan Fondasi Kuat

Keberhasilan AI bergantung pada kualitas data. Seperti yang dikatakan, “Sampah masuk, sampah keluar.”  Bahkan model terbaik runtuh jika data yang memasukinya rusak, seperti membangun sebuah gedung pencakar langit di atas tanah liat.

Bayangkan sebuah mobil balap: teknik engineering kelas dunia dan pengemudi terampil tidak berarti apa-apa jika bahan bakar terkontaminasi. Dengan cara yang sama, model pembelajaran mesin yang elegan gagal ketika ditenagai oleh data yang tidak dapat diandalkan.

Sistem AI membutuhkan data akurat dan real-time untuk beradaptasi dan berkinerja. Setiap gangguan — pekerjaan gagal, catatan hilang, perubahan skema — dapat merusak akurasi atau bahkan memecahkan sistem secara keseluruhan. Mungkin sebuah mesin rekomendasi salah sasaran dan pelanggan churn, atau sistem deteksi penipuan melewatkan ancaman. 

Tanpa fondasi data yang kuat, AI dengan cepat berubah menjadi sebuah beban besar. Itulah mengapa keandalan data, kepercayaan, dan integritas adalah prasyarat untuk setiap strategi AI yang sukses.

Keadaan Saat Ini dari Operasi Data

Sebagian besar perusahaan masih bergantung pada proses manual, reaktif untuk menjalankan operasi data — sebuah model yang tidak dapat diskalakan untuk AI. Ketika sesuatu rusak, insinyur berlari untuk menelusuri masalah di seluruh arsitektur multi-platform yang kompleks dan memperbaikinya satu per satu.

Pendekatan pemadaman kebakaran ini menciptakan tiga masalah besar:

  • Deteksi Tertunda: Masalah dapat bertahan selama berhari-hari atau berminggu-minggu, meninggalkan model AI berjalan pada data yang rusak.
  • Perbaikan Tidak Lengkap: Pemecahan masalah manual tidak konsisten, sering melewatkan penyebab akar dan meninggalkan sistem rentan.
  • Kapasitas Hilang: Bakat insinyur menghabiskan lebih banyak waktu mengejar kegagalan daripada mengemudi inovasi.

Kesulitan hanya memperburuk tantangan. Ekosistem data modern mencakup puluhan platform dan ketergantungan yang rumit yang sedikit orang benar-benar pahami. Mendiagnosis penyebab akar sering berarti meretas kembali pipa. Proses ini mungkin membutuhkan berhari-hari atau bahkan berminggu-minggu.

Lemparkan lebih banyak orang ke masalah: konsultan, kontraktor, tim data yang lebih besar. Itu seperti memecahkan kemacetan lalu lintas dengan merekrut lebih banyak polisi lalu lintas. Masalah sebenarnya bukanlah penjadwalan, tetapi ketiadaan sistem keandalan data. 

Observabilitas dan Otomatisasi sebagai Katalis

Jalan ke depan adalah menggeser operasi data dari pemadaman kebakaran manual ke operasi proaktif, otomatis yang dibangun di atas dua pilar: observabilitas dan otomatisasi.

Observabilitas memberikan visibilitas waktu nyata ke seluruh ekosistem data — memantau kinerja pekerjaan, kesegaran, kualitas, dan ketergantungan — sehingga masalah dapat ditangkap sebelum mereka mencapai aplikasi AI. Alih-alih menunggu tim hilir melaporkan masalah, perusahaan mendapatkan pandangan yang selalu aktif ke dalam kesehatan dan aliran data mereka.

Otomatisasi menambahkan kecepatan dan skala yang diperlukan untuk bertindak atas visibilitas tersebut. Ketika pekerjaan kritis gagal pada pukul 3 pagi, sistem otomatis dapat menghentikan aliran kerja hilir, memberi tahu tim yang tepat dengan konteks penuh, dan bahkan meluncurkan tindakan korektif.

Kedua kemampuan ini menandai pergeseran mendasar. Keandalan data tidak lagi hanya menjadi tugas belakang kantor untuk insinyur khusus. Ini muncul sebagai kemampuan strategis yang mendukung setiap ambisi perusahaan untuk AI.

Mengatasi Celah Pilot-ke-Produksi

Kegagalan banyak inisiatif AI terletak pada lompatan dari pilot ke produksi. Pilot berjalan pada dataset statis yang dikurasi yang ilmuwan data dapat bersihkan dan validasi dengan hati-hati. Produksi, di sisi lain, kacau. Ini membutuhkan penanganan aliran data yang tidak berhenti dari seluruh perusahaan.

Ketika teori menjadi praktek, itulah saat retakan mulai muncul. Proses batch yang bekerja dalam pilot tidak dapat mengikuti tuntutan waktu nyata. Dataset yang divalidasi sebelumnya memberi jalan bagi input yang tidak konsisten dan mentah. Lingkungan yang terkendali harus berinteraksi dengan platform warisan, API pihak ketiga, dan sistem bisnis yang berubah terus-menerus.

Itulah mengapa perusahaan yang menjembatani kesenjangan ini berinvestasi pada infrastruktur keandalan data. Fondasi keandalan data mendukung tuntutan produksi dunia nyata yang kacau. Keandalan data membantu sistem Anda mempersiapkan apa yang akan datang.  

Rekomendasi untuk Perusahaan

Organisasi yang menskalakan AI dengan sukses berbagi strategi umum:

  • Investasikan pada keandalan data dari awal. Buat kualitas sebagai prasyarat, meletakkan pemantauan, pengujian, dan validasi sebelum memindahkan pilot ke produksi.
  • Implementasikan praktik observabilitas. Lacak tidak hanya kegagalan pekerjaan, tetapi juga kesegaran, perubahan volume, perubahan skema, dan metrik kualitas yang secara langsung mempengaruhi kinerja AI.
  • Otomatisasi operasi rutin. Gunakan deteksi dan resolusi otomatis untuk mengurangi pemadaman kebakaran dan membebaskan insinyur untuk pekerjaan strategis.
  • Bangun mekanisme akuntabilitas. Perlakukan kualitas data sebagai prioritas bisnis dengan kepemilikan yang jelas dan umpan balik antara produsen dan konsumen.
  • Desain untuk ketahanan. Arsitektur sistem untuk mengandung kegagalan, menggunakan titik validasi untuk mencegah data buruk menyebar.

Tingkat kegagalan AI 95% tidaklah tak terhindarkan. Ini dapat dicegah. Masalahnya bukanlah AI itu sendiri, tetapi kurangnya fondasi data yang kuat untuk mendukungnya. Keberhasilan dalam operasi data adalah keberhasilan dalam AI. Keduanya sama. 

Ini adalah panggilan bangun. Perusahaan harus melampaui pendekatan manual, reaktif dan mengadopsi sistem proaktif, otomatis. Jangan berhenti sampai Anda memiliki keandalan yang sebenarnya. Alat dan praktik untuk memperbaiki “masalah data buruk” sudah ada hari ini.

Organisasi yang mengadopsi pergeseran ini akan melihat lebih dari tingkat keberhasilan AI yang lebih tinggi. Mereka mengubah cara mereka menggunakan data, membuka jalan bagi wawasan baru di seluruh bisnis.

Jadi Anda bisa terus membiayai pilot yang dikutuk oleh data yang tidak dapat diandalkan. Atau Anda bisa membangun fondasi yang kuat yang membuat AI menjadi keunggulan yang berkelanjutan. Ini tergantung pada Anda. 

Shashank adalah CEO dari Pantomath dan memainkan peran instrumental dalam pendirian perusahaan. Ia juga merupakan Partner di Sierra Ventures, di mana ia memimpin investasi perangkat lunak perusahaan. Sebelum bergabung dengan Pantomath dan Sierra Ventures, Shashank adalah Co-Founder dan CEO dari VNDLY, yang didirikan pada 2017 sebagai Vendor Management System (VMS) di Cincinnati, OH, dan diakuisisi oleh Workday pada 2021 seharga $510M.

Setelah akuisisi, Shashank menjabat sebagai General Manager untuk Workday VNDLY. Shashank memulai karirnya dalam pengelolaan aplikasi IT di perbankan, ritel, dan e-commerce sebelum membangun rekam jejak yang sukses di perusahaan Fortune 25, seperti Citi dan Kroger, Co., di mana ia memimpin strategi perusahaan dan transformasi digital. Shashank juga telah menjadi investor malaikat awal dan mitra ventura yang aktif dan telah terlibat dengan beberapa perusahaan SaaS lainnya. Shashank memiliki gelar sarjana dalam ilmu komputer dan MBA dalam keuangan, serta gelar MS dalam sistem informasi dari Universitas Cincinnati.