Wawancara
Efrain Ruh, CTO of EMEA di Digitate – Seri Wawancara

Efrain Ruh adalah Chief Technology Officer untuk EMEA di Digitate, di mana ia memimpin strategi teknologi regional dengan fokus kuat pada AI perusahaan, otomatisasi, dan transformasi operasional skala besar. Ia bekerja sama dengan pelanggan di seluruh Eropa, Timur Tengah, dan Afrika untuk membantu organisasi mengirimkan AI secara bertanggung jawab, menekankan eksekusi praktis, tata kelola, dan hasil yang dapat diukur. Ruh adalah kontributor aktif dalam diskusi industri tentang AI agen, kematangan MLOps, dan kenyataan beralih dari pilot AI ke sistem produksi.
Digitate adalah perusahaan perangkat lunak perusahaan dan anak perusahaan dari Tata Consultancy Services yang mengkhususkan diri dalam otomatisasi yang didorong AI untuk IT dan operasi bisnis. Platform intinya, ignio, memungkinkan operasi otonom dengan menggabungkan pembelajaran mesin, grafik pengetahuan, dan otomatisasi cerdas untuk mendeteksi masalah, memprediksi hasil, dan memperbaiki sistem secara mandiri di seluruh lingkungan perusahaan yang kompleks. Digitate melayani organisasi global besar yang mencari untuk mengurangi kompleksitas operasional sambil meningkatkan ketahanan dan efisiensi melalui AI yang diterapkan.
Bagaimana pandangan Anda tentang pentingnya AI yang dapat dijelaskan berkembang dibandingkan dengan model otomatisasi black-box yang masih digunakan oleh banyak organisasi saat ini?
Generasi otomatisasi sebelumnya sebagian besar bersifat reaktif dan berbasis aturan, yang membuat perilaku black-box lebih toleran karena hasilnya sangat dapat diprediksi. Ketika sistem AI sekarang beralih ke agen proaktif yang dapat bernalar dan menghasilkan respons mereka sendiri, toleransi untuk opasitas menghilang. Pemimpin IT bertanggung jawab untuk menjaga ketersediaan sistem kritis misi sepanjang waktu, dan tanggung jawab itu meninggalkan sangat sedikit ruang untuk eksperimen dengan sistem yang alasan mereka tidak dapat divalidasi. Kemampuan menjelaskan telah bergeser dari fitur teknis menjadi persyaratan operasional yang memungkinkan kepercayaan pada skala besar. Agar dapat dipercaya, agen AI ini harus membagikan garis pemikiran mereka (secara sederhana, bagaimana mereka mencapai solusi) dan hasil penalaran mereka.
Mengapa kepercayaan dan kemampuan menjelaskan muncul sebagai hambatan terbesar untuk adopsi yang lebih luas dari otomatisasi yang didorong AI di IT perusahaan?
IT perusahaan beroperasi di bawah akuntabilitas dan risiko konstan. Ketika sistem AI membuat keputusan secara otonom, terutama dalam model operasi pencegahan atau perbaikan mandiri, tim pengawasan harus dapat memahami mengapa tindakan tertentu diambil. Tanpa visibilitas ke dalam bukti, konteks, dan logika keputusan, AI memperkenalkan ketidakpastian daripada menguranginya. Kekurangan transparansi dan ketidakpastian tersebut mempengaruhi kepercayaan, sehingga memperlambat adopsi di antara tim IT lebih dari akurasi model atau kinerja yang pernah bisa.
Apa yang sebenarnya dimaksud dengan kemampuan menjelaskan dalam operasi IT yang didorong AI, dan bagaimana hal itu dapat membantu tim memvalidasi keputusan sebelum sistem bertindak secara otonom?
Kemampuan menjelaskan yang sebenarnya adalah praktis dan berfokus pada operator. Ini berarti bahwa teknologi harus secara jelas menunjukkan data yang digunakan untuk penalaran, memvalidasi bahwa sistem memahami konteks operasional yang benar, dan menjelaskan rekomendasi tindakan dalam istilah yang dapat dibaca manusia. Ini juga mencakup validasi historis, seperti apakah keputusan serupa telah dibuat sebelumnya dan apa hasilnya. Ini memungkinkan tim untuk memvalidasi tindakan dengan cepat dan memperluas eksekusi otonom dengan percaya diri di mana risiko rendah. Jika orang tidak dapat dengan cepat mencerna dan bertindak atas keluaran, maka alat kemampuan menjelaskan gagal untuk melayani tujuannya.
Bagaimana kekurangan kemampuan menjelaskan diterjemahkan ke dalam risiko operasional, keuangan, atau bisnis nyata untuk organisasi besar?
Jika Anda menjalankan pabrik dan peralatan vital kekurangan peringatan untuk mengidentifikasi masalah pemeliharaan, itu akhirnya akan mulai rusak tanpa mengingatkan tim – menyebabkan produk berkualitas buruk atau downtime yang tidak terencana. Serupa dengan itu, AI tanpa kemampuan menjelaskan dapat mengubah masalah data kecil menjadi insiden bisnis besar. Sistem peramalan kapasitas berbasis AI yang beroperasi pada data tidak lengkap mungkin mengurangi kapasitas infrastruktur untuk menghemat biaya, hanya untuk menyebabkan degradasi kinerja parah selama periode pemrosesan puncak. Dalam kasus sistem AI perusahaan, Anda sering melihat dampak dari kemampuan menjelaskan yang buruk melalui SLA yang terlewat, penalti keuangan, dan dampak pelanggan. Serupa dengan itu, penekanan peringatan yang agresif dapat menyembunyikan kegagalan kritis, memungkinkan downtime tidak terdeteksi sampai menjadi darurat sebenarnya.
Dari perspektif Anda, apa peran yang harus dimainkan oleh platform AI dalam membuat penalaran mereka dapat diaudit dan dipahami oleh tim IT yang mengoperasikan sistem kritis misi?
Platform AI yang dirancang dengan baik memiliki kemampuan menjelaskan yang sudah terintegrasi, sederhana. Sistem otonom harus mendokumentasikan data yang digunakan, logika yang diterapkan, tindakan yang direkomendasikan atau diambil, dan hasil yang diikuti. Informasi ini perlu disajikan dalam bahasa operasional yang digunakan tim IT, seperti ketergantungan, insiden historis, dan dampak bisnis, bukan skor AI abstrak. Kemampuan diaudit sangat penting untuk akuntabilitas, pembelajaran, dan kepercayaan jangka panjang.
Apa pendekatan arsitektur atau desain yang membantu perusahaan beralih dari otomatisasi yang tidak transparan ke pengambilan keputusan yang lebih transparan, glass-box?
Perusahaan mengadopsi arsitektur yang mengaitkan keputusan AI dengan data operasional berkualitas tinggi dan memisahkan validasi data dari logika keputusan. Sistem transparan memastikan AI bekerja dengan input dan asumsi yang benar sebelum bertindak. Banyak organisasi juga menggunakan otonomi bertahap, dimulai dengan rekomendasi dan kemudian membatasi eksekusi otonom saat kepercayaan tumbuh. Akses data terbuka dan lapisan kebijakan yang jelas sangat penting untuk menghindari perilaku black-box saat otonomi meningkat. Masih banyak ruang bagi industri untuk tumbuh dalam fitur kemampuan menjelaskan, dan saya pikir kita akan melihat ledakan fitur kemampuan menjelaskan tahun ini
Bagaimana organisasi mencapai keseimbangan yang tepat antara tindakan AI otonom dan pengawasan manusia tanpa memperlambat operasi?
Keseimbangan dicapai melalui kontrol berbasis risiko daripada pengawasan blanket. Tugas dengan risiko rendah dan frekuensi tinggi dapat diotomatisasi dari ujung ke ujung dengan guardrails, sementara keputusan dengan dampak yang lebih besar tetap divalidasi oleh manusia sampai sistem membuktikan keandalan. Saat kemampuan menjelaskan meningkat dan AI konsisten menunjukkan penilaian yang solid, otonomi secara alami berkembang tanpa memperkenalkan gesekan operasional.
Apa saran yang Anda berikan kepada CIO dan CTO yang ingin menskalakan AI di seluruh operasi IT tetapi menghadapi perlawanan internal karena kekhawatiran tentang visibilitas dan akuntabilitas?
Mulailah dengan transparansi, bukan otonomi. Libatkan tim IT Anda sejak dini dan prioritaskan visibilitas dalam desain dan peluncuran untuk membangun kepercayaan. Perlawanan biasanya berasal dari kurangnya wawasan ke dalam keputusan AI, bukan dari oposisi terhadap inovasi itu sendiri. Kemudian, fokus pada kasus penggunaan yang mengurangi kebisingan, menghilangkan kelelahan peringatan, dan menjelaskan dengan jelas bagaimana keputusan dibuat sebelum memungkinkan sistem untuk bertindak secara mandiri.
Bagaimana tim kepemimpinan harus memikirkan kembali tata kelola, validasi, dan model kepercayaan saat sistem AI mengambil lebih banyak tanggung jawab keputusan?
Tata kelola harus bergeser dari proses persetujuan statis ke validasi terus-menerus. Tim kepemimpinan perlu mendefinisikan di mana otonomi diizinkan, apa bukti yang diperlukan, dan kapan intervensi manusia diperlukan. Kepercayaan harus diperoleh melalui hasil yang dapat diukur seperti akurasi, insiden yang berkurang, dan waktu resolusi yang lebih cepat, bukan asumsi tentang kesophistikan model.
Menghadap ke depan, bagaimana Anda melihat AI yang dapat dijelaskan dan transparan mengubah masa depan operasi IT otonom dalam beberapa tahun ke depan?
AI yang dapat dijelaskan akan menjadi bagian fundamental dari teka-teki ketika membangun operasi IT proaktif dan otonom untuk menskalakan dengan aman, tanpa kehilangan kepercayaan tim IT yang vital. AI generatif sudah meningkatkan transparansi dengan memungkinkan sistem untuk mengungkapkan bukti, memvalidasi fakta, dan menjelaskan keputusan dalam istilah yang dapat dibaca manusia. Dalam beberapa tahun ke depan, tingkat kemampuan menjelaskan ini akan menjadi standar, memungkinkan organisasi untuk melampaui eksperimen dan mengintegrasikan AI secara mendalam ke dalam operasi, tata kelola, dan alur kerja sebagai mitra tepercaya daripada pengambil keputusan yang tidak transparan. Dalam beberapa tahun ke depan, agen AI akan ditempatkan untuk mengelola berbagai kegiatan organisasi, mereka akan menjadi bagian dari kehidupan sehari-hari kita, tetapi untuk ini kita perlu dapat mempercayai mereka dan akurasi serta transparansi adalah aspek kunci untuk mencapai tujuan ini.
Terima kasih atas wawancara yang luar biasa, pembaca yang ingin mempelajari lebih lanjut harus mengunjungi Digitate.












