Connect with us

Pemimpin pemikiran

Ketika AI Memasuki Operasional, Kemampuan Penjelasan Menjadi Tidak Dapat Ditawar

mm

Adopsi AI perusahaan telah memasuki fase yang lebih pragmatis. Bagi pemimpin teknologi, tantangan tidak lagi meyakinkan organisasi bahwa AI memiliki potensi. Namun, memastikan bahwa sistem yang mempengaruhi keputusan operasional dapat dipahami, dikelola, dan dipertahankan.

AI mendapatkan tempatnya di perusahaan ketika orang-orang mau mengandalkannya. Ketergantungan itu tidak dibangun hanya berdasarkan statistik kinerja. Namun, tergantung pada apakah tim merasa mereka masih mengendalikan ketika otomatisasi menjadi bagian dari alur kerja sehari-hari.

Di banyak organisasi, perasaan mengendalikan masih tidak pasti.

Mengapa Opasitas Melambatkan Adopsi

AI sekarang telah tertanam di seluruh IT operasional, dari pengaturan permintaan layanan hingga korelasi insiden dan perencanaan kapasitas. Ini adalah lingkungan di mana keputusan saling terkait dan kesalahan dapat berkembang dengan cepat. Ketika output AI muncul tanpa konteks, tim sering ragu. Otomatisasi mungkin telah diterapkan secara teknis, tetapi rekomendasinya diperiksa ulang, ditunda, atau disingkirkan secara diam-diam.

Perilaku ini sering salah diartikan sebagai resistensi terhadap perubahan. Namun, kenyataannya, ini mencerminkan tanggung jawab profesional di lingkungan operasional yang berisiko tinggi. Contoh publik kegagalan AI telah mempertajam kehati-hatian ini. Ketika sistem otomatis menghasilkan output yang tampak percaya diri tetapi terbukti salah, kerusakan jarang disebabkan oleh ambisi saja. Ini berasal dari opasitas. Jika tidak ada yang dapat menjelaskan bagaimana suatu kesimpulan dicapai, kepercayaan akan terkikis, bahkan jika sistemnya biasanya akurat.

Di dalam tim IT, ini muncul secara halus. Otomatisasi beroperasi dalam mode penasihat daripada mode eksekusi. Insinyur tetap bertanggung jawab atas hasilnya, tetapi diharapkan untuk mempercayai penalaran yang tidak dapat mereka inspeksi. Dalam jangka waktu, ketidakseimbangan ini menciptakan gesekan. AI hadir, tetapi nilainya terbatas.

Proses AI yang Transparan

Transparansi yang lebih besar dan kemampuan penjelasan dapat menangani masalah ini dengan mengembalikan akuntabilitas ke pengambilan keputusan otomatis. AI yang dapat dijelaskan tidak berarti mengungkapkan setiap perhitungan internal. Namun, memberikan wawasan yang relevan bagi operator manusia; data mana yang mempengaruhi keputusan, kondisi mana yang memiliki bobot terbesar, dan bagaimana tingkat kepercayaan dievaluasi. Konteks ini memungkinkan tim untuk menilai apakah output sesuai dengan kenyataan operasional.

Juga dikenal sebagai AI kotak putih, AI yang dapat dijelaskan menciptakan lapisan interpretatif yang menjelaskan bagaimana keputusan AI dibuat, bukan menyembunyikan proses dan logika dari pandangan. Ini tidak hanya berarti sistem AI dapat menjadi bagian dari kerangka akuntabel, tetapi juga pengguna memahami bagaimana setiap sistem bekerja. Ini juga berarti dapat mengidentifikasi kerentanan model AI dan melindungi terhadap bias.

Sangat penting, kemampuan penjelasan berarti bahwa ketika sesuatu salah, tim dapat melacak jalur penalaran, mengidentifikasi sinyal lemah, dan memperbaiki proses. Tanpa visibilitas itu, kesalahaneither diulangi atau dihindari sepenuhnya dengan menonaktifkan otomatisasi.

Kemampuan Penjelasan dalam Aksi

Pertimbangkan manajemen insiden. AI sering digunakan untuk mengelompokkan peringatan bersama dan menyarankan kemungkinan penyebab. Di lingkungan perusahaan besar, satu ketergantungan yang salah diklasifikasikan selama insiden besar dapat menunda resolusi selama berjam-jam, menarik beberapa tim ke dalam investigasi paralel sementara layanan yang menghadap pelanggan tetap terdegradasi. Ketika saran tersebut disertai dengan penjelasan yang jelas tentang sistem mana yang terlibat, bagaimana ketergantungan diakses atau insiden mana yang dirujuk, insinyur dapat menilai rekomendasi dengan cepat. Jika ternyata salah, wawasan itu dapat digunakan untuk memperbaiki baik model maupun proses.

Tanpa transparansi itu, tim kembali ke diagnosis manual, terlepas dari seberapa maju AI tersebut.

Akuntabilitas dan Kepemilikan

Kemampuan penjelasan juga mengubah bagaimana akuntabilitas didistribusikan. Di lingkungan operasional, tanggung jawab tidak menghilang hanya karena keputusan telah dioptimalkan. Seseorang masih harus bertanggung jawab atas hasilnya. Ketika AI dapat menjelaskan dirinya, akuntabilitas menjadi lebih jelas dan lebih mudah dikelola. Keputusan dapat ditinjau, dibenarkan, dan diperbaiki tanpa harus menggunakan cara kerja defensif.

Ada manfaat tata kelola juga, meskipun ini jarang menjadi motivator utama secara internal. Kerangka akuntabilitas dan perlindungan data yang ada sudah memerlukan organisasi untuk menjelaskan keputusan otomatis dalam konteks tertentu. Ketika peraturan AI terus berkembang, sistem yang tidak transparan mungkin mengekspos organisasi ke risiko yang tidak perlu.

Namun, nilai yang lebih besar dari kemampuan penjelasan terletak pada ketahanan daripada kepatuhan. Tim yang memahami sistem mereka pulih lebih cepat. Mereka menyelesaikan insiden dengan lebih efisien dan menghabiskan waktu lebih sedikit untuk mempertanyakan apakah otomatisasi harus dipercaya pada awalnya.

Mendesain AI untuk Keunggulan Operasional

Insinyur dilatih untuk mempertanyakan asumsi, memeriksa ketergantungan, dan menguji hasil. Ketika otomatisasi mendukung insting ini daripada melewatinya, adopsi menjadi kolaboratif dan bagian dari proses daripada struktur yang dipaksakan.

Tentu saja, ada biaya untuk membangun sistem dengan cara ini. AI yang dapat dijelaskan memerlukan praktik data yang disiplin, pilihan desain yang bijak, dan staf yang terampil yang dapat menafsirkan output dengan bertanggung jawab. Ini mungkin tidak berkembang secepat model yang tidak transparan yang dioptimalkan hanya untuk kecepatan atau kebaruan. Namun, pengembalian investasi ini adalah stabilitas.

Organisasi yang memprioritaskan kemampuan penjelasan melihat lebih sedikit inisiatif yang terhambat dan lebih sedikit pengambilan keputusan bayangan. Otomatisasi menjadi lapisan tepercaya dalam operasional daripada eksperimen paralel yang berjalan dalam isolasi. Waktu untuk mendapatkan nilai meningkat tidak karena sistem lebih cepat, tetapi karena tim mau menggunakan sepenuhnya.

Mengembangkan dengan Bertanggung Jawab

Ketika AI menjadi fitur permanen dalam infrastruktur perusahaan, kesuksesan akan ditentukan lebih oleh keandalan daripada ambisi. Sistem yang dapat menjelaskan keputusan mereka lebih mudah dipercaya, lebih mudah diperbaiki, dan lebih mudah dipertahankan ketika hasilnya dipertanyakan.

Di lingkungan operasional, kecerdasan hanya berkembang ketika pemahaman tetap sejalan dengan otomatisasi.

VimalRaj Sampathkumar, Technical Head - UK & Ireland, ManageEngine, adalah Presales dan Strategic Accounts Manager dengan 13 tahun pengalaman di Technical Sales, Account Management dan Customer Success. Ia memiliki keahlian teknis yang mendalam dalam konsultasi dan implementasi aplikasi ITSM, ITOM, SIEM, End-point Management, CRM, ATS, dan HCM/HRIS secara global. Keahliannya adalah untuk meningkatkan pendapatan dan pangsa pasar dengan secara konsisten menyampaikan solusi yang berfokus pada pelanggan, menunjukkan nilai produk, dan membangun fondasi untuk hubungan pelanggan yang setia dan jangka panjang. Ia menikmati bermain kriket, membaca, dan bepergian di waktu luangnya.