Connect with us

Pemimpin pemikiran

Bagaimana Explainable AI Meningkatkan Keandalan dan Kepercayaan

mm

Ketika Kecerdasan Buatan (AI) semakin didemokratisasi di seluruh perusahaan, itu perlahan-lahan menjadi bagian dari keberadaan kita. Aspek penting dari demokratisasi ini adalah bahwa pengguna akhir harus dapat memahami sepenuhnya proses dan mekanisme yang digunakan AI untuk mencapai kesimpulan atau bagaimana itu beroperasi untuk menghasilkan hasil yang diinginkan. Sebagai manusia, kita memiliki kebutuhan yang mendalam untuk mengetahui “mengapa” dan “bagaimana” dari setiap fenomena, yang telah mempercepat kemajuan teknologi kita. Dalam konteks AI, pemahaman ini disebut sebagai “explainability.”

Mengapa Explainability adalah kebutuhan saat ini?

Lebih sering daripada tidak, kita mendekati AI sebagai “black box”, di mana kita hanya memiliki pengetahuan tentang input dan output, tetapi di mana proses yang digunakan tidak kita ketahui. Memperburuk masalah ini adalah fakta bahwa algoritma yang memuat sebagian besar bentuk AI yang populer, seperti sistem prediksi berbasis deep learning yang kompleks dan Pemrosesan Bahasa Alami (NLP) sangat abstrak bahkan bagi praktisi yang paling berpengalaman.

Kepercayaan dan Transparansi: Agar pengguna dapat mempercayai prediksi AI, itu harus memiliki beberapa tingkat explainability yang inheren. Misalnya, jika seorang praktisi medis harus merekomendasikan pengobatan berdasarkan prediksi AI, ia harus yakin dengan prediksi tersebut. Sebuah bank harus memiliki kepercayaan penuh dalam keputusan untuk menolak atau menyetujui pinjaman dan dapat membenarkan hal yang sama kepada semua pemangku kepentingan. AI yang digunakan untuk penyaringan dan perekrutan harus membuktikan bahwa mekanisme yang mendasarinya adil dan setara bagi semua kelompok pemohon.

Membuat AI lebih manusiawi dan meningkatkan adopsi: Dalam laporan The state of AI in 2020 dari Mckinsey, kita belajar bahwa sebuah pabrikan menggunakan model yang sangat transparan untuk diterima oleh pekerja pabrik, yang perlu mempercayai penilaian yang dibuat oleh AI mengenai keselamatan mereka. Untuk adopsi AI yang cepat, mendapatkan persetujuan pemangku kepentingan adalah hambatan utama untuk penskalaan dari solusi titik sederhana ke tingkat perusahaan dan mendapatkan hasil maksimal dari investasi yang dilakukan. Hal ini sangat dibantu jika kinerja dapat dijelaskan kepada audiens yang lebih luas. Dari perspektif bisnis, explainability meningkatkan pengalaman pengguna secara keseluruhan dan meningkatkan kepuasan pelanggan. Menurut temuan survei IBM Institute for Business Value, 68 persen eksekutif top percaya bahwa pelanggan akan menuntut lebih banyak explainability dari AI dalam tiga tahun ke depan.

Mengungkap bias dan meningkatkan kinerja model: Seorang pengembang perlu tahu bagaimana ia dapat meningkatkan kinerja model, dan bagaimana exactly untuk debug dan finetune itu. Kerangka explainability yang jelas adalah salah satu alat paling penting untuk melakukan analisis menyeluruh yang diperlukan.

Mendapatkan wawasan yang lebih tajam dan komprehensif: Tampilan 360 derajat yang lengkap diperlukan untuk memahami sepenuhnya setiap resep yang dibuat oleh AI. Misalnya, jika AI digunakan untuk membuat keputusan investasi, seseorang juga perlu tahu alasan di baliknya, sehingga dapat mentransfer pembelajaran ini ke area lain dan juga memahami potensi jebakan dari mengambil keputusan tersebut. Pemahaman yang kuat tentang bagaimana AI beroperasi juga akan memungkinkan pengambil keputusan untuk mengungkap kasus penggunaan baru.

Peraturan dan Akuntabilitas: Beberapa peraturan seperti GDPR mengamanatkan hak untuk penjelasan, untuk menangani masalah akuntabilitas yang timbul dari proses pengambilan keputusan otomatis. Dalam sistem seperti kendaraan otonom, jika sesuatu salah yang mengakibatkan kehilangan nyawa dan harta, pengetahuan yang tepat diperlukan tentang penyebab akar, yang akan sulit untuk diidentifikasi dalam sistem black-box.

Bagaimana AI dapat lebih explainable?

Sistem Kecerdasan Buatan yang Dapat Dijelaskan (XAI) dikembangkan menggunakan berbagai teknik yang fokus pada menjelaskan model secara keseluruhan atau menjelaskan alasan di balik prediksi individual melalui bantuan beberapa algoritma.

Balakrishna, yang secara luas dikenal sebagai Bali D.R., adalah Kepala AI dan Otomatisasi di Infosys di mana ia mengarahkan baik otomatisasi internal untuk Infosys dan menyediakan layanan otomatisasi independen dengan menggunakan produk untuk klien. Bali telah bergabung dengan Infosys selama lebih dari 25 tahun dan telah memainkan peran penjualan, manajemen program, dan pengiriman di berbagai geografi dan vertikal industri.