potongan Apa itu AI yang Dapat Dijelaskan? - Bersatu.AI
Terhubung dengan kami

AI 101

Apa itu AI yang Dapat Dijelaskan?

Updated on
Gambar: DeepMind di Unsplash

Ketika kecerdasan buatan (AI) menjadi lebih kompleks dan diadopsi secara luas di seluruh masyarakat, salah satu rangkaian proses dan metode yang paling penting adalah dapat dijelaskan (AI), kadang-kadang disebut sebagai XAI. 

AI yang dapat dijelaskan dapat didefinisikan sebagai:

  • Seperangkat proses dan metode yang membantu pengguna manusia memahami dan mempercayai hasil algoritma pembelajaran mesin. 

Seperti yang bisa Anda tebak, penjelasan ini sangat penting karena algoritme AI mengendalikan banyak sektor, yang disertai dengan risiko bias, algoritme yang salah, dan masalah lainnya. Dengan mencapai transparansi dengan penjelasan, dunia benar-benar dapat memanfaatkan kekuatan AI. 

AI yang dapat dijelaskan, seperti namanya, membantu menjelaskan model AI, dampaknya, dan potensi bias. Ini juga berperan dalam mengkarakterisasi akurasi model, keadilan, transparansi, dan hasil dalam proses pengambilan keputusan yang didukung AI. 

Organisasi berbasis AI saat ini harus selalu mengadopsi proses AI yang dapat dijelaskan untuk membantu membangun kepercayaan dan keyakinan pada model AI dalam produksi. AI yang dapat dijelaskan juga merupakan kunci untuk menjadi perusahaan yang bertanggung jawab di lingkungan AI saat ini.

Karena sistem AI saat ini sudah sangat canggih, manusia biasanya melakukan proses perhitungan untuk menelusuri kembali bagaimana algoritme tersebut sampai pada hasilnya. Proses ini menjadi “kotak hitam”, artinya tidak mungkin untuk dipahami. Ketika model yang tidak dapat dijelaskan ini dikembangkan langsung dari data, tidak ada yang dapat memahami apa yang terjadi di dalamnya. 

Dengan memahami bagaimana sistem AI beroperasi melalui AI yang dapat dijelaskan, pengembang dapat memastikan bahwa sistem bekerja sebagaimana mestinya. Ini juga dapat membantu memastikan model memenuhi standar peraturan, dan memberikan peluang bagi model untuk ditantang atau diubah. 

Gambar: Dr Matt Turek/DARPA

Perbedaan Antara AI dan XAI

Beberapa perbedaan utama membantu memisahkan AI "biasa" dari AI yang dapat dijelaskan, tetapi yang terpenting, XAI menerapkan teknik dan metode khusus yang membantu memastikan setiap keputusan dalam proses ML dapat dilacak dan dijelaskan. Sebagai perbandingan, AI biasa biasanya sampai pada hasilnya menggunakan algoritme ML, tetapi tidak mungkin untuk sepenuhnya memahami bagaimana algoritme sampai pada hasil. Dalam kasus AI biasa, sangat sulit untuk memeriksa keakuratannya, yang mengakibatkan hilangnya kontrol, akuntabilitas, dan kemampuan audit. 

Manfaat AI yang Dapat Dijelaskan 

Ada banyak manfaat bagi organisasi mana pun yang ingin mengadopsi AI yang dapat dijelaskan, seperti: 

  • Hasil Lebih Cepat: AI yang dapat dijelaskan memungkinkan organisasi memantau dan mengelola model secara sistematis untuk mengoptimalkan hasil bisnis. Dimungkinkan untuk terus mengevaluasi dan meningkatkan kinerja model dan menyempurnakan pengembangan model.
  • Mitigasi Risiko: Dengan mengadopsi proses AI yang dapat dijelaskan, Anda memastikan bahwa model AI Anda dapat dijelaskan dan transparan. Anda dapat mengelola peraturan, kepatuhan, risiko, dan persyaratan lainnya sambil meminimalkan biaya inspeksi manual. Semua ini juga membantu mengurangi risiko bias yang tidak diinginkan. 
  • Membangun kepercayaan: AI yang dapat dijelaskan membantu membangun kepercayaan dalam produksi AI. Model AI dapat dengan cepat dibawa ke produksi, Anda dapat memastikan interpretasi dan penjelasan, dan proses evaluasi model dapat disederhanakan dan dibuat lebih transparan. 

Teknik untuk AI yang Dapat Dijelaskan

Ada beberapa teknik XAI yang harus dipertimbangkan oleh semua organisasi, dan terdiri dari tiga metode utama: akurasi prediksi, Ketertelusuran, dan pemahaman keputusan

Yang pertama dari tiga metode, akurasi prediksi, sangat penting untuk berhasil menggunakan AI dalam operasi sehari-hari. Simulasi dapat dilakukan, dan keluaran XAI dapat dibandingkan dengan hasil dalam kumpulan data pelatihan, yang membantu menentukan akurasi prediksi. Salah satu teknik yang lebih populer untuk mencapai hal ini disebut Local Interpretable Model-Agnostic Explanations (LIME), sebuah teknik yang menjelaskan prediksi pengklasifikasi oleh algoritma pembelajaran mesin. 

Cara kedua adalah Ketertelusuran, yang dicapai dengan membatasi cara pengambilan keputusan, serta menetapkan cakupan yang lebih sempit untuk aturan dan fitur machine learning. Salah satu teknik ketertelusuran yang paling umum adalah DeepLIFT, atau Fitur Penting Pembelajaran Jauh. DeepLIFT membandingkan aktivasi setiap neuron dengan neuron rujukannya sambil mendemonstrasikan tautan yang dapat dilacak antara setiap neuron yang diaktifkan. Ini juga menunjukkan ketergantungan di antara mereka. 

Metode ketiga dan terakhir adalah pemahaman keputusan, yang berfokus pada manusia, tidak seperti dua metode lainnya. Pemahaman keputusan melibatkan mendidik organisasi, khususnya tim yang bekerja dengan AI, untuk memungkinkan mereka memahami bagaimana dan mengapa AI membuat keputusan. Metode ini sangat penting untuk membangun kepercayaan pada sistem. 

Prinsip AI yang Dapat Dijelaskan

Untuk memberikan pemahaman yang lebih baik tentang XAI dan prinsip-prinsipnya, National Institute of Standards (NIST), yang merupakan bagian dari Departemen Perdagangan AS, memberikan definisi untuk empat prinsip AI yang dapat dijelaskan: 

  1. Sistem AI harus memberikan bukti, dukungan, atau penalaran untuk setiap output. 
  2. Sebuah sistem AI harus memberikan penjelasan yang dapat dipahami oleh penggunanya. 
  3. Penjelasan harus secara akurat mencerminkan proses yang digunakan oleh sistem untuk sampai pada keluarannya. 
  4. Sistem AI seharusnya hanya beroperasi di bawah kondisi yang dirancang untuk itu, dan seharusnya tidak memberikan output ketika hasilnya kurang meyakinkan. 

Prinsip-prinsip ini dapat diatur lebih jauh menjadi: 

  • Berarti: Untuk mencapai prinsip kebermaknaan, pengguna harus memahami penjelasan yang diberikan. Ini juga bisa berarti bahwa jika algoritme AI digunakan oleh berbagai jenis pengguna, mungkin ada beberapa penjelasan. Misalnya, dalam kasus mobil self-driving, satu penjelasan mungkin sejalan dengan…”AI mengkategorikan kantong plastik di jalan sebagai batu, dan karena itu mengambil tindakan untuk menghindari menabraknya.” Meskipun contoh ini akan bekerja untuk driver, itu tidak akan berguna bagi pengembang AI yang ingin memperbaiki masalah. Dalam hal ini, pengembang harus memahami mengapa terjadi kesalahan klasifikasi. 
  • Akurasi Penjelasan: Tidak seperti akurasi output, akurasi penjelasan melibatkan algoritme AI yang secara akurat menjelaskan bagaimana ia mencapai outputnya. Misalnya, jika algoritme persetujuan pinjaman menjelaskan keputusan berdasarkan pendapatan aplikasi padahal sebenarnya berdasarkan tempat tinggal pemohon, penjelasannya akan tidak akurat. 
  • Batas Pengetahuan: Batasan pengetahuan AI dapat dicapai dengan dua cara, dan melibatkan masukan yang berada di luar keahlian sistem. Misalnya, jika sistem yang dibangun untuk mengklasifikasikan jenis burung dan diberi gambar apel, harus dapat menjelaskan bahwa masukannya bukan burung. Jika sistem diberi gambar buram, sistem harus dapat melaporkan bahwa sistem tidak dapat mengidentifikasi burung dalam gambar, atau sebagai alternatif, bahwa identifikasinya memiliki tingkat kepercayaan yang sangat rendah. 

Peran Data dalam AI yang Dapat Dijelaskan

Salah satu komponen terpenting dari AI yang dapat dijelaskan adalah data. 

Menurut Google, mengenai data dan AI yang dapat dijelaskan, "sistem AI paling baik dipahami oleh data pelatihan yang mendasari dan proses pelatihan, serta model AI yang dihasilkan." Pemahaman ini bergantung pada kemampuan untuk memetakan model AI terlatih ke kumpulan data yang tepat yang digunakan untuk melatihnya, serta kemampuan untuk memeriksa data secara cermat. 

Untuk meningkatkan keterjelasan model, penting untuk memperhatikan data pelatihan. Tim harus menentukan asal data yang digunakan untuk melatih algoritme, legalitas dan etika seputar perolehannya, potensi bias apa pun dalam data, dan apa yang dapat dilakukan untuk mengurangi bias apa pun. 

Aspek penting lain dari data dan XAI adalah bahwa data yang tidak relevan dengan sistem harus dikecualikan. Untuk mencapai ini, data yang tidak relevan tidak boleh dimasukkan ke dalam set pelatihan atau data masukan. 

Google telah merekomendasikan serangkaian praktik untuk mencapai interpretasi dan akuntabilitas: 

  • Rencanakan pilihan Anda untuk mengejar interpretabilitas
  • Perlakukan interpretabilitas sebagai bagian inti dari pengalaman pengguna
  • Rancang model agar dapat ditafsirkan
  • Pilih metrik untuk mencerminkan tujuan akhir dan tugas akhir
  • Pahami model yang dilatih
  • Komunikasikan penjelasan kepada pengguna model
  • Lakukan banyak pengujian untuk memastikan sistem AI berfungsi sebagaimana mestinya 

Dengan mengikuti praktik yang direkomendasikan ini, organisasi Anda dapat memastikannya mencapai AI yang dapat dijelaskan, yang merupakan kunci bagi setiap organisasi yang digerakkan oleh AI di lingkungan saat ini. 

 

Alex McFarland adalah jurnalis dan penulis AI yang mengeksplorasi perkembangan terkini dalam kecerdasan buatan. Dia telah berkolaborasi dengan banyak startup dan publikasi AI di seluruh dunia.