Connect with us

Pemimpin pemikiran

Menjembatani Kesenjangan Kepercayaan AI

mm

Adopsi AI mencapai titik belok yang kritis. Bisnis-bisnis dengan antusias mengadopsi AI, didorong oleh janjinya untuk mencapai peningkatan efisiensi operasional secara signifikan. Survei Slack baru-baru ini menemukan bahwa adopsi AI terus berakselerasi, dengan penggunaan AI di tempat kerja mengalami peningkatan 24% baru-baru ini dan 96% eksekutif yang disurvei percaya bahwa “mendesak untuk mengintegrasikan AI di seluruh operasi bisnis mereka.” Namun, terdapat kesenjangan yang melebar antara utilitas AI dan kecemasan yang tumbuh tentang dampak buruk potensialnya. Hanya 7% pekerja kantor yang percaya bahwa output dari AI cukup dapat dipercaya untuk membantu mereka dalam tugas-tugas terkait pekerjaan. Kesenjangan ini terlihat jelas dalam kontras mencolok antara antusiasme eksekutif untuk integrasi AI dan skeptisisme karyawan terkait faktor-faktor seperti:

Peran Legislasi dalam Membangun Kepercayaan

Untuk mengatasi masalah kepercayaan yang multidimensi ini, langkah-langkah legislatif semakin dilihat sebagai langkah yang diperlukan. Legislasi dapat memainkan peran penting dalam mengatur pengembangan dan penerapan AI, sehingga meningkatkan kepercayaan. Pendekatan legislatif kunci meliputi:

  • Hukum Perlindungan Data dan Privasi: Menerapkan hukum perlindungan data yang ketat memastikan bahwa sistem AI menangani data pribadi secara bertanggung jawab. Regulasi seperti General Data Protection Regulation (GDPR) di Uni Eropa menetapkan preseden dengan mewajibkan transparansi, minimalisasi data, dan persetujuan pengguna. Secara khusus, Pasal 22 GDPR melindungi subjek data dari dampak buruk potensial dari pengambilan keputusan otomatis. Keputusan-keputusan baru-baru ini dari Court of Justice of the European Union (CJEU) menegaskan hak seseorang untuk tidak dikenai pengambilan keputusan otomatis. Dalam kasus Schufa Holding AG, di mana seorang penduduk Jerman ditolak untuk pinjaman bank berdasarkan sistem pengambilan keputusan kredit otomatis, pengadilan memutuskan bahwa Pasal 22 mewajibkan organisasi untuk menerapkan langkah-langkah untuk melindungi hak privasi terkait penggunaan teknologi AI.
  • Regulasi AI: Uni Eropa telah meratifikasi EU AI Act (EU AIA), yang bertujuan untuk mengatur penggunaan sistem AI berdasarkan tingkat risikonya. Undang-Undang ini mencakup persyaratan wajib untuk sistem AI berisiko tinggi, meliputi area seperti kualitas data, dokumentasi, transparansi, dan pengawasan manusia. Salah satu manfaat utama regulasi AI adalah promosi transparansi dan kemampuan penjelasan sistem AI. Lebih lanjut, EU AIA menetapkan kerangka akuntabilitas yang jelas, memastikan bahwa pengembang, operator, dan bahkan pengguna sistem AI bertanggung jawab atas tindakan mereka dan hasil dari penerapan AI. Ini termasuk mekanisme ganti rugi jika suatu sistem AI menyebabkan kerugian. Ketika individu dan organisasi dimintai pertanggungjawaban, hal ini membangun keyakinan bahwa sistem AI dikelola secara bertanggung jawab.

Inisiatif Standar untuk menumbuhkan budaya AI yang dapat dipercaya

Perusahaan tidak perlu menunggu hukum baru dijalankan untuk menentukan apakah proses mereka berada dalam pedoman etis dan dapat dipercaya. Regulasi AI bekerja seiring dengan inisiatif standar AI yang muncul yang memberdayakan organisasi untuk menerapkan tata kelola AI yang bertanggung jawab dan praktik terbaik selama seluruh siklus hidup sistem AI, mencakup desain, implementasi, penerapan, dan akhirnya pensiun. National Institute of Standards and Technology (NIST) di Amerika Serikat telah mengembangkan Kerangka Manajemen Risiko AI untuk memandu organisasi dalam mengelola risiko terkait AI. Kerangka kerja ini terstruktur di sekitar empat fungsi inti:

  • Memahami sistem AI dan konteks di mana ia beroperasi. Ini termasuk mendefinisikan tujuan, pemangku kepentingan, dan dampak potensial dari sistem AI.
  • Mengkuantifikasi risiko yang terkait dengan sistem AI, termasuk aspek teknis dan non-teknis. Ini melibatkan evaluasi kinerja, keandalan, dan bias potensial sistem.
  • Menerapkan strategi untuk mengurangi risiko yang teridentifikasi. Ini termasuk mengembangkan kebijakan, prosedur, dan kontrol untuk memastikan sistem AI beroperasi dalam tingkat risiko yang dapat diterima.
  • Membentuk struktur tata kelola dan mekanisme akuntabilitas untuk mengawasi sistem AI dan proses manajemen risikonya. Ini melibatkan tinjauan dan pembaruan rutin terhadap strategi manajemen risiko.

Sebagai respons terhadap kemajuan teknologi AI generatif, NIST juga menerbitkan Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, yang memberikan panduan untuk mengurangi risiko spesifik yang terkait dengan Model Fondasional. Langkah-langkah tersebut mencakup perlindungan terhadap penggunaan jahat (mis. disinformasi, konten yang merendahkan, ujaran kebencian), dan aplikasi etis AI yang berfokus pada nilai-nilai manusia seperti keadilan, privasi, keamanan informasi, kekayaan intelektual, dan keberlanjutan. Selanjutnya, International Organization for Standardization (ISO) dan International Electrotechnical Commission (IEC) bersama-sama telah mengembangkan ISO/IEC 23894, sebuah standar komprehensif untuk manajemen risiko AI. Standar ini memberikan pendekatan sistematis untuk mengidentifikasi dan mengelola risiko sepanjang siklus hidup AI termasuk identifikasi risiko, penilaian tingkat keparahan risiko, penanganan untuk mengurangi atau menghindarinya, serta pemantauan dan tinjauan berkelanjutan.

Masa Depan AI dan Kepercayaan Publik

Ke depan, masa depan AI dan kepercayaan publik kemungkinan akan bergantung pada beberapa faktor kunci yang penting untuk diikuti oleh semua organisasi:

  • Melakukan penilaian risiko komprehensif untuk mengidentifikasi masalah kepatuhan potensial. Evaluasi implikasi etis dan bias potensial dalam sistem AI Anda.
  • Membentuk tim lintas fungsi yang mencakup profesional hukum, kepatuhan, TI, dan ilmu data. Tim ini harus bertanggung jawab untuk memantau perubahan regulasi dan memastikan bahwa sistem AI Anda mematuhi regulasi baru.
  • Menerapkan struktur tata kelola yang mencakup kebijakan, prosedur, dan peran untuk mengelola inisiatif AI. Pastikan transparansi dalam operasi dan proses pengambilan keputusan AI.
  • Melakukan audit internal secara teratur untuk memastikan kepatuhan terhadap regulasi AI. Gunakan alat pemantauan untuk melacak kinerja sistem AI dan kepatuhan terhadap standar regulasi.
  • Mendidik karyawan tentang etika AI, persyaratan regulasi, dan praktik terbaik. Berikan sesi pelatihan berkelanjutan untuk menjaga staf tetap terinformasi tentang perubahan dalam regulasi AI dan strategi kepatuhan.
  • Menjaga catatan rinci tentang proses pengembangan AI, penggunaan data, dan kriteria pengambilan keputusan. Bersiaplah untuk menghasilkan laporan yang dapat diserahkan kepada regulator jika diperlukan.
  • Membangun hubungan dengan badan regulator dan berpartisipasi dalam konsultasi publik. Berikan umpan balik tentang regulasi yang diusulkan dan mintalah klarifikasi bila diperlukan.

Kontekstualisasikan AI untuk Mencapai AI yang Dapat Dipercaya

Pada akhirnya, AI yang dapat dipercaya bergantung pada integritas data. Ketergantungan AI generatif pada kumpulan data besar tidak sama dengan akurasi dan keandalan output; bahkan, hal ini bertentangan dengan kedua standar tersebut. Retrieval Augmented Generation (RAG) adalah teknik inovatif yang “menggabungkan LLM statis dengan data spesifik konteks. Dan itu dapat dianggap sebagai asisten yang sangat berpengetahuan. Seseorang yang mencocokkan konteks kueri dengan data spesifik dari basis pengetahuan yang komprehensif.” RAG memberdayakan organisasi untuk memberikan aplikasi spesifik konteks yang mematuhi harapan privasi, keamanan, akurasi, dan keandalan. RAG meningkatkan akurasi respons yang dihasilkan dengan mengambil informasi relevan dari basis pengetahuan atau repositori dokumen. Hal ini memungkinkan model untuk mendasarkan generasinya pada informasi yang akurat dan terkini. RAG memberdayakan organisasi untuk membangun aplikasi AI yang dirancang khusus yang sangat akurat, sadar konteks, dan dapat beradaptasi untuk meningkatkan pengambilan keputusan, meningkatkan pengalaman pelanggan, merampingkan operasi, dan mencapai keunggulan kompetitif yang signifikan. Menjembatani kesenjangan kepercayaan AI melibatkan memastikan transparansi, akuntabilitas, dan penggunaan etis AI. Meskipun tidak ada jawaban tunggal untuk mempertahankan standar-standar ini, bisnis memiliki strategi dan alat yang dapat digunakan. Menerapkan langkah-langkah privasi data yang kuat dan mematuhi standar regulasi membangun kepercayaan pengguna. Mengaudit sistem AI secara teratur untuk bias dan ketidakakuratan memastikan keadilan. Meningkatkan Large Language Model (LLM) dengan AI yang dirancang khusus memberikan kepercayaan dengan menggabungkan basis pengetahuan dan sumber data milik. Melibatkan pemangku kepentingan tentang kemampuan dan keterbatasan AI juga menumbuhkan keyakinan dan penerimaan. AI yang dapat dipercaya tidak mudah dicapai, tetapi itu adalah komitmen vital untuk masa depan kita.

Andrew Pery is an AI Ethics Evangelist at global intelligent automation company ABBYY. He holds a Master of Law degree with Distinction from Northwestern University Pritzker School of Law and is a Certified Data Privacy Professional. Pery has more than 25 years of experience spearheading tech management programs for leading global technology companies. His expertise is in intelligent document process automation and process intelligence with a particular expertise in AI technologies, application software, data privacy and AI ethics.