Pemimpin pemikiran
Membangun Jembatan Kepercayaan AI
Adopsi AI telah mencapai titik infleksi yang kritis. Bisnis dengan antusias memeluk AI, didorong oleh janji untuk mencapai perbaikan efisiensi operasional yang signifikan.
Survei Slack baru-baru ini menemukan bahwa adopsi AI terus mempercepat, dengan penggunaan AI di tempat kerja mengalami peningkatan 24% dan 96% dari eksekutif yang disurvei percaya bahwa “sangat penting untuk mengintegrasikan AI di seluruh operasi bisnis.”
Namun, ada kesenjangan yang membesar antara utilitas AI dan kekhawatiran yang meningkat tentang dampak negatif potensialnya. Hanya 7% dari pekerja meja percaya bahwa output dari AI cukup dipercaya untuk membantu mereka dalam tugas-tugas terkait kerja.
Kesenjangan ini jelas dalam kontras yang tajam antara antusiasme eksekutif untuk integrasi AI dan skeptisisme karyawan terkait faktor-faktor seperti:
- Bias dan Keadilan: Sistem AI dapat memperpetuasi atau bahkan memperburuk bias yang ada yang mengarah pada hasil yang tidak adil.
- Privasi dan Keamanan: Karyawan khawatir tentang bagaimana data pribadi mereka dikumpulkan, disimpan, dan digunakan oleh sistem AI.
- Pengambilan Keputusan yang Tidak Transparan: Sistem AI sering beroperasi sebagai “black box,” membuat keputusan yang sulit dipahami atau dijelaskan oleh manusia.
- Kecemasan Otomatisasi: Ada kekhawatiran yang meluas bahwa AI akan menggantikan pekerjaan manusia, yang mengarah pada pengangguran dan ketidakstabilan ekonomi.
Peran Legisasi dalam Membangun Kepercayaan
Untuk mengatasi masalah kepercayaan yang multifaset ini, langkah-langkah legislatif semakin dipandang sebagai langkah yang diperlukan. Legisasi dapat memainkan peran penting dalam mengatur pengembangan dan penerapan AI, sehingga meningkatkan kepercayaan. Pendekatan legislatif kunci termasuk:
- Hukum Perlindungan Data dan Privasi: Mengimplementasikan hukum perlindungan data yang ketat memastikan bahwa sistem AI menangani data pribadi dengan bertanggung jawab. Regulasi seperti General Data Protection Regulation (GDPR) di Uni Eropa menetapkan preseden dengan mengharuskan transparansi, minimisasi data, dan persetujuan pengguna. Secara khusus, Pasal 22 GDPR melindungi subyek data dari dampak negatif potensial dari pengambilan keputusan otomatis. Keputusan baru-baru ini dari Mahkamah Uni Eropa (CJEU) mengaffirmasi hak seseorang untuk tidak tunduk pada pengambilan keputusan otomatis. Dalam kasus Schufa Holding AG, di mana seorang warga Jerman ditolak untuk pinjaman bank berdasarkan sistem pengambilan keputusan kredit otomatis, pengadilan memutuskan bahwa Pasal 22 mengharuskan organisasi untuk mengimplementasikan langkah-langkah untuk melindungi hak privasi yang terkait dengan penggunaan teknologi AI.
- Regulasi AI: Uni Eropa telah meratifikasi EU AI Act (EU AIA), yang bertujuan untuk mengatur penggunaan sistem AI berdasarkan tingkat risikonya. Undang-undang ini termasuk persyaratan wajib untuk sistem AI berisiko tinggi, mencakup area seperti kualitas data, dokumentasi, transparansi, dan pengawasan manusia. Salah satu manfaat utama dari regulasi AI adalah promosi transparansi dan keterjelasan sistem AI. Selain itu, EU AIA menetapkan kerangka akuntabilitas yang jelas, memastikan bahwa pengembang, operator, dan bahkan pengguna sistem AI bertanggung jawab atas tindakan dan hasil penerapan AI. Ini termasuk mekanisme untuk ganti rugi jika sistem AI menyebabkan kerugian. Ketika individu dan organisasi diadakan bertanggung jawab, itu membangun kepercayaan bahwa sistem AI dikelola dengan bertanggung jawab.
Inisiatif Standar untuk Membangun Budaya AI yang Dapat Dipercaya
Perusahaan tidak perlu menunggu hukum baru untuk dijalankan untuk menentukan apakah proses mereka sesuai dengan pedoman etika dan kepercayaan. Regulasi AI bekerja bersama dengan inisiatif standar AI yang muncul yang memungkinkan organisasi untuk mengimplementasikan tata kelola AI yang bertanggung jawab dan praktik terbaik selama seluruh siklus hidup sistem AI, mencakup desain, implementasi, penerapan, dan akhirnya pembongkaran.
Institut Nasional untuk Standar dan Teknologi (NIST) di Amerika Serikat telah mengembangkan Kerangka Manajemen Risiko AI untuk membantu organisasi dalam mengelola risiko yang terkait dengan AI. Kerangka ini terstruktur di sekitar empat fungsi inti:
- Memahami sistem AI dan konteks di mana ia beroperasi. Ini termasuk mendefinisikan tujuan, pemangku kepentingan, dan dampak potensial dari sistem AI.
- Mengukur risiko yang terkait dengan sistem AI, termasuk aspek teknis dan non-teknis. Ini melibatkan evaluasi kinerja sistem, keandalan, dan potensi bias.
- Mengimplementasikan strategi untuk memitigasi risiko yang diidentifikasi. Ini termasuk mengembangkan kebijakan, prosedur, dan kontrol untuk memastikan bahwa sistem AI beroperasi dalam tingkat risiko yang dapat diterima.
- Membangun struktur tata kelola dan mekanisme akuntabilitas untuk mengawasi sistem AI dan proses manajemen risikonya. Ini melibatkan tinjauan dan pembaruan reguler terhadap strategi manajemen risiko.
Sebagai respons terhadap kemajuan teknologi AI generatif NIST juga menerbitkan Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, yang memberikan pedoman untuk memitigasi risiko spesifik yang terkait dengan Model Fondasi. Langkah-langkah tersebut mencakup melindungi terhadap penggunaan yang tidak sah (misalnya, disinformasi, konten yang merendahkan, ujaran kebencian), dan aplikasi etis AI yang fokus pada nilai-nilai manusia seperti keadilan, privasi, keamanan informasi, kekayaan intelektual, dan keberlanjutan.
Selain itu, Organisasi Internasional untuk Standardisasi (ISO) dan Komisi Elektroteknis Internasional (IEC) telah mengembangkan ISO/IEC 23894, standar komprehensif untuk manajemen risiko AI. Standar ini memberikan pendekatan sistematis untuk mengidentifikasi dan mengelola risiko di seluruh siklus hidup AI termasuk identifikasi risiko, penilaian tingkat keparahan risiko, pengobatan untuk memitigasi atau menghindarinya, dan pemantauan serta tinjauan yang berkelanjutan.
Masa Depan AI dan Kepercayaan Publik
Menghadap ke depan, masa depan AI dan kepercayaan publik kemungkinan akan bergantung pada beberapa faktor kunci yang penting untuk diikuti oleh semua organisasi:
- Melakukan penilaian risiko yang komprehensif untuk mengidentifikasi potensi masalah kepatuhan. Evaluasi implikasi etis dan potensi bias dalam sistem AI Anda.
- Membangun tim lintas fungsional yang mencakup profesional hukum, kepatuhan, IT, dan ilmu data. Tim ini harus bertanggung jawab untuk memantau perubahan regulasi dan memastikan bahwa sistem AI Anda mematuhi regulasi baru.
- Mengimplementasikan struktur tata kelola yang mencakup kebijakan, prosedur, dan peran untuk mengelola inisiatif AI. Pastikan transparansi dalam operasi dan proses pengambilan keputusan AI.
- Melakukan audit internal reguler untuk memastikan kepatuhan dengan regulasi AI. Gunakan alat pemantauan untuk melacak kinerja sistem AI dan kepatuhan terhadap standar regulasi.
- Mengedukasi karyawan tentang etika AI, persyaratan regulasi, dan praktik terbaik. Berikan sesi pelatihan berkelanjutan untuk menjaga staf tetap informasi tentang perubahan regulasi AI dan strategi kepatuhan.
- Mempertahankan catatan rinci tentang proses pengembangan AI, penggunaan data, dan kriteria pengambilan keputusan. Siap untuk menghasilkan laporan yang dapat diserahkan kepada regulator jika diperlukan.
- Membangun hubungan dengan badan regulator dan berpartisipasi dalam konsultasi publik. Berikan umpan balik tentang regulasi yang diusulkan dan cari klarifikasi jika perlu.
Mengkontekstualisasikan AI untuk Mencapai AI yang Dapat Dipercaya
Pada akhirnya, AI yang dapat dipercaya bergantung pada integritas data. Ketergantungan AI generatif pada set data besar tidak berarti akurasi dan keandalan output; jika ada, itu bertentangan dengan standar. Retrieval Augmented Generation (RAG) adalah teknik inovatif yang “menggabungkan LLM statis dengan data kontekstual. Dan itu dapat dianggap sebagai asisten yang sangat berpengetahuan. Yang mencocokkan konteks kueri dengan data spesifik dari basis pengetahuan komprehensif.” RAG memungkinkan organisasi untuk menghasilkan aplikasi AI yang kontekstual yang memenuhi harapan privasi, keamanan, akurasi, dan keandalan.
RAG memberdayakan organisasi untuk membangun aplikasi AI yang dibuat khusus yang sangat akurat, sadar konteks, dan dapat disesuaikan untuk meningkatkan pengambilan keputusan, meningkatkan pengalaman pelanggan, mempermudah operasi, dan mencapai keunggulan kompetitif yang signifikan.
Membangun jembatan kesenjangan kepercayaan AI melibatkan memastikan transparansi, akuntabilitas, dan penggunaan etis AI. Sementara tidak ada jawaban tunggal untuk mempertahankan standar ini, bisnis memiliki strategi dan alat yang tersedia. Mengimplementasikan langkah-langkah privasi data yang kuat dan mematuhi standar regulasi membangun kepercayaan pengguna. Mengaudit sistem AI secara reguler untuk bias dan ketidakakuratan memastikan keadilan. Mengintegrasikan Large Language Models (LLM) dengan AI yang dibuat khusus membangun kepercayaan dengan menggabungkan basis pengetahuan dan sumber data milik. Menglibatkan pemangku kepentingan tentang kemampuan dan keterbatasan AI juga memupuk kepercayaan dan penerimaan
AI yang dapat dipercaya tidak mudah dicapai, tetapi itu adalah komitmen yang vital untuk masa depan kita.












