Connect with us

Pemimpin pemikiran

Panduan Praktis untuk Mengirimkan AI yang Bertanggung Jawab

mm

Penerapan kecerdasan buatan (AI) berkembang melampaui fase pilot awal menjadi solusi yang terintegrasi sepenuhnya, mendorong produksi dan transformasi perusahaan secara luas. Menghadapi hal ini, eksekutif menghadapi tugas yang menantang: memindahkan AI dari konsep bukti ke inti operasional sehari-hari. Perubahan ini memerlukan mereka untuk menjawab pertanyaan baru, mulai dari bagaimana mengembangkan, menerapkan, dan menggunakan AI secara bertanggung jawab untuk membangun fondasi yang dapat dipercaya untuk dikembangkan.

Responsible AI adalah tentang memastikan AI bermanfaat tanpa merugikan orang, organisasi, dan masyarakat. Sementara persepsi mungkin bahwa itu dapat memperlambat siklus pengembangan, dalam prakteknya, itu dapat membuat inovasi lebih kuat. Menggelar Responsible AI dapat membantu mengurangi jumlah kegagalan yang mahal, memungkinkan adopsi dan kepercayaan yang lebih cepat, menyediakan sistem yang siap regulasi, dan meningkatkan keberlanjutan.

Namun, memahami bagaimana organisasi dapat mengembangkan, menerapkan, dan mengadopsi Responsible AI adalah kunci untuk memastikan praktik dan integrasi yang kuat. Di sini kami menyediakan panduan praktis tentang bagaimana perusahaan dapat melakukannya, memastikan pengawasan manusia dari tahap desain awal hingga penerapan, pemantauan, penilaian risiko, dan akhirnya pembongkaran.

Mereka yang menganggap Responsible AI sebagai pemikiran yang tidak perlu akan berisiko terkena paparan regulasi, kerusakan reputasi, dan erosi kepercayaan klien. Sebaliknya, mereka yang mengintegrasikannya dari awal lebih baik memposisikan diri untuk mengembangkan AI secara berkelanjutan.

Mengidentifikasi Lima Prinsip untuk Mengintegrasikan Responsible AI

Di jantung setiap strategi Responsible AI terdapat serangkaian prinsip inti yang harus memandu pengembangan, penerapan, evaluasi, dan tata kelola. Dampak dari prinsip-prinsip ini akan membentuk praktik tata kelola, manajemen risiko, dan kepatuhan yang memungkinkan untuk melindungi orang dan melindungi nilai merek.

Untuk organisasi besar, mereka harus bekerja di seluruh tim dan dengan mitra eksternal untuk memastikan integrasinya. Sebagai hasilnya, ada lima prinsip kunci yang bisnis dapat adopsi untuk mengarahkan inisiatif AI mereka menuju kepercayaan, kepatuhan, dan hasil etis.

Pertama adalah akuntabilitas. Seseorang harus memiliki tanggung jawab atas hasil untuk setiap sistem AI yang penting dan harus ada orang atau tim yang bertanggung jawab dari awal hingga akhir. Mulai dengan inventori sederhana, otomatisasi untuk skala dan mulai membuat daftar sistem AI, tujuan, sumber data, dan pemilik. Juga penting untuk memiliki rencana untuk saat hal-hal salah. Sangat penting untuk mengetahui bagaimana mempause dan bagaimana menyelidiki dan memitigasi masalah.

Kedua, menilai keadilan AI dan dampak potensialnya pada orang sangat penting. Jangan hanya mengandalkan metrik teknis dan sadar bahwa hasil AI bisa berbeda di seluruh kelompok dan tidak sengaja merugikan seseorang. Ini sangat penting untuk kasus penggunaan yang berisiko tinggi di bidang seperti perekrutan, pemberian pinjaman, atau perawatan kesehatan. Gunakan tes data kapan pun memungkinkan dan sertakan tinjauan manusia dan alasan untuk output.

Ketiga, keamanan sangat penting. Ancaman terhadap sistem AI terus berkembang, sekarang termasuk serangan berbasis prompt atau agen. Sangat penting untuk mengatasi risiko ini dan bekerja dengan tim keamanan untuk memodelkan serangan potensial ini. Bangun keamanan ke dalam desain, batasi akses AI ke sistem dan data lain, dan lakukan pengujian terus-menerus bahkan setelah peluncuran.

Keempat, privasi adalah faktor yang sangat penting. Keprihatinan ini melampaui data pelatihan awal, dan privasi harus dilindungi pada setiap tahap. Pertimbangkan privasi dalam prompt pengguna, log percakapan, dan output yang dihasilkan AI, karena semuanya dapat berisi informasi pribadi. Desain sistem untuk mengumpulkan hanya data yang diperlukan, tetapkan aturan ketat untuk akses dan retensi, dan lakukan tinjauan privasi untuk aplikasi yang berisiko lebih tinggi.

Terakhir, transparansi dan menyediakan kontrol yang disesuaikan dengan pemangku kepentingan sangat penting. Apa yang dibutuhkan pelanggan berbeda dari pengembang AI. Sebaliknya, pengguna harus tahu ketika mereka berinteraksi dengan AI dan memahami batasannya. Tim internal memerlukan dokumentasi yang jelas tentang bagaimana AI dibangun dan bagaimana kinerjanya. Transparansi sistem AI memicu pengawasan bersama dan kepercayaan pada kemampuan sistem.

Mengenal Perbedaan: Responsible AI vs. AI Governance

Sementara Responsible AI dan AI Governance sering digunakan secara bergantian, ada perbedaan kunci. Responsible AI adalah serangkaian praktik dan prinsip holistik untuk membuat keputusan yang dapat dipercaya sepanjang pengembangan, penerapan, dan penggunaan AI. Ini fokus pada memungkinkan kemampuan seperti lima prinsip di atas untuk meminimalkan risiko dan memaksimalkan manfaat AI.

AI Governance, di sisi lain, adalah serangkaian kebijakan, prosedur, dan praktik yang bertujuan untuk memungkinkan hasil positif dan mengurangi kemungkinan kerusakan. Ini fokus pada meletakkan kontrol organisasi dan teknis yang tepat untuk memungkinkan AI yang bertanggung jawab dan etis, sering dengan penekanan pada akuntabilitas dan kepatuhan dengan hukum dan kebijakan organisasi.

Organisasi lebih baik memposisikan diri untuk mengembangkan AI secara bertanggung jawab sambil mempertahankan kepercayaan dan kesiapan regulasi ketika mereka memahami bahwa keduanya berbeda tetapi terkait. Selain itu, sementara beberapa tindakan tentang tanggung jawab dan tata kelola diperlukan oleh hukum, beberapa tidak. Misalnya, hukum yang mengenakan pembatasan pada pekerjaan yang dapat dipegang oleh perempuan di negara-negara tertentu. Oleh karena itu, keduanya diperlukan untuk pendekatan yang komprehensif dan seimbang terhadap Responsible AI.

Pentingnya Tata Kelola yang Fleksibel

Karena AI berkembang, regulator mengintervensi dengan kerangka tata kelola yang melampaui pedoman sukarela. Regulasi seperti Undang-Undang Kecerdasan Buatan Uni Eropa menempatkan regulasi berbasis risiko di pusat tata kelola AI. Daripada mengatur teknologi secara seragam, Undang-Undang ini mengklasifikasikan sistem AI menjadi beberapa tingkat risiko yang mengakui potensi kerusakan berdasarkan berbagai kasus penggunaan. Misalnya, pemilih AI untuk perekrutan versus mesin rekomendasi belanja. Ini mengimplikasikan bahwa tata kelola, dokumentasi, dan perlindungan harus selaras dengan konteks dan aplikasi AI.

Yurisdiksi lain juga telah mendefinisikan kerangka untuk mengatur AI. Menurut laporan IAPP, Singapura mempromosikan pendekatan yang fleksibel dengan alat seperti Kerangka Tata Kelola AI Model, menekankan pengujian dan transparansi daripada mandat ketat. Undang-Undang AI Dasar Korea Selatan juga mencampurkan pengawasan dengan ruang untuk inovasi. Dan dalam industri, ini berbeda. Layanan keuangan telah lama menghadapi standar keamanan dan keadilan yang ketat, sementara AI kesehatan memiliki regulasi perangkat medis untuk dipenuhi. Produk teknologi konsumen juga jatuh di bawah hukum perlindungan privasi dan konsumen, dengan setiap domain menuntut regulasi yang disesuaikan dengan profil risiko dan harapan masyarakat.

Oleh karena itu, pendekatan satu-ukuran-untuk-semua terhadap Tata Kelola AI tidak berfungsi karena industri dan domain negara berbeda dalam jenis kerusakan, pemangku kepentingan yang terkena, dan kerangka hukum yang mereka operasikan. Sebagai hasilnya, perlu ada fleksibilitas.

Bagaimana Mengelola AI Otonom

Karena AI memasuki era baru, bergeser dari mesin prediksi yang sempit ke AI agen, sistem yang mampu merencanakan, beradaptasi, dan mengambil tindakan otonom, ini datang dengan risiko baru.

Misalnya, pertimbangkan AI agen yang menjalankan transaksi keuangan atau keputusan SDM secara otonom. Jika itu salah mengklasifikasikan transaksi atau membuat rekomendasi perekrutan yang mengandung bias, konsekuensi bisnis sangat parah, dari kerugian keuangan hingga kerusakan reputasi, penalti regulasi, dan paparan hukum.

Penelitian yang disajikan dalam Pertimbangan Ekonomi dan Sistemik dalam Sistem Web Agen juga menjelaskan tantangan baru yang dibawa oleh konsep web agen yang muncul, yang bertindak dalam pasar lintas batas, kecepatan mesin. Ini menguraikan beberapa tuas tata kelola awal termasuk agen pengawasan dan kebijakan yang dapat dibaca mesin, dengan penekanan pada adopsi inklusif di bawah keterbatasan sumber daya yang tidak rata.

Menghadapi hal ini, sistem tata kelola akan perlu menetapkan batasan dan kontrol pada seberapa banyak sistem AI dapat menangani secara otonom tanpa persetujuan manusia. Mereka perlu menetapkan batasan yang jelas, membatasi akses ke alat dan fungsi otorisasi serta memungkinkan titik desain khusus untuk tinjauan manusia yang wajib. Semua komponen alur kerja harus diuji termasuk koneksi dan interaksi antara agen, di mana kesalahan sering terjadi. Setiap tindakan harus dicatat untuk kepentingan pelacakan dan kontrol harus ditempatkan untuk menonaktifkan sistem ketika diperlukan untuk mengelola risiko ini.

Masa Depan Responsible AI

AI menawarkan kesempatan yang belum pernah terjadi sebelumnya untuk mengubah cara bisnis beroperasi, berinovasi, mengirimkan nilai, dan Responsible AI mendukung ini. Mengintegrasikan Responsible AI dalam desain, pengembangan, dan penerapan tidak hanya sebuah taktik mitigasi risiko hukum, tetapi juga melindungi dan meningkatkan reputasi merek, memperoleh kepercayaan pelanggan dan klien, serta membuka keunggulan pasar dengan menunjukkan komitmen terhadap inovasi etis.

Namun, untuk membuka manfaatnya, perusahaan harus mengintegrasikan praktik yang bertanggung jawab kunci sepanjang sistem AI, mulai dari awal dan meluas hingga akhir siklus hidupnya. Ini termasuk mengintegrasikan pertimbangan etis dan tata kelola ke dalam strategi data, privasi dan pengumpulan, desain sistem, pengembangan, transparansi dan keadilan, penerapan dan pemantauan serta pasca-penerapan dan pembongkaran.

Bagi semua yang terlibat dalam pengembangan dan penerapan AI, mandatnya jelas: bangun secara bertanggung jawab, atur secara proaktif, antisipasi risiko hari ini, besok dan seterusnya untuk memastikan evolusi AI yang sukses di dunia yang berubah.

Dr Heather Domin, Wakil Presiden dan Kepala Kantor AI Bertanggung Jawab dan Tata Kelola di HCLTech, adalah seorang ahli terkemuka di bidang AI Bertanggung Jawab, memberikan saran kepada organisasi global tentang tata kelola AI etis dan implementasinya.