Connect with us

Pemimpin pemikiran

Mengapa Perusahaan Harus Mengikuti Pendekatan Berbasis Nilai untuk Tata Kelola AI

mm

Pada September 2025, untuk pertama kalinya, semua negara anggota Perserikatan Bangsa-Bangsa (PBB) berkumpul untuk membahas tata kelola AI internasional; banyak di antaranya diwakili lagi pada Februari di AI Impact Summit di Delhi. Acara tersebut mengarah pada peluncuran dua badan baru yang berfokus pada tata kelola AI; tetapi itu, pada yang terbaik, merupakan keberhasilan simbolis.

Mekanisme baru PBB dirancang untuk memastikan konsensus: mereka menghindari area yang diperdebatkan seperti penggunaan AI militer, dan kekurangan sumber daya pendanaan dan kekuatan penegakan. Hal ini seharusnya tidak mengejutkan bagi pengamat yang berpengalaman. PBB saat ini kekurangan kemampuan untuk bergerak cepat atau memastikan kepatuhan universal terhadap keputusannya, membuatnya menjadi forum yang sulit untuk menghasilkan perubahan nyata.

Hal ini sesuai dengan pola yang sudah mapan. Meskipun telah ada upaya yang tersebar selama bertahun-tahun untuk membangun konsensus tentang regulasi AI, tidak ada perjanjian internasional yang signifikan, menciptakan kekosongan di mana negara-negara individu dan blok-blok terpaksa mengembangkan aturan mereka sendiri. Namun, tata kelola AI yang efektif sangat penting jika kita ingin melihat adopsi yang luas, kepercayaan publik, dan penggunaan yang menghasilkan manfaat sosial dan ekonomi yang langgeng.

Make Do and Mend

Untuk perusahaan global yang membangun dan mengoperasikan sistem AI, kurangnya mekanisme tata kelola yang umum dan disepakati ini merupakan masalah. Mereka ingin mengirimkan sistem AI di seluruh dunia, tetapi tidak ada dua yurisdiksi yang mengikuti set aturan yang sama. Jadi, mereka terpaksa membuat kerangka tata kelola generik untuk sistem mereka, lalu membangunnya dari awal di setiap negara di mana mereka beroperasi untuk memastikan kepatuhan terhadap hukum dan peraturan setempat. Pendekatan ini menciptakan sejumlah besar pekerjaan tambahan, membuat inisiatif AI lebih mahal dan rentan terhadap keterlambatan, dan melemahkan kemampuan perusahaan global untuk mewujudkan ekonomi skala dan berbagi alat yang efektif dengan pengguna di mana-mana.

Tetapi, ada alternatif. Untuk perusahaan yang ingin menyederhanakan pendekatan mereka, pilihan terbaik mungkin adalah membangun kerangka tata kelola AI yang memperhitungkan prinsip etika yang umum di berbagai wilayah, memastikan bahwa mereka memenuhi standar tinggi di mana-mana dalam hal melindungi kebebasan, privasi, dan keamanan individu. Teknik ini merupakan cara yang kuat bagi bisnis AI untuk meningkatkan kepercayaan publik terhadap teknologi mereka, untuk memperkuat basis pelanggan mereka, dan untuk memanfaatkan potensi manfaat AI bagi masyarakat.

Enam Nilai Kunci untuk Tata Kelola AI

Untuk setiap organisasi yang tertarik untuk mengadopsi pendekatan berbasis nilai untuk tata kelola AI, saya sarankan menggunakan enam nilai kunci yang kami ikuti: akuntabilitas, keterjelasan, transparansi, keadilan, keamanan, dan kemampuan dipertanyakan.

Kami memilih nilai-nilai ini karena mereka mencakup semua area utama dari siklus hidup sistem AI dan karena mereka telah dikodifikasi dalam berbagai standar internasional dan nasional yang terkait dengan AI, seperti ISO/IEC 42001 dari Organisasi Internasional untuk Standardisasi dan Buku Pedoman Kecerdasan Buatan untuk Pemerintah Inggris.

Untuk memulai dari atas, akuntabilitas berarti mengetahui siapa yang bertanggung jawab atas apa di setiap tahap siklus hidup AI. Tanpa kepemilikan yang jelas, kontrol yang penting dapat dihilangkan karena tidak ada individu atau tim yang memegang tanggung jawab tertinggi. Organisasi harus menunjuk pemilik senior yang bernama – seperti Chief AI Officer mereka – untuk sistem AI dan tahap kunci serta menggunakan model tata kelola berbasis risiko, menerapkan skrutini yang sama terhadap alat pihak ketiga seperti yang dikembangkan secara internal. Ini berarti memahami ketentuan pemasok, keterbatasan, dan kewajiban dengan baik seperti mereka memahami sistem mereka sendiri.

Organisasi untuk Kerja Sama dan Pengembangan Ekonomi (OECD) menangkap hal ini dengan baik dalam pedoman mereka tentang kemajuan akuntabilitas dalam AI, yang merekomendasikan bahwa organisasi menciptakan “mekanisme untuk memasukkan proses manajemen risiko AI ke dalam tata kelola organisasi yang lebih luas, mendorong budaya manajemen risiko baik di dalam organisasi maupun di seluruh rantai nilai AI.”

Selanjutnya adalah keterjelasan. Organisasi harus dapat menunjukkan bagaimana sistem AI mencapai keputusan. Ini memerlukan mekanisme untuk mendokumentasikan dan melacak proses pengambilan keputusan, bersama dengan catatan yang jelas tentang desain sistem, data pelatihan, dan proses keputusan. Diambil bersama, ini memungkinkan tim untuk memahami garis keturunan informasi dari awal hingga penerapan sistem.

Keadilan berfokus pada memastikan bahwa sistem AI menghasilkan hasil yang adil dan tidak mereplikasi atau memperkuat bias yang ada. Tanpa pemeriksaan yang disengaja, sistem dapat menyebabkan kerusakan dengan menghasilkan hasil yang miring – masalah khusus di area dengan dampak tinggi seperti perekrutan, perawatan kesehatan, dan keadilan pidana. Untuk memitigasi hal ini, organisasi harus mengimplementasikan langkah-langkah deteksi bias, meninjau output secara teratur di seluruh kelompok yang relevan, dan merancang kerangka tata kelola yang dapat menampung persyaratan non-diskriminasi setempat. Dalam prakteknya, ini berarti membangun sistem untuk memenuhi standar hukum tertinggi yang mungkin mereka temui, termasuk kewajiban berdasarkan hukum seperti Undang-Undang Kesetaraan 2010 Inggris dan Piagam Hak-Hak Dasar Uni Eropa.

Transparansi adalah tentang membawa kejelasan bagi pengguna dan regulator. Orang harus memahami kapan AI digunakan, peran apa yang dimainkannya dalam pengambilan keputusan, dan data apa yang mendasarinya. Titik awal yang praktis adalah untuk memstandarisasi dokumentasi di seluruh sistem AI, didukung oleh alat internal seperti kartu model: dokumen singkat yang disediakan dengan model pembelajaran mesin yang menjelaskan konteks di mana model tersebut dimaksudkan untuk digunakan, rincian prosedur evaluasi kinerja, dan informasi lain yang relevan. Tanpa transparansi, pengguna tidak dapat membantah hasil yang tidak adil, regulator tidak dapat campur tangan secara efektif, dan dampak yang merugikan mungkin disembunyikan.

Keamanan melibatkan melindungi sistem AI dari akses tidak sah, manipulasi, atau perilaku yang tidak diinginkan. Jika keamanan lemah, AI dapat membahayakan organisasi, pengguna, dan data mereka, sehingga mereka terpapar kerusakan finansial dan reputasi. Organisasi harus mendefinisikan ambang kinerja dan akurasi, menguji sistem di bawah kondisi yang realistis, dan mengintegrasikan pengujian tim merah untuk mengidentifikasi kerentanan.

Terakhir, kemampuan dipertanyakan memastikan bahwa orang memiliki cara yang jelas dan dapat diakses untuk menantang atau banding keputusan yang didorong oleh AI. Tanpa itu, pengguna yang terkena dampak tidak memiliki upaya hukum dan masalah mungkin tidak pernah muncul atau diselesaikan. Organisasi harus menyediakan saluran pelaporan pada titik penggunaan, menunjuk pemilik senior untuk mengelola keluhan, dan memastikan sistem dapat dihentikan, ditinjau, atau diperbarui jika perlu.

Apa Manfaat dari Kerangka Berbasis Nilai?

Ada dua alasan kuat untuk mengadopsi pendekatan berbasis nilai untuk tata kelola AI. Pertama, karena mereka yang membangun dan menerapkan sistem AI memiliki tanggung jawab etis terhadap orang dan organisasi yang terkena dampak; dan, kedua, karena ini adalah cara yang lebih efektif untuk mewujudkan manfaat AI yang dijanjikan dalam prakteknya.

Pengguna sistem AI, baik perusahaan maupun individu, meletakkan kepercayaan implisit pada pembuatnya untuk tidak menyalahgunakan data pribadi atau memaparkan mereka pada risiko yang tidak perlu. Ketika organisasi melanggar kepercayaan itu, menjadi sangat sulit bagi mereka untuk mempertahankan pengguna tersebut. Pada akhirnya, kecuali orang percaya pada sistem AI dan dapat melihat manfaat yang jelas yang mereka berikan, mereka tidak akan setuju dengan penerapan mereka. Ini akan menyebabkan lebih banyak perpecahan sosial dan ekonomi, dan kita akan melewatkan banyak kesempatan yang ditawarkan oleh teknologi ini.

Di sisi lain, perusahaan yang menerapkan kerangka berbasis nilai di mana-mana – termasuk di wilayah dengan persyaratan tata kelola yang lebih longgar – dapat menunjukkan kepada pelanggan, investor, dan regulator bahwa mereka memegang diri mereka sendiri pada standar yang lebih tinggi daripada yang hanya memenuhi persyaratan dasar. Ini membangun kepercayaan, keterlibatan, dan, pada akhirnya, kesuksesan bisnis.

Tata kelola AI yang kuat adalah pembuat nilai, bukan beban kepatuhan. Ini memungkinkan bisnis untuk membawa produk baru ke pasar lebih cepat, mengurangi eksposur risiko mereka, dan menskalakan solusi mereka di seluruh beberapa pasar dengan kepercayaan diri.

Laporan ‘The state of AI’ dari McKinsey menemukan bahwa “pengawasan CEO terhadap tata kelola AI… adalah salah satu elemen yang paling berkorelasi dengan dampak garis bawah yang lebih tinggi dari penggunaan AI gen yang dilaporkan sendiri oleh organisasi,” menekankan manfaat komersial dari pendekatan seperti itu. Dalam hal ini, membangun kerangka etika yang kuat ke dalam sistem AI merupakan kepentingan diri yang tercerahkan.

Di luar semua itu, ini adalah hal yang benar untuk dilakukan. Kami telah membangun kebijakan etika AI global kami di sekitar prinsip yang sama: bahwa teknologi canggih harus melayani orang dan masyarakat, bukan sebaliknya. Ini mencerminkan visi yang lebih luas dari Masyarakat 5.0: model inovasi yang berfokus pada manusia yang mencari untuk menggabungkan kemajuan ekonomi dengan penyelesaian tantangan sosial.

Jika teknologi yang muncul seperti AI akan mendorong masyarakat yang lebih bahagia dan harmonis, mereka harus dibangun di atas landasan etika yang kuat. Ini dimulai dengan fokus tidak hanya pada standar yang organisasi diwajibkan untuk dipenuhi, tetapi juga standar yang mereka ingin capai.

Isabella Grandi adalah Direktur Strategi Data & AI, Tata Kelola dan Etika di NTT DATA UK&I. Ia bermitra dengan organisasi untuk membentuk dan mengirimkan AI yang bertanggung jawab & tata kelola AI yang memindahkan mereka dari keadaan saat ini ke model operasional yang lebih matang, didorong oleh data. Pekerjaannya berfokus pada mengintegrasikan praktik etis dan manajemen risiko AI yang kuat ke dalam cara organisasi merancang dan mengirimkan AI, memastikan penggunaan yang bertanggung jawab terintegrasi ke dalam struktur pengambilan keputusan dan operasi sehari-hari.