Connect with us

Regulasi

Kode Etik AI Baru UE yang Dapat Mempengaruhi Regulasi

mm

Komisi Eropa baru-baru ini memperkenalkan Kode Etik yang dapat mengubah cara perusahaan AI beroperasi. Ini bukan hanya sekumpulan pedoman lagi, melainkan perubahan total pengawasan AI yang bahkan pemain terbesar pun tidak bisa abaikan. 

Apa yang membuat ini berbeda? Untuk pertama kalinya, kita melihat aturan konkrit yang bisa memaksa perusahaan seperti OpenAI dan Google untuk membuka model mereka untuk pengujian eksternal, pergeseran mendasar dalam cara sistem AI dikembangkan dan diterapkan di Eropa.

Pemain Baru dalam Pengawasan AI

Komisi Eropa telah menciptakan kerangka yang secara khusus menargetkan apa yang mereka sebut sistem AI dengan “risiko sistemik.” Kita berbicara tentang model yang dilatih dengan lebih dari 10^25 FLOPs daya komputasi – ambang batas yang sudah dilampaui oleh GPT-4.

Perusahaan akan perlu melaporkan rencana pelatihan AI mereka dua minggu sebelum mereka bahkan memulai. 

Di pusat sistem baru ini ada dua dokumen kunci: Kerangka Keamanan dan Keamanan (SSF) dan Laporan Keamanan dan Keamanan (SSR). SSF adalah peta jalan komprehensif untuk mengelola risiko AI, mencakup segala sesuatu dari identifikasi risiko awal hingga langkah-langkah keamanan berkelanjutan. Sementara itu, SSR berfungsi sebagai alat dokumentasi rinci untuk setiap model individu.

Pengujian Eksternal untuk Model AI Berisiko Tinggi

Komisi menuntut pengujian eksternal untuk model AI berisiko tinggi. Ini bukanlah pemeriksaan kualitas internal biasa – ahli independen dan Kantor AI UE sedang memeriksa sistem-sistem ini.

Implikasinya besar. Jika Anda adalah OpenAI atau Google, Anda tiba-tiba perlu membiarkan ahli luar memeriksa sistem Anda. Draf tersebut secara eksplisit menyatakan bahwa perusahaan harus “memastikan pengujian ahli independen yang cukup sebelum penerapan.” Itu adalah pergeseran besar dari pendekatan self-regulasi saat ini.

Pertanyaan muncul: Siapa yang memenuhi syarat untuk menguji sistem-sistem yang sangat kompleks ini? Kantor AI UE memasuki wilayah yang belum pernah dipetakan sebelumnya. Mereka akan membutuhkan ahli yang dapat memahami dan mengevaluasi teknologi AI baru sambil menjaga kerahasiaan yang ketat tentang apa yang mereka temukan.

Persyaratan pengujian eksternal ini bisa menjadi wajib di seluruh UE melalui tindakan pelaksanaan Komisi. Perusahaan dapat mencoba menunjukkan kepatuhan melalui “sarana alternatif yang memadai,” tetapi tidak ada yang tahu apa artinya dalam prakteknya.

Perlindungan Hak Cipta Menjadi Serius

UE juga menjadi serius tentang hak cipta. Mereka memaksa penyedia AI untuk menciptakan kebijakan yang jelas tentang bagaimana mereka menangani properti intelektual.

Komisi mendukung standar robots.txt – sebuah file sederhana yang memberitahu pengrawler web di mana mereka bisa dan tidak bisa pergi.  Jika sebuah situs web mengatakan “tidak” melalui robots.txt, perusahaan AI tidak bisa mengabaikannya dan melatih konten itu juga. Mesin pencari tidak bisa menghukum situs untuk menggunakan pengecualian ini. Ini adalah langkah kekuatan yang meletakkan kreator konten kembali di kursi pengemudi.

Perusahaan AI juga harus secara aktif menghindari situs web pembajakan saat mereka mengumpulkan data pelatihan. UE bahkan menunjuk mereka ke “Daftar Tontonan Pemalsuan dan Pembajakan” sebagai titik awal. 

Apa yang Ini Berarti untuk Masa Depan

UE sedang menciptakan lapangan permainan baru untuk pengembangan AI. Persyaratan ini akan mempengaruhi segala sesuatu dari cara perusahaan merencanakan proyek AI mereka hingga cara mereka mengumpulkan data pelatihan.

Setiap perusahaan AI besar sekarang menghadapi pilihan. Mereka perlu:

  • Membuka model mereka untuk pengujian eksternal
  • Mencari tahu apa yang dimaksud dengan “sarana alternatif” kepatuhan
  • Atau membatasi operasi mereka di pasar UE

Timeline di sini juga penting. Ini bukan regulasi masa depan yang jauh – Komisi bergerak cepat. Mereka berhasil mengumpulkan sekitar 1.000 pemangku kepentingan yang dibagi menjadi empat kelompok kerja, semua merincikan bagaimana ini akan bekerja.

Bagi perusahaan yang membangun sistem AI, hari-hari “bergerak cepat dan atur aturan nanti” mungkin berakhir. Mereka akan perlu mulai memikirkan persyaratan ini sekarang, bukan ketika mereka menjadi wajib. Itu berarti:

  • Merencanakan audit eksternal dalam timeline pengembangan mereka
  • Mengatur sistem kepatuhan hak cipta yang kuat
  • Membangun kerangka dokumentasi yang sesuai dengan persyaratan UE

Dampak nyata dari regulasi ini akan terungkap dalam beberapa bulan mendatang. Sementara beberapa perusahaan mungkin mencari cara untuk menghindarinya, yang lain akan mengintegrasikan persyaratan ini ke dalam proses pengembangan mereka. Kerangka UE bisa mempengaruhi bagaimana pengembangan AI terjadi secara global, terutama jika wilayah lain mengikuti dengan langkah-langkah pengawasan serupa. Ketika aturan-aturan ini berpindah dari draf ke implementasi, industri AI menghadapi pergeseran regulasi terbesarnya.

Alex McFarland adalah seorang jurnalis dan penulis AI yang menjelajahi perkembangan terbaru dalam kecerdasan buatan. Ia telah berkolaborasi dengan berbagai startup dan publikasi AI di seluruh dunia.