Terhubung dengan kami

Regulasi

Kegagalan Draf Undang-Undang Kecerdasan Buatan UE

mm

Kritik hukum baru terhadap rancangan 'Undang-Undang AI' Uni Eropa memunculkan beragam kritik terhadap peraturan yang diusulkan dirilis pada bulan April, menyimpulkan bahwa sebagian besar dokumen tersebut 'dijahit bersama' dari regulasi konsumen tahun 1980-an yang hampir tidak berlaku; bahwa dokumen tersebut sebenarnya mempromosikan lingkungan AI yang dideregulasi di Eropa, daripada menempatkan sektor tersebut di bawah regulasi yang koheren; dan – di antara banyak kritik lainnya – bahwa proposal tersebut memetakan kerangka kerja regulasi AI masa depan yang 'kurang masuk akal dan berdampak'.

Berjudul Mengungkap Draf Undang-Undang Kecerdasan Buatan UE, yang pra-cetak adalah kolaborasi antara peneliti dari UCL London dan Radboud University di Nijmegen.

Makalah ini menambah semakin banyak opini negatif tentang implementasi yang diusulkan (bukan maksud yang sangat dikagumi) dari kerangka kerja regulasi AI, termasuk pendapat pada bulan April dari salah satu kontributor rancangan peraturan itu sendiri bahwa pedoman yang diusulkan itu 'suam-suam kuku, picik, dan sengaja dibuat samar', yang mencirikan dokumen Komisi Eropa sebagai pendukung 'etika palsu'.

Sistem AI manipulatif

Makalah baru tersebut berpendapat bahwa pembatasan yang diusulkan UU AI pada 'sistem manipulatif' terhambat oleh definisi 'bahaya' yang tidak jelas dan bahkan kontradiktif, dengan mengomentari bahwa '[s]eorang yang sinis mungkin merasa Komisi lebih tertarik pada nilai retorika larangan daripada dampak praktisnya'.

The Rancangan peraturan menguraikan dua praktik yang diduga dilarang:

(a) menempatkan di pasar, melayani atau menggunakan sistem AI yang menyebarkan teknik subliminal di luar kesadaran seseorang untuk secara material mendistorsi perilaku seseorang dengan cara yang menyebabkan atau kemungkinan menyebabkan orang itu atau orang lain secara fisik atau kerugian psikologis;

(b) menempatkan di pasar, menggunakan atau menggunakan sistem AI yang mengeksploitasi salah satu kerentanan sekelompok orang tertentu karena usia, cacat fisik atau mental mereka, untuk mengubah perilaku seseorang secara material berkaitan dengan kelompok itu dengan cara yang menyebabkan atau kemungkinan besar menyebabkan orang itu atau orang lain terluka secara fisik atau psikologis;

Para peneliti berpendapat bahwa pembatasan ini tidak membahas keberhasilan layanan atau perangkat lunak penyedia AI dalam mencapai tujuan mereka, melainkan hanya jika pengguna akhir mengalami "kerugian" dalam prosesnya. Mereka menambahkan bahwa definisi kerugian dalam draf tersebut secara fatal terbatas pada pengguna individu, alih-alih kerugian kolektif atau sosial yang dapat disimpulkan secara wajar dari sejumlah kontroversi berbasis AI dalam beberapa tahun terakhir, seperti skandal Cambridge Analytica.

Makalah tersebut mengamati bahwa 'Dalam kehidupan nyata, kerugian dapat terakumulasi tanpa satu peristiwa pun yang melewati ambang batas keseriusan, sehingga sulit dibuktikan'.

Sistem AI yang Berbahaya Diizinkan, tetapi Tidak untuk Konsumsi UE

Undang-Undang AI mengusulkan penerapan larangan sistem biometrik 'waktu nyata' di ruang publik oleh penegak hukum. Meskipun terdapat skeptisisme publik terhadap pengecualian yang diajukan dalam proposal tersebut untuk antiterorisme, perdagangan anak, dan upaya mendapatkan surat perintah penangkapan Eropa, para peneliti juga mencatat bahwa tidak ada yang dapat mencegah pemasok menjual sistem biometrik yang melanggar hukum kepada rezim yang represif.

Makalah ini mengamati bahwa ini sudah menjadi praktik sejarah, sebagaimana terungkap dalam laporan tahun 2020 dari Amnesty International.

Dinyatakan lebih lanjut bahwa spesifikasi UU AI tentang sistem biometrik 'waktu nyata' bersifat sewenang-wenang, dan mengecualikan sistem analitis offline, seperti pemrosesan rekaman video dari acara protes di kemudian hari.

Selain itu, perlu dicatat bahwa proposal tersebut tidak menawarkan mekanisme untuk membatasi sistem biometrik yang tidak terkait dengan penegakan hukum, yang sebaliknya dengan malas ditangguhkan ke GDPR; dan bahwa GDPR sendiri 'menetapkan persyaratan persetujuan individual berkualitas tinggi untuk setiap orang yang dipindai yang secara efektif tidak mungkin dipenuhi'.

Rumusan pasal UU AI ini juga menuai kritik dari para peneliti. Draf tersebut menetapkan bahwa pra-otorisasi akan diperlukan untuk penerapan sistem biometrik untuk 'penggunaan individual' oleh otoritas yang berwenang atas sistem tersebut – tetapi tidak menjelaskan apa arti 'penggunaan individual' dalam konteks ini. Makalah tersebut mencatat bahwa surat perintah yang kontroversial dapat bertema, dan berhubungan dengan organisasi, tujuan, dan tempat yang luas.

Selain itu, rancangan peraturan tersebut tidak mengatur mekanisme transparansi jumlah dan jenis izin yang diterbitkan, sehingga pengawasan publik bermasalah.

Regulasi Pengalihdayaan ke 'Standar yang Terharmonisasi'

Penelitian tersebut menyatakan bahwa entitas terpenting dalam UU AI sebenarnya tidak disebutkan satu kali pun dalam draf peraturan: CEN (Komite Standardisasi Eropa) dan CENELEC (Komite Eropa untuk Standardisasi Elektroteknik) – dua dari tiga Organisasi Standardisasi Eropa (ESO) yang Komisi Eropa dapat mengamanatkan untuk merumuskan standar yang diselaraskan, yang dalam banyak kasus akan tetap menjadi kerangka peraturan yang mengatur untuk jenis layanan dan penerapan AI tertentu.

Ini secara efektif berarti bahwa produsen IB dapat memilih untuk mengikuti standar dari apa yang pada dasarnya bersaing daripada peraturan pelengkap, alih-alih memenuhi persyaratan penting yang digariskan dalam Undang-Undang AI. Hal ini memungkinkan penyedia untuk menafsirkan peraturan yang diusulkan dengan lebih longgar saat mulai berlaku pada tahun 2024-5.

Para peneliti dalam makalah ini juga berpendapat bahwa intervensi tahun demi tahun dari lobi industri di antara badan-badan standar kemungkinan akan mendefinisikan ulang 'standar-standar penting' ini secara signifikan, dan menyarankan bahwa regulasi 'ideal' harus dimulai pada tingkat etika yang lebih tinggi dan kejelasan legislatif, jika hanya untuk memperhitungkan proses pengurangan yang tak terelakkan ini.

Melegitimasi Kekeliruan Sistem Pengenalan Emosi

Undang-Undang Kecerdasan Buatan menampilkan ketentuan yang menentang penerapan sistem pengenalan dan kategorisasi emosi – kerangka kerja yang mungkin tidak selalu mengidentifikasi individu, tetapi mengklaim memahami apa yang mereka rasakan atau dapat mengkategorikan mereka dalam hal jenis kelamin, etnis, dan berbagai lainnya. penanda ekonomi dan sosial.

Para peneliti berpendapat bahwa klausul ini tidak ada gunanya, karena GDPR telah mewajibkan penyedia sistem tersebut untuk memberikan informasi yang jelas kepada pengguna tentang penggunaan sistem tersebut, sehingga pengguna dapat memilih keluar (yang mungkin melibatkan tidak menggunakan layanan online, atau tidak memasukkan area di mana sistem tersebut diumumkan ada).

Lebih penting lagi, makalah ini mengklaim bahwa klausul ini melegitimasi a debunked teknologi, dan melanjutkan untuk mengkarakterisasi FACS-sistem pengenalan emosi gaya dalam terang sejarah frenologi yang memalukan dan pendekatan mendekati perdukunan lainnya untuk kategorisasi sosial dari era industri awal.

'Mereka yang mengaku mendeteksi emosi menggunakan taksonomi yang disederhanakan dan dipertanyakan; salah menganggap universalitas lintas budaya dan konteks; dan mengambil risiko '[membawa] kita kembali ke masa lalu frenologis' dalam menganalisis ciri-ciri karakter dari struktur wajahKetentuan Undang-Undang tentang pengenalan emosi dan kategorisasi biometrik tampaknya tidak cukup untuk mengurangi risiko.'

Proposal yang Terlalu Sederhana

Selain hal-hal tersebut, para peneliti juga mengatasi kelemahan-kelemahan lain dalam UU AI sehubungan dengan regulasi deepfake, kurangnya pengawasan terhadap emisi karbon pada sistem AI, duplikasi pengawasan peraturan dengan kerangka kerja lain, dan tidak memadainya definisi badan hukum yang dapat dituntut.

Mereka mendesak legislator dan aktivis sipil untuk mengambil tindakan untuk memperbaiki masalah yang teridentifikasi, dan lebih lanjut mencatat bahkan dekonstruksi ekstensif rancangan peraturan mereka harus menghilangkan banyak bidang lain yang menjadi perhatian, karena kurangnya ruang.

Meskipun demikian, makalah tersebut memuji upaya terdepan dalam UU tersebut untuk memperkenalkan sistem regulasi horizontal sistem AI, dengan menyebutkan banyak 'elemen yang masuk akal', seperti menciptakan hierarki tingkat penilaian risiko, memiliki komitmen untuk memperkenalkan larangan, dan mengusulkan basis data publik sistem yang harus disumbangkan oleh para penyedia agar memperoleh legitimasi Eropa, meskipun mencatat dilema hukum yang mungkin timbul dari persyaratan selanjutnya ini.

 

Penulis tentang pembelajaran mesin, spesialis domain dalam sintesis citra manusia. Mantan kepala konten penelitian di Metaphysic.ai.
Situs pribadi: martinanderson.ai
Kontak: [email dilindungi]
Twitter: @manders_ai