potongan Kegagalan Draf Undang-Undang Kecerdasan Buatan UE - Unite.AI
Terhubung dengan kami

Regulasi

Kegagalan Draf Undang-Undang Kecerdasan Buatan UE

mm
Updated on

Kritik hukum baru terhadap draf 'Undang-Undang Kecerdasan Buatan' Uni Eropa menimbulkan beragam kritik terhadap peraturan yang diusulkan dirilis pada bulan April, menyimpulkan bahwa sebagian besar dokumen 'digabungkan' dari peraturan konsumen tahun 1980-an yang hampir tidak berlaku; bahwa itu benar-benar mempromosikan lingkungan AI yang dideregulasi di Eropa, daripada membawa sektor ini di bawah regulasi yang koheren; dan – di antara banyak kritik lainnya – bahwa proposal tersebut memetakan kerangka kerja peraturan AI masa depan yang memiliki 'sedikit pengertian dan dampak'.

Berjudul Mengungkap Draf Undang-Undang Kecerdasan Buatan UE, yang pra-cetak adalah kolaborasi antara peneliti dari UCL London dan Radboud University di Nijmegen.

Makalah ini menambah semakin banyak opini negatif tentang implementasi yang diusulkan (bukan maksud yang sangat dikagumi) dari kerangka kerja regulasi AI, termasuk pendapat pada bulan April dari salah satu kontributor draf peraturan itu sendiri bahwa pedoman yang diusulkan 'suam-suam kuku, berpandangan pendek dan sengaja kabur', yang mencirikan dokumen Komisi Eropa sebagai pendukung 'etika palsu'.

Sistem AI manipulatif

Makalah baru berpendapat bahwa pembatasan yang diusulkan Undang-Undang AI pada 'sistem manipulatif' dilumpuhkan oleh definisi 'bahaya' yang samar dan bahkan kontradiktif, berkomentar bahwa '[a] orang yang sinis mungkin merasa Komisi lebih tertarik pada nilai retoris larangan daripada nilai praktis. memengaruhi'.

Grafik Rancangan peraturan menguraikan dua praktik yang diduga dilarang:

(a) menempatkan di pasar, melayani atau menggunakan sistem AI yang menyebarkan teknik subliminal di luar kesadaran seseorang untuk secara material mendistorsi perilaku seseorang dengan cara yang menyebabkan atau kemungkinan menyebabkan orang itu atau orang lain secara fisik atau kerugian psikologis;

(b) menempatkan di pasar, menggunakan atau menggunakan sistem AI yang mengeksploitasi salah satu kerentanan sekelompok orang tertentu karena usia, cacat fisik atau mental mereka, untuk mengubah perilaku seseorang secara material berkaitan dengan kelompok itu dengan cara yang menyebabkan atau kemungkinan besar menyebabkan orang itu atau orang lain terluka secara fisik atau psikologis;

Para peneliti berpendapat bahwa pembatasan ini tidak membahas apakah layanan atau perangkat lunak penyedia AI berhasil atau tidak dalam memajukan tujuan mereka sendiri, tetapi hanya jika pengguna akhir menderita 'kerugian' dalam prosesnya. Mereka menambahkan bahwa definisi draf tentang bahaya secara fatal terbatas pada pengguna individu, daripada jenis bahaya kolektif atau sosial yang dapat disimpulkan secara wajar dari sejumlah kontroversi berbasis AI beberapa tahun terakhir, seperti bencana Cambridge Analytica.

Makalah tersebut mengamati bahwa 'Dalam kehidupan nyata, kerugian dapat terakumulasi tanpa satu peristiwa pun yang melewati ambang keseriusan, sehingga sulit untuk dibuktikan'.

Sistem AI yang Berbahaya Diizinkan, tetapi Tidak untuk Konsumsi UE

UU AI mengusulkan untuk menerapkan larangan sistem biometrik 'real-time' di ruang publik oleh penegak hukum. Meskipun beberapa skeptisisme publik ditujukan pada pengecualian yang dibuat proposal untuk anti-terorisme, perdagangan anak, dan pengejaran surat perintah penangkapan Eropa, para peneliti mencatat juga bahwa tidak ada yang akan mencegah pemasok menjual sistem biometrik yang bertentangan dengan rezim yang menindas.

Makalah ini mengamati bahwa ini sudah menjadi praktik sejarah, sebagaimana terungkap dalam laporan tahun 2020 dari Amnesty International.

Lebih lanjut dinyatakan bahwa spesifikasi sistem biometrik 'real time' oleh Undang-Undang AI bersifat arbitrer, dan mengecualikan sistem analitik off-line, seperti pemrosesan rekaman video selanjutnya dari peristiwa protes.

Selain itu, perlu dicatat bahwa proposal tersebut tidak menawarkan mekanisme untuk membatasi sistem biometrik tidak terkait dengan penegakan hukum, yang justru dengan malas ditangguhkan ke GDPR; dan bahwa GDPR itu sendiri 'menempatkan persyaratan persetujuan individu berkualitas tinggi untuk setiap orang yang dipindai yang secara efektif tidak mungkin dipenuhi'.

Kata-kata dari bagian UU AI ini juga mendapat kritik dari para peneliti. Rancangan tersebut menetapkan bahwa pra-otorisasi akan diperlukan untuk penyebaran sistem biometrik untuk 'penggunaan individu' otoritas yang kompeten dari sistem tersebut – tetapi tidak menjelaskan apa arti 'penggunaan individu' dalam konteks ini. Makalah tersebut mencatat bahwa waran kontroversial dapat terjadi bertema, dan berhubungan dengan organisasi, tujuan, dan tempat yang luas.

Selain itu, rancangan peraturan tersebut tidak mengatur mekanisme transparansi jumlah dan jenis izin yang diterbitkan, sehingga pengawasan publik bermasalah.

Regulasi Pengalihdayaan ke 'Standar Harmonisasi'

Penelitian tersebut menyatakan bahwa entitas terpenting dalam UU AI sebenarnya tidak disebutkan satu kali pun dalam draf peraturan: CEN (Komite Standardisasi Eropa) dan CENELEC (Komite Eropa untuk Standardisasi Elektroteknik) – dua dari tiga Organisasi Standardisasi Eropa (ESO) yang Komisi Eropa dapat mengamanatkan untuk merumuskan standar yang diselaraskan, yang dalam banyak kasus akan tetap menjadi kerangka peraturan yang mengatur untuk jenis layanan dan penerapan AI tertentu.

Ini secara efektif berarti bahwa produsen IB dapat memilih untuk mengikuti standar dari apa yang pada dasarnya bersaing daripada peraturan pelengkap, alih-alih memenuhi persyaratan penting yang digariskan dalam Undang-Undang AI. Hal ini memungkinkan penyedia untuk menafsirkan peraturan yang diusulkan dengan lebih longgar saat mulai berlaku pada tahun 2024-5.

Para peneliti makalah juga berpendapat bahwa tahun-tahun intervensi lobi industri di antara badan standar cenderung mendefinisikan kembali 'standar esensial' ini secara signifikan, dan menyarankan bahwa peraturan 'ideal' harus dimulai pada tingkat etika yang lebih tinggi dan kejelasan legislatif, jika hanya untuk menjelaskan hal ini. proses gesekan yang tak terelakkan.

Melegitimasi Kekeliruan Sistem Pengenalan Emosi

Undang-Undang Kecerdasan Buatan menampilkan ketentuan yang menentang penerapan sistem pengenalan dan kategorisasi emosi – kerangka kerja yang mungkin tidak selalu mengidentifikasi individu, tetapi mengklaim memahami apa yang mereka rasakan atau dapat mengkategorikan mereka dalam hal jenis kelamin, etnis, dan berbagai lainnya. penanda ekonomi dan sosial.

Para peneliti berpendapat bahwa klausul ini tidak ada gunanya, karena GDPR telah mewajibkan penyedia sistem tersebut untuk memberikan informasi yang jelas kepada pengguna tentang penggunaan sistem tersebut, sehingga pengguna dapat memilih keluar (yang mungkin melibatkan tidak menggunakan layanan online, atau tidak memasukkan area di mana sistem tersebut diumumkan ada).

Lebih penting lagi, makalah ini mengklaim bahwa klausul ini melegitimasi a debunked teknologi, dan melanjutkan untuk mengkarakterisasi FACS-sistem pengenalan emosi gaya dalam terang sejarah frenologi yang memalukan dan pendekatan mendekati perdukunan lainnya untuk kategorisasi sosial dari era industri awal.

'Mereka yang mengaku mendeteksi emosi menggunakan taksonomi yang disederhanakan dan dipertanyakan; salah menganggap universalitas lintas budaya dan konteks; dan mengambil risiko '[membawa] kita kembali ke masa lalu frenologis' dalam menganalisis ciri-ciri karakter dari struktur wajah. Ketentuan UU tentang pengenalan emosi dan kategorisasi biometrik tampaknya tidak cukup untuk mengurangi risiko.'

Proposal yang Terlalu Sederhana

Selain hal-hal tersebut, para peneliti juga mengatasi kelemahan-kelemahan lain dalam UU AI sehubungan dengan regulasi deepfake, kurangnya pengawasan terhadap emisi karbon pada sistem AI, duplikasi pengawasan peraturan dengan kerangka kerja lain, dan tidak memadainya definisi badan hukum yang dapat dituntut.

Mereka mendesak legislator dan aktivis sipil untuk mengambil tindakan untuk memperbaiki masalah yang teridentifikasi, dan lebih lanjut mencatat bahkan dekonstruksi ekstensif rancangan peraturan mereka harus menghilangkan banyak bidang lain yang menjadi perhatian, karena kurangnya ruang.

Meskipun demikian, makalah tersebut memuji upaya garda depan Undang-Undang untuk memperkenalkan sistem regulasi horizontal sistem AI, mengutip banyak 'elemen yang masuk akal', seperti membuat hierarki tingkat penilaian risiko, memiliki komitmen untuk memperkenalkan larangan, dan mengusulkan database publik. sistem yang perlu disumbangkan oleh pemasok untuk mendapatkan legitimasi Eropa, meskipun mencatat kesulitan hukum yang kemungkinan besar akan ditimbulkan oleh persyaratan selanjutnya ini.

 

Penulis tentang pembelajaran mesin, kecerdasan buatan, dan data besar.
Situs pribadi: martinanderson.ai
Kontak: [email dilindungi]
Twitter: @manders_ai