Bizimle iletişime geçin

Değişiklik Yapıldı

Taslak AB Yapay Zeka Yasasının Başarısızlıkları

mm

Avrupa Birliği'nin 'Yapay Zeka Yasası' taslağına yönelik yeni bir hukuki eleştiri, önerilen düzenlemelere yönelik geniş bir yelpazede eleştiri getiriyor nisan ayında serbest bırakıldı, belgenin büyük bir kısmının 1980'lerdeki neredeyse hiç uygulanabilir olmayan tüketici düzenlemelerinden 'bir araya getirildiği'; sektörü tutarlı bir düzenleme altına almak yerine Avrupa'da düzenlemesiz bir yapay zeka ortamını teşvik ettiği; ve -bir dizi başka eleştirinin yanı sıra- önerilerin 'çok az anlam ve etkiye sahip' gelecekteki bir düzenleyici yapay zeka çerçevesini haritaladığı sonucuna varıyor.

Adlı AB Yapay Zeka Yasası Taslağının Gizemini Ortaya Çıkarma, ön baskı UCL London ve Nijmegen'deki Radboud Üniversitesi'nden araştırmacılar arasındaki bir işbirliğidir.

Makale, düzenleyici bir yapay zeka çerçevesinin önerilen uygulaması (çok beğenilen niyetten ziyade) hakkında, çekişme de dahil olmak üzere, giderek artan sayıda olumsuz görüşe katkıda bulunuyor. Nisan ayında Taslak yönetmeliğe katkıda bulunanlardan birinin, önerilen yönergelerin 'ılık, dar görüşlü ve kasıtlı olarak belirsiz' olduğunu söylemesi, Avrupa Komisyonu'nun belgesini 'sahte etik' savunucusu olarak nitelendirmesi.

Manipülatif AI Sistemleri

Yeni makalede, Yapay Zeka Yasası'nın 'manipülatif sistemler' üzerindeki önerilen kısıtlamalarının, 'zarar' kavramının belirsiz ve hatta çelişkili bir tanımı nedeniyle engellendiği ileri sürülüyor ve '[bir] alaycının, Komisyon'un yasakların pratik etkisinden çok söylemsel değeriyle ilgilendiğini düşünebileceği' yorumu yapılıyor.

MKS taslak yönetmelik yasaklanmış olduğu varsayılan iki uygulamanın ana hatlarını çizin:

(a) bir kişinin davranışını o kişiye veya başka bir kişiye fiziksel neden olacak veya olabilecek şekilde maddi olarak çarpıtmak için kişinin bilincinin ötesinde bilinçaltı teknikler uygulayan bir AI sisteminin piyasaya arz edilmesi, hizmete sunulması veya kullanılması veya psikolojik zarar;

(b) bir kişinin davranışını maddi olarak bozmak için yaşları, fiziksel veya zihinsel engelleri nedeniyle belirli bir grup kişinin güvenlik açıklarından yararlanan bir AI sisteminin piyasaya arz edilmesi, hizmete sunulması veya kullanılması o kişiye veya başka bir kişiye fiziksel veya psikolojik zarar verecek veya verebilecek şekilde o gruba ait;

Araştırmacılar, bu kısıtlamaların bir yapay zekâ sağlayıcısının hizmetlerinin veya yazılımlarının kendi amaçlarına ulaşmada başarılı olup olmadığını değil, yalnızca son kullanıcının bu süreçte "zarar" görüp görmediğini ele aldığını savunuyor. Taslağın zarar tanımının, Cambridge Analytica fiyaskosu gibi son yıllardaki bir dizi yapay zekâ temelli tartışmadan makul bir şekilde çıkarılabilecek türden kolektif veya toplumsal zarardan ziyade, ölümcül bir şekilde bireysel kullanıcılarla sınırlı olduğunu da ekliyorlar.

Makalede, 'Gerçek hayatta, tek bir olayın ciddiyet eşiğini aşmadan zarar birikebilir ve bu da kanıtlamayı zorlaştırır' denilmektedir.

Zararlı Yapay Zeka Sistemlerine İzin Veriliyor, Ancak AB Tüketimi İçin Değil

Yapay Zeka Yasası, kolluk kuvvetleri tarafından kamusal alanlarda 'gerçek zamanlı' biyometrik sistemlerin yasaklanmasını öneriyor. Önerilerin terörle mücadele, çocuk ticareti ve Avrupa tutuklama emri çıkarma gibi konularda getirdiği istisnalara kamuoyunda bir miktar şüpheyle yaklaşılsa da, araştırmacılar, tedarikçilerin baskıcı rejimlere aykırı biyometrik sistemler satmasını hiçbir şeyin engelleyemeyeceğini de belirtiyor.

Rapor, uluslararası Af Örgütü'nün 2020 raporunda ortaya çıktığı gibi, bunun zaten tarihsel bir uygulama olduğunu gözlemliyor.

Ayrıca, Yapay Zeka Yasası'nda yer alan 'gerçek zamanlı' biyometrik sistem tanımlamasının keyfi olduğu ve protesto olaylarından alınan video görüntülerinin daha sonra işlenmesi gibi çevrimdışı analitik sistemlerin hariç tutulduğu belirtiliyor.

Ayrıca, önerilerin biyometrik sistemleri kısıtlayacak hiçbir mekanizma sunmadığı da belirtiliyor. değil Hukukun uygulanmasıyla ilgili olan ve bunun yerine GDPR'ye tembelce ertelenen; ve GDPR'nin kendisinin 'her taranan kişi için, yerine getirilmesi fiilen imkansız olan, yüksek kalitede, bireysel onay şartı koyduğu'.

Yapay Zeka Yasası'nın bu bölümünün ifadesi de araştırmacılar tarafından eleştiriliyor. Taslak, biyometrik sistemlerin yetkili makamlarca "bireysel kullanımı" için konuşlandırılması için ön izin alınmasını şart koşuyor; ancak bu bağlamda "bireysel kullanım"ın ne anlama geldiğine açıklık getirmiyor. Makalede, tartışmalı arama emirlerinin tematikve geniş organizasyonlar, amaçlar ve yerler ile ilgilidir.

Ayrıca, taslak yönetmelikler, verilen izinlerin sayısı ve türü için bir şeffaflık mekanizması öngörmemekte ve bu da kamu denetimini sorunlu hale getirmektedir.

Düzenlemenin 'Uyumlu Standartlara' Dış Kaynak Kullanımı

Araştırma, AI Yasasındaki en önemli kuruluşların aslında taslak yönetmeliklerde bir kez bile bahsedilmediğini belirtiyor: CEN (Avrupa Standardizasyon Komitesi) ve CENELEC (Avrupa Elektroteknik Standardizasyon Komitesi) – üç Avrupa Standardizasyon Organizasyonundan (ESO) ikisi. Avrupa Komisyonu, çoğu durumda belirli yapay zeka hizmetleri ve dağıtım türleri için düzenleyici düzenleyici çerçeveler olarak kalacak uyumlaştırılmış standartları formüle etme yetkisi verebilir.

Bu, AI Yasasında belirtilen temel gereksinimleri karşılamak yerine, AI üreticilerinin tamamlayıcı düzenlemeler yerine yürürlükteki rekabet eden standartları takip etmeyi seçebilecekleri anlamına gelir. Bu, sağlayıcıların 2024-5'te yürürlüğe girdiklerinde önerilen düzenlemeleri daha gevşek bir şekilde yorumlamalarına olanak tanır.

Makalenin araştırmacıları ayrıca, standart kuruluşları arasında yıllar süren endüstriyel lobi faaliyetlerinin bu 'temel standartları' önemli ölçüde yeniden tanımlama olasılığının yüksek olduğunu ve 'ideal' düzenlemelerin, en azından bu kaçınılmaz aşınma sürecini hesaba katmak için, daha yüksek bir etik düzeyde ve yasal netlikte başlaması gerektiğini ileri sürüyorlar.

Duygu Tanıma Sistemlerinin Yanılgısını Meşrulaştırmak

Yapay Zeka Yasası, duygu tanıma ve kategorizasyon sistemlerinin konuşlandırılmasına karşı hükümler içerir - bu çerçeveler, bir bireyi mutlaka tanımlamayabilir, ancak ne hissettiğini anladığını iddia edebilir veya onları cinsiyet, etnik köken ve diğer çeşitli açılardan kategorize edebilir. ekonomik ve sosyal göstergeler.

Araştırmacılar, GDPR'nin bu tür sistemlerin tedarikçilerini kullanıcılara bu tür sistemlerin kullanımı hakkında net bilgi sağlamakla yükümlü kıldığından, bu maddenin anlamsız olduğunu savunuyorlar, böylece kullanıcılar vazgeçebilir (bu, bir çevrimiçi hizmeti kullanmamayı veya girmemeyi içerebilir). bu tür sistemlerin var olduğunun duyurulduğu bir alan).

Daha da önemlisi, makale bu maddenin bir debunked teknoloji ve karakterize etmeye devam ediyor FACSFrenolojinin utanç verici tarihi ve endüstriyel çağın başlarından itibaren sosyal kategorizasyona yönelik diğer Şamanist yakın yaklaşımlar ışığında -tarzı duygu tanıma sistemleri.

Duyguları algıladıklarını iddia edenler aşırı basitleştirilmiş, sorgulanabilir taksonomiler kullanıyor; yanlış bir şekilde kültürler ve bağlamlar arasında evrenselliği varsaymak; ve karakter özelliklerini analiz ederek 'bizi frenolojik geçmişe [geri götürme]' riskini yüz yapılarından'Kanunun duygu tanıma ve biyometrik kategorizasyona ilişkin hükümleri riskleri azaltmak için yetersiz görünüyor.'

Çok Mütevazı Bir Teklif

Bunların yanı sıra araştırmacılar, derin sahtekarlıkların düzenlenmesiyle ilgili olarak Yapay Zeka Yasasında algılanan diğer eksiklikleri, yapay zeka sistemlerinin karbon emisyonlarına yönelik gözetim eksikliğini, düzenleyici gözetimin diğer çerçevelerle çoğaltılmasını ve dava edilebilir tüzel kişilerin yetersiz tanımlanmasını da ele alıyor.

Yasa koyucuları ve sivil aktivistleri tespit edilen sorunları gidermek için harekete geçmeye çağırıyorlar ve ayrıca, taslak düzenlemelerin kapsamlı yapısökümünde bile yer yetersizliği nedeniyle diğer birçok endişe alanını atlamak zorunda kaldıklarını belirtiyorlar.

Bununla birlikte, makale, Yapay Zeka sistemleri için yatay bir düzenleme sistemi getirme yönündeki Yasanın öncü girişimini alkışlıyor ve risk değerlendirme seviyeleri hiyerarşisi oluşturma, yasaklar getirme taahhüdü ve tedarikçilerin Avrupa meşruiyetini kazanmak için katkıda bulunmaları gereken sistemlerin kamuya açık bir veritabanını önerme gibi birçok "mantıklı unsur"a atıfta bulunuyor; ancak bu sonraki gerekliliğin muhtemelen ortaya çıkaracağı yasal ikilemlere de dikkat çekiyor.

 

Makine öğrenimi yazarı, insan görüntü sentezi alanında uzman. Metaphysic.ai'de eski araştırma içeriği başkanı.
Kişisel sitesi: martinanderson.ai
İletişim [e-posta korumalı]
Twitter: @manders_ai