Connect with us

AB’nin Yeni AI Davranış Kuralları Düzenlemeyi Etkileyecek

Düzenleme

AB’nin Yeni AI Davranış Kuralları Düzenlemeyi Etkileyecek

mm

Avrupa Komisyonu yakın zamanda Davranış Kuralları adlı bir kod yayınladı ve bu, AI şirketlerinin faaliyetlerini değiştirebilir. Sadece başka bir rehber seti değil, AI denetimi konusunda tamamen yeni bir yaklaşım ve en büyük oyuncuların bile göz ardı edemeyeceği bir düzenleme.

Bu, diğerlerinden nasıl farklı? İlk kez, OpenAI ve Google gibi şirketlerin modellerini dış testler için açma zorunluluğu gibi somut kurallar görüyoruz. Bu, AI sistemlerinin Avrupa’da geliştirilmesi ve dağıtılması konusunda temel bir değişimi temsil ediyor.

AI Denetimi Alanındaki Yeni Etki Oyuncuları

Avrupa Komisyonu, “sistemik risk” olarak adlandırdıkları AI sistemlerine özel bir çerçeve oluşturdu. 10^25 FLOPs’ün üzerinde hesaplama gücü ile eğitilen modellerden bahsediyoruz – GPT-4 zaten bu eşiği aşmış durumda.

Şirketler, AI eğitim planlarını eğitim başlamadan iki hafta önce bildirmek zorunda kalacaklar.

Bu yeni sistemin merkezinde iki ana belge yer alıyor: Güvenlik ve Güvenlik Çerçevesi (SSF) ve Güvenlik ve Güvenlik Raporu (SSR). SSF, AI risklerini yönetmek için kapsamlı bir yol haritası sunuyor ve ilk risk tanımlamasından sürekli güvenlik önlemlerine kadar her şeyi kapsıyor. Öte yandan, SSR her bir model için ayrıntılı bir belgeleme aracı olarak hizmet ediyor.

Yüksek Riskli AI Modelleri için Dış Testler

Komisyon, yüksek riskli AI modelleri için dış testler talep ediyor. Bu, standardın ötesinde bir iç kalite kontrolü değil – bağımsız uzmanlar ve AB’nin AI Ofisi bu sistemlerin içine giriyor.

Bu durum büyük etkileri olacak. OpenAI veya Google gibi şirketlersanız, dışarıdan uzmanların sistemlerinizi incelemesine izin vermeniz gerekecek. Taslak açıkça şirketlerin “dağıtımdan önce yeterli bağımsız uzman testi yapmasını” belirtiyor. Bu, mevcut öz-düzenleme yaklaşımından büyük bir kayma anlamına geliyor.

Soru ortaya çıkıyor: Bu son derece karmaşık sistemleri test edecek nitelikte kimler var? AB’nin AI Ofisi daha önce hiç keşfedilmemiş bir alana giriyor. Yeni AI teknolojilerini anlamak ve değerlendirebilecek, aynı zamanda keşfettikleri hakkında sıkı bir gizlilik koruyabilecek uzmanlara ihtiyaç duyulacak.

Bu dış test gereksinimi, bir Komisyon uygulama kararıyla AB genelinde zorunlu hale gelebilir. Şirketler, “yeterli alternatif araçlar” aracılığıyla uyum göstermeye çalışabilirler, ancak kimse bunun pratikte ne anlama geldiğini tam olarak bilmiyor.

Telif Hakkı Koruması Ciddiye Alınıyor

AB, telif hakkı konusunda da ciddiye alıyor. AI sağlayıcıların entelektüel mülkiyeti nasıl ele aldıklarına ilişkin net politikalar oluşturmasını zorunlu kılıyor.

Komisyon, web tarama motorlarına nereye gidebileceklerine dair talimatlar veren robots.txt standardını destekliyor. Bir web sitesi robots.txt ile “hayır” derse, AI şirketleri bunu görmezden gelemeyecek ve o içeriği eğitim için kullanamayacak. Arama motorları da bu tür dışlamaları kullanan siteleri cezalandıramaz. Bu, içerik yaratıcılarını yeniden sürücü koltuğuna oturtan bir hamle.

AI şirketleri, eğitim verilerini toplarken korsan sitelerinden aktif olarak kaçınmak zorunda kalacaklar. AB, onlara “Sahtecilik ve Korsan İzleme Listesi”ni başlangıç noktası olarak gösteriyor.

Gelecek İçin Anlamı

AB, AI geliştirme için tamamen yeni bir oyun alanı oluşturuyor. Bu gereksinimler, şirketlerin AI projelerini planlamasından eğitim verilerini toplamasına kadar her şeyi etkileyecek.

Her büyük AI şirketi şimdi bir seçimle karşı karşıya: Ya modellerini dış testler için açacaklar, ya da “alternatif uyum araçları”nın neye benzediğini çözecekler ya da AB pazarındaki faaliyetlerini sınırlamak zorunda kalacaklar.

  • Modellerini dış testler için açmak
  • “Alternatif uyum araçları”nın neye benzediğini belirlemek
  • AB pazarındaki faaliyetlerini sınırlamak

Zaman çizelgesi burada da önemli. Bu, uzak bir geleceğin düzenleme değil – Komisyon hızlı hareket ediyor. Dört çalışma grubuna bölünmüş yaklaşık 1.000 paydaşla, bu nasıl işleyeceğinin ayrıntılarını çökerttiler.

AI sistemleri geliştiren şirketler için, “Hızlı ilerle ve sonra kuralları belirle” günleri sona erebilir. Bu gereksinimleri şimdi, zorunlu hale gelmeden önce düşünmeye başlamaları gerekecek. Bu, şu anlama geliyor:

  • Geliştirme zaman çizelgesinde dış denetimler için planlama
  • Güçlü telif hakkı uyum sistemleri kurma
  • AB’nin gereksinimlerine uygun belgeleme çerçeveleri oluşturma

Bu düzenlemelerin gerçek etkisi önümüzdeki aylarda ortaya çıkacak. Bazı şirketler çözüm yolları ararken, diğerleri bu gereksinimleri geliştirme süreçlerine entegre edecek. AB’nin çerçevesi, özellikle diğer bölgelerin benzer denetim önlemleri izlemesi durumunda, küresel olarak AI geliştirmeyi nasıl gerçekleştireceğini etkileyebilir. Bu kurallar taslaktan uygulamaya geçerken, AI endüstrisi en büyük düzenleyici değişimini yaşayacak.

Alex McFarland yapay zeka muhabiri ve yazarıdır ve yapay zekadaki son gelişmeleri araştırıyor. Birçok yapay zeka başlangıç şirketi ve dünya çapındaki yayınlarda işbirliği yaptı.