Connect with us

Dr Mathilde Pavis, OpenOrigins’un Hukuk Başkanı – Röportaj Serisi

Röportajlar

Dr Mathilde Pavis, OpenOrigins’un Hukuk Başkanı – Röportaj Serisi

mm

Dr Mathilde Pavis, OpenOrigins’un Hukuk Başkanı, AI düzenleme ve dijital medya yönetiminde önde gelen bir uzman olarak, derin sahtecilik, sentetik medya ve içerik kökeni konusunda uzmanlaşmıştır. Şirketlere, hükümetlere ve sendikalara, üretken AI’de uyumluluk, lisans ve risk konusunda danışmanlık yapar ve Microsoft ve ElevenLabs ile AI politikası ve stratejisi üzerine çalışmıştır. Ayrıca UNESCO’ya AI ve fikri mülkiyet konusunda danışmanlık yapmış ve düzenli olarak UK politika yapıcılarına uzman kanıtları sunmuştur.

OpenOrigins derin sahtecilik ve yanlış bilgilendirmeye karşı, dijital içerik için doğrulanabilir, değiştirilemez kayıtlar oluşturarak teknoloji geliştirir. Platformu, içerik oluşturulduğu, düzenlendiği ve dağıtıldığı zamanı kanıtlamak için net bir köken oluşturmaya odaklanır – sentetik medya geliştikçe ve tespit etmesi daha zor hale geldikçe giderek daha kritik bir yetenek.

Hükümetler, küresel kurumlar gibi UNESCO ve Microsoft ve ElevenLabs gibi şirketlere AI düzenleme konusunda danışmanlık yaptınız. Derin sahtecilik, dijital kopyalar ve sentetik medya üzerine neden odaklandınız ve bu yolculuk Replique’u kurma kararınızı nasıl etkiledi?

Derin sahtecilikle ilgili çalışmam teknolojiyle başlamadı – çok daha eski bir yasal bilmeciyle başladı. 2013 yılında doktora tezimi yapmak için fikri mülkiyet araştırması yapmaya başladığım zaman, sanatçıların besteciler, film yapımcıları veya yazarlara kıyasla çok daha az koruma aldığına şaşırdım. Uygulamada bu, sözlerin veya müziğin kanunen yüzünüz, sesiniz ve bedeninizden daha iyi korunacağı anlamına gelir. Bu dengesizlik tuhaf görünüyordu ve bana daha derin bir soru sormaya itti: Nasıl kültürel ve yasal olarak ekran面indeki yüzünüz, sesiniz ve bedeninizin katkılarını değerlendirebiliriz?

Bu soru beni sanatçı hakları ve verilere yöneltti. O zamanlar, bu alan ticari olarak ilgili olmayan bir niş alan olarak görülüyordu. Bana daha “karlı” alanlara, Örneğin patentlere veya geleneksel telif haklarına geçmem tavsiye edildi. Varsayım, bir kişinin benzerliğinin veya sesinin yasal olarak korunmadığı, ancak endüstri normları veya “Hollywood’daki centilmen anlaşmaları” ile yönetildiği yönündeydi. Ancak bana göre, bu eksik formal koruma bir boşluk değil, araştırma için bir son değil.

Değişen şey, bugün几乎 herkesin bir sanatçı olmasıdır. Hayatlarımız kameralarla – telefonlarda, dizüstü bilgisayarlarda, video görüşmelerinde ve sosyal platformlarda aracılık edilmektedir. İş veya kişisel kullanım için, insanlar sürekli olarak kendilerinin sürümlerini kaydediyor ve paylaşıyor. Bir zamanlar yalnızca aktörler veya müzisyenler için geçerli olan yasal sorular, şimdi bir akıllı telefona sahip herkes için geçerlidir.

Derin sahtecilik bu sorunları yaratmadı – onları ortaya çıkardı ve hızlandırdı. 2013’ten itibaren yaptığım araştırma aniden acil hale geldi. 2017 ve 2018’de, özellikle MIT ve UC Berkeley’den gelen nöral ağ gelişmeleri, bir kişinin yüzünün, sesinin ve bedeninin nasıl ikna edici bir şekilde dijital olarak manipüle edilebileceğini göstermeye başladı. Bir yıl içinde, bu yetenek geniş olarak “derin sahtecilik” olarak tanındı ve ilk olarak özellikle kadınları ve çocukları hedef alan rızası olmayan cinsel içerik yoluyla zararlı bir şekilde ortaya çıktı.

Sonrasında, ticari etkileri ortaya çıktı, yaratıcı endüstriler sentetik medya benimsemeye başladığında. O zaman, ben çalıştığım sözleşmesel ve ekonomik sorular ön plana çıktı. Teorik veya doktriner bir hukuk alanı olarak görülen şey, aniden çok pratik, ticari olarak önemli ve sosyal olarak acil bir alan haline geldi.

Temelde, yasal zorluk değişmedi: İnsanlar kendilerinin bazı yönlerini paylaşmak istiyor, ancak aynı zamanda anlamlı bir kontrolü elinde tutmak istiyor. Mevcut çerçeveler bu nüansı başa çıkamaz. Bireyleri ya tamamen özel ya da tamamen kamu olarak tedavi etme eğilimindeler – ya korurlar ya da adil oyun alanı olarak görürler. Ancak meisten insanlar arasında bir yerde var. Bu gerilim artık yalnızca profesyonel sanatçılar için değil, dijital hayatta yer alan herkes için merkezi bir sorun haline geldi.

Bu alanda araştırma yapan ve çalışan biri olarak tanındım, bu da beni hükümetlerle, derin sahteciliklere karşı insanları korumak isteyen şirketlerle ve ElevenLabs gibi dijital klonlama ürünlerini güvenli bir şekilde kullanmak isteyen şirketlerle çalışmaya yöneltti. Replique’da, öğrendiğim her şeyi, dijital klonlama veya dijital replica teknolojilerini sorumlu ve güvenli bir şekilde kullanmak isteyen kişilere ve şirketlere getiriyorum. Temelde, “mavi gökyüzü” araştırmamı, yaratıcı endüstrilere uzman hukuki danışmanlık sağlayan bir danışmanlık işine çevirdim.

OpenOrigins’un Hukuk Başkanı olarak, derin sahteciliklerle mücadele için içerik kökenini doğrulamak için bir sistem geliştiren bir şirket olarak, provenans tabanlı sistemlerin geleneksel derin sahtecilik algılama yaklaşımlarıyla nasıl rekabet ettiğini veya onları değiştirdiğini görüyorsunuz?

Derin sahtecilik algılama araçlarını karşılaştırmak, nhanh bir elma ile armut karşılaştırması haline gelebilir, çünkü onların etkinliği bağlam ve amaçlarına bağlıdır. Politika açısından, bize gerekli olan, tamamlayıcı araçların bir dizi olmasıdır – tek bir “en iyi” çözüm yoktur ve OpenOrigins, daha geniş bir ekosistemin yalnızca bir parçasıdır. OpenOrigins’un teknolojisini, bir içerik oluşturucu veya bilgi kuruluşunun paylaştığı içeriğin kimlik bilgilerini kanıtlamak için bir derin sahtecilik algılama çözümü olarak ayıran şey, burada yatmaktadır.

Oluşturma noktasında doğrulanabilir köken ve “makbuzlar” sağlayarak, içeriğin bir derin sahtecilik olmadığını kanıtlamanın güçlü bir形式ini sunar. Ancak bu yaklaşım, günlük internet kullanıcıları için, online karşılaştıkları içeriği hızlı bir şekilde değerlendirmek için weniger faydalıdır. Bu durumlarda, algılama, provenans tabanlı doğrulamaya değil, olasılıksal ve içerik analizi yöntemlerine daha fazla dayanır. Farklı ihtiyaçlar için farklı araçlara ihtiyacımız var ve derin sahteciliklere karşı hiçbir gümüş kurşun olmadığını kabul etmeliyiz.

AI tarafından üretilen veya çoğaltılan içerikte, rıza ve mülkiyet konusunda yargı bölgelerinin nasıl ele aldığında en büyük boşluk nedir?

Oh, ne kadar süreniz var? Cevap, AI tarafından üretilen veya çoğaltılan içeriğin ne olduğu anlamına gelir. Sorun, bir AI tarafından üretilen bir ev veya kedi resmi mi, yoksa bir kişinin yüzü veya sesinin dijital yeniden yaratılması mı olduğuna bağlı olarak değişir. Derin sahtecilik ve dijital kopya konusuna bağlı kalalım ve soruyu “dijital klonlama” bağlamında cevaplayalım.

Rızaya gelince, temel sorun, çoğu sözleşmenin – iş anlaşmaları veya platform şartları – geniş, belirsiz hükümler içermesidir. Bu hükümler, kullanıcı içeriği üzerinde geniş haklar sağlar. Bu, “arka kapı rızası” olarak yorumlanabilir, yani şartları kabul etmek, klonlama gibi kullanımlara rıza göstermek anlamına gelebilir, ancak çoğu insan bu yorumu güçlü bir şekilde reddeder. Bu, yasal yorum ve kullanıcı beklentisi arasında önemli bir boşluk yaratır, bu da şirketlere yarar sağlar, ancak düzenleme geri kalır.

Mülkiyete gelince, dijital bir klonun kime ait olduğu konusunda net bir yasal cevap yoktur, çünkü mevcut çerçeveler – veri koruma, telif hakkı ve kişilik hakları – bu teknoloji için tasarlanmamıştır. Bugün, çoğu insan işyerinde, bir işveren veya müşterinin talebi ve finansmanıyla tarama ve klonlama yapılır. Ve bu varlıklar genellikle bu varlık üzerinde yüksek bir kontrol bekler, bu anlaşılabilir ancak souvent sorunludur, çünkü bu varlık yüzünüzün, sesinizin veya bedeninizin dijital bir taklidi olabilir ve sizin hiç söylemediğiniz şeyleri söyleyebilir veya hiç yapmadığınız şeyleri yapabilir.

“Klonunuz kime ait?” sorusu çok önemlidir, ancak bugün yasada cevaplanmamıştır.

Ses klonlama teknolojileri üzerinde yakın çalıştınız. Sentetik sesler konusunda, şirketler ve bireyler için en yanlış anlaşılan yasal riskler nelerdir?

Yasal uyumluluk konusunda en yanlış anlaşılan sorun, bir şirketin dijital bir klonu finanse etme ve kullanma ticari çıkarı ile bir bireyin mahremiyet ve dijital onur hakkı arasındaki dengedir. Bu gerilim, öncelikle fikri mülkiyet, veri koruma ve mahremiyet olmak üzere birden fazla yasal rejim boyunca yer alır, bunlar klonlama konusunda temel olarak farklı şekilde yorumlanır. Sonuç olarak, bunları işleyebilir, iş dostu uygulamalara çevirme karmaşıktır ve souvent belirsizdir. Şirketler ya anahtar riskleri göz ardı eder ya da bunları düzgün bir şekilde navigasyon için önemli maliyetlere katlanır. Bu, yanlış bir sonuç yaratır, burada sorumlu uyumluluk, varsayılan yol değil, daha zor ve daha pahalı yol haline gelir.

Şirketlerin AI sistemlerinde rıza mimarisini nasıl düşünmesi gerekir, özellikle benzerlik, kimlik ve eğitim verilerine gelince?

Şirketler, sistemlerini üç temel yetenek etrafında tasarlamalıdır. İlk olarak, kullanıcıların bağlanmalarında bilgilendirilmiş, bağlamsal rızayı güvence altına almalıdırlar. İkincisi, kullanıcıların bu rızayı geri çekmelerine ve bazı veya tüm verilerini silmelerine olanak tanımalıdır – bu, teknik olarak zor ve souvent göz ardı edilen, ancak uyumluluk için gerekli bir adımdır. Veri koruma yasalarına uymak için, örneğin UK ve AB GDPR ve benzeri ABD’deki rejimler. Rızayı zaman içinde korumak, iş modeli ile uyumlu, operasyonel olarak düzgün bir şekilde geri çekilmesini sağlayan sistemler oluşturmayı içerir.

Rıza, granül olmalıdır. Ve üçüncü olarak, kullanıcılar, bireysel dosyaları, benzerlik verilerini güncellemeleri ve nasıl kullanıldığını anlamalarını sağlayan araçlar ile izinleri yönetebilmelidir. Şeffaflık ve kontrol gereklidir – kullanıcıların dijital klonlarının nasıl kullanıldığını izleme, inceleme ve düzenleme olanakları sunan araçlar. Bu düzeyde esneklik hala nadirdir, ancak rekabet avantajı giderek burada yatmaktadır.

Startup’lar ve hükümetlere danışmanlık yaptığınız deneyim doğrultusunda, AI’nin nasıl inşa edildiği ile nasıl düzenlendiği arasında en büyük kopukluk nerede?

AI’nin nasıl inşa edildiği ile nasıl düzenlendiği arasındaki kopukluk, temel olarak farklı misyonlardan kaynaklanmaktadır. Hükümetler, kamu çıkarına göre düzenler, जबक AI şirketleri (çoğunlukla risk sermayesi tarafından desteklenmektedir) öncelikle büyüme, gelir ve kar tarafından yönlendirilir. Bu öncelikler her zaman çatışmaz, ancak sık sık farklı yönlerde çekilir, düzenleme bir kısıtlama olarak değil, bir destek olarak görülür.

Bu, bir yapısal gerilim yaratır: düzenleyiciler ve inovatörler farklı teşvikler, değerler ve sogar dillerle çalışmaktadır. Bu, uygulamada uyumu zorlaştırır, ancak imkansız değildir. Kamu çıkarına yönelik hedeflerle daha yakından hizalanmış yeni bir teknoloji şirketleri dalgası görmeye başlıyoruz, ancak bunlar henüz kural değil, istisnadır – özellikle başarılı bir şekilde ölçeklenenler arasında.

OpenOrigins, oluşturma noktasında kriptografik köken kullanarak içeriği doğrulamaya odaklanıyor. Köken-önceliği yaklaşımının, dağıtımdan sonrası güvenlik önlemlerine kıyasla ne kadar kritik olduğu?

Bu, yukarıdaki cevabıma geri dönmektedir. İçeriği oluşturma noktasında, “yukarı akışta” doğrulamak, dağıtım veya tüketim noktasında, yani “aşağı akışta” doğrulamaya çalışmaktan çok daha etkili bir yöntemdir. İçeriği oluşturma noktasında doğrulamak, gıdayı çiftlikte yetiştirildiği andan itibaren izlemek gibi bir şeydir, yoksa onu plakada ne olduğunu anlamaya çalışmak gibi. Çiftlikte nasıl yetiştirildiğini, nasıl ele alındığını ve tedarik zincirinde nasıl hareket ettiğini biliyorsanız, yediğiniz şeye güvenebilirsiniz. Ancak yalnızca bitmiş yemeği görerek tüm bunları çıkarmaya çalışıyorsanız, tahminlere dayanıyorsunuz. Aynı şey, insan tarafından oluşturulan ve AI tarafından oluşturulan içerik arasındaki farkı ayırt etmeye çalışırken de geçerlidir: Kaynakta provenans, doğrulanabilir bir güvence sağlar, aşağı akışta algılama daha belirsiz ve reaktif olur.

C2PA gibi standartların gelecekte medyada nasıl bir rol oynayacağını ve tek başına çevrimiçi güveni restore etmeye yeterli olup olmadıklarını görüyorsunuz?

C2PA, bir girişimdir ve birçok yönden OpenOrigins ile aynı hareketi, içerik kimliğini desteklemek için desteklemektedir. İçerik güvenliği ve içerik kimliği ekosisteminin önemli bir parçasıdır. Herhangi bir siber güvenlik aracı gibi, gümüş bir kurşun yoktur.

Film, müzik ve oyun gibi endüstrilerdeki yaratıcılar ve yetenekler için, bugün themselves’i yetkisiz dijital kopyalama karşı korumak için hangi pratik adımları atmalıdır?

Sanatçılar bugün iki ayrı riskle karşı karşıyadır: çalışmalarının kopyalanması (örneğin, müzik, resimler veya yazı) ve benzerliklerinin kopyalanması, yani yüzleri, sesleri ve bedenleri. AI sistemleri, minimal girdi ile, bu öğeleri yüksek bir doğruluk payı ile yeniden üretebilir. Pratik olarak, koruma, online paylaştıkları içeriği dikkatli bir şekilde seçmeye başlamakla başlar, herhangi bir içerik paylaşıldığında, bu içeriklerin kazınabileceği ve genellikle açık bir rıza veya görünürlük olmadan eğitim veri kümelerinde kullanılabileceği bilincinde olmak önemlidir.

Bu risk, artık online olarak çalışmanın temel bir gerçekliğidir. Ancak daha acil ve kontrollü risk, genellikle sözleşmelerdedir. Sanatçıların işbirliği yaptığı, dağıtımcıları veya platformlarıyla yaptığı sözleşmeler, AI kullanımına, yeniden kullanımına veya yeniden satışına izin veren hükümler içerebilir – genellikle aşağı akış gelirine anlamlı bir katılım olmadan. Sanatçılar için bu, sözleşme incelemesini kritik hale getirir. Çalışmalarının ve benzerliklerinin nasıl kullanılabileceğini, lisanslanabileceğini veya yeniden kullanılabileceğini anlamak, yaratıcı sürecinin kendisi kadar önemlidir. Mevcut tartışma (sendikalar, endüstri organizasyonları ve platformlar arasında), bu dengesizliği düzeltmeye ve yaratıcıların hem kontrolü hem de adil bir ücreti korumasını sağlamaya odaklanmaktadır.

İki önemli tavsiye: Online paylaştıklarınıza dikkat edin ve AI hükümlerini arayarak sözleşmenizi imzalamadan önce okuyun.

İleriye bakıldığında, üç ila beş yıl içinde, her dijital içeriğin doğrulanabilir bir köken taşıması gerekecek mi, yoksa güven parçalanmış olarak kalacak mı, platformlar ve yargı bölgeleri arasında?

Evet demeyi isterdim, ancak gerçekçi olarak, hayır – beş yıl içinde değil. Teknoloji için beş yıl uzun bir süre gibi görünüyor; kullanıcı davranışını ve alışkanlıklarını değiştirmek için çok kısa bir süre. Çoğu tüketici, kararlarını, içeriğin doğrulanabilir bir köken taşıyıp taşımadığına göre vermeyecek. Platformlar, genellikle kullanıcı talebini takip eder ve provenans yerine etkileşimi optimize eder.

Bu, düzenleme müdahalesi ile değişebilir. already California gibi yerlerde, etiketleme ve moderasyon gereksinimlerinin ortaya çıktığını görüyoruz, ancak bunu küresel olarak ölçeklendirme zaman alacaktır – muhtemelen on yıldan daha uzun sürecektir.

Değişimin başka bir alanı, sektöre özgüdür: gazetecilik, finans, sigorta ve sağlık gibi endüstriler, güvenin temel olduğu için provenans ve kimlik doğrulamayı gerektirebilir.

Son olarak, tüketiciler provenans bilgilerine kısa vadede ilgi göstermeyebilir, ancak içerik ve bilgi kalitesine ilgi göstereceklerdir. AI tarafından oluşturulan içerik çok homojen veya “renksiz” hale gelirse, izleyiciler insan tarafından oluşturulan içeriği daha açık bir şekilde değerlendirmeye başlayabilir. Bu, pazarın segmentasyonuna yol açabilir, bazı platformların ölçek ve AI tarafından oluşturulan içeriğe öncelik vermesi, diğerlerinin ise kimlik doğrulama, provenans ve yüksek güven, insan liderliğindeki materyale odaklanması – ancak bu değişim masih bilinmez.

Harika cevaplarınız için teşekkür ederiz, daha fazla bilgi öğrenmek isteyen okuyucular OpenOrigins ziyaret edebilir.

Antoine bir vizyoner lider ve Unite.AI'in kurucu ortağıdır ve AI ve robotik geleceğini şekillendirmek ve tanıtmak için sarsılmaz bir tutkuyla hareket etmektedir. Bir seri girişimci olarak, toplum için elektrik kadar yıkıcı olacağına inandığı AI'nin potansiyeli hakkında sık sık konuşur ve coşkusunu dile getirir.
Bir futurist olarak, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adanmıştır. Ayrıca, Securities.io kurucusudur, bu platform geleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren teknolojilere yatırım yapmaya odaklanmıştır.