Connect with us

Wawancara

Dr Mathilde Pavis, Kepala Hukum, OpenOrigins – Seri Wawancara

mm

Dr Mathilde Pavis, Kepala Hukum di OpenOrigins, adalah seorang ahli terkemuka di bidang regulasi AI dan tata kelola media digital, yang mengkhususkan diri pada deepfakes, media sintetis, dan provenance konten. Ia memberikan saran kepada perusahaan, pemerintah, dan serikat pekerja tentang kepatuhan, lisensi, dan risiko dalam AI generatif, dan telah bekerja dengan Microsoft dan ElevenLabs pada kebijakan dan strategi AI. Ia juga telah memberikan saran kepada UNESCO tentang AI dan hak cipta, dan secara teratur memberikan bukti ahli kepada pembuat kebijakan di Inggris.

OpenOrigins mengembangkan teknologi untuk melawan disinformasi dan deepfakes dengan menciptakan catatan digital yang dapat diverifikasi dan tahan manipulasi. Platformnya fokus pada membangun provenance yang jelas, memungkinkan media, kreator, dan platform untuk membuktikan kapan dan bagaimana konten dibuat, diedit, dan didistribusikan – kemampuan yang semakin kritis karena media sintetis menjadi lebih maju dan lebih sulit dideteksi.

Anda telah memberikan saran kepada pemerintah, lembaga global seperti UNESCO, dan perusahaan seperti Microsoft dan ElevenLabs tentang regulasi AI. Apa yang membuat Anda fokus pada deepfakes, replika digital, dan media sintetis, dan bagaimana perjalanan itu membentuk keputusan Anda untuk mendirikan Replique?

Penelitian saya tentang deepfakes tidak dimulai dengan teknologi – itu dimulai dengan teka-teki hukum yang lebih tua. Ketika saya mulai melakukan penelitian tentang hak cipta untuk disertasi saya pada tahun 2013, saya terkejut dengan betapa sedikit perlindungan yang diterima penampil dibandingkan dengan penulis, komponis, atau pembuat film. Dalam prakteknya, itu berarti bahwa kata-kata atau musik Anda akhirnya lebih baik dilindungi oleh hukum daripada suara, wajah, dan tubuh Anda. Ketidakseimbangan itu terasa aneh, dan itu mendorong saya untuk mengajukan pertanyaan yang lebih dalam: bagaimana kita secara budaya dan hukum menilai pekerjaan seseorang yang kontribusinya adalah wajah, suara, dan tubuhnya di layar?

Pertanyaan itu membawa saya ke hak penampil dan data. Pada saat itu, itu dianggap sebagai bidang yang tidak populer dengan sedikit relevansi komersial. Saya secara aktif disarankan untuk pindah ke bidang yang lebih “menguntungkan” seperti paten atau hak cipta tradisional. Asumsinya adalah bahwa masalah seputar kesamaan atau suara seseorang sebagian besar dikelola secara tidak formal – melalui norma industri atau “perjanjian gentlemen” di Hollywood. Tapi bagi saya, kurangnya perlindungan formal itu menandakan celah, bukan akhir dari penelitian saya, sehingga saya terus melakukannya.

Apa yang berubah adalah bahwa hari ini, hampir semua orang adalah seorang penampil. Kehidupan kita dimediasi oleh kamera – di ponsel, laptop, panggilan video, dan platform sosial. Baik untuk keperluan kerja atau penggunaan pribadi, orang-orang terus-menerus merekam dan berbagi versi diri mereka sendiri. Pertanyaan hukum yang dulunya berlaku terutama untuk aktor atau musisi sekarang berlaku untuk siapa saja yang memiliki smartphone.

Deepfakes tidak menciptakan masalah-masalah ini – mereka mempercepat dan memperburuknya. Penelitian yang saya lakukan sejak 2013 menjadi mendesak. Sekitar 2017 dan 2018, perkembangan jaringan saraf – terutama dari tempat-tempat seperti MIT dan UC Berkeley – mulai menunjukkan bagaimana wajah, suara, dan tubuh seseorang dapat dimanipulasi secara digital. Dalam waktu setahun, kemampuan itu menjadi luas dikenal sebagai “deepfakes,” dan pertama kali mendapatkan perhatian dalam cara-cara yang sangat merugikan, terutama melalui konten seksual non-konsensual yang menargetkan perempuan dan anak-anak.

Baru kemudian implikasi komersial muncul, karena industri kreatif mulai mengadopsi media sintetis. Itulah saat ketika pertanyaan-pertanyaan kontraktual dan ekonomi yang telah saya kerjakan menjadi prioritas. Hampir semalam, apa yang dulunya dianggap sebagai bidang hukum yang sebagian besar teoretis atau doktrinal menjadi bidang yang sangat praktis, signifikan secara komersial, dan mendesak secara sosial.

Intinya, tantangan hukum tidak berubah: orang ingin berbagi aspek diri mereka sendiri, tetapi tetap mempertahankan kontrol yang bermakna. Kerangka kerja yang ada berjuang dengan nuansa itu. Mereka cenderung memperlakukan individu sebagai either sepenuhnya pribadi atau sepenuhnya publik – baik dilindungi atau menjadi permainan. Tapi kebanyakan orang ada di antaranya. Ketegangan itu sekarang menjadi pusat tidak hanya bagi penampil profesional, tetapi bagi siapa saja yang berpartisipasi dalam kehidupan digital.

Saya menjadi dikenal sebagai orang yang meneliti dan bekerja di ruang ini, yang membawa saya bekerja dengan pemerintah yang tertarik untuk melindungi orang-orang dari deepfakes, dan perusahaan yang ingin membuat produk cloning digital aman untuk digunakan, seperti ElevenLabs. Di Replique, saya membawa semua yang telah saya pelajari kepada orang-orang dan perusahaan yang ingin menggunakan teknologi cloning digital atau replika digital secara bertanggung jawab, dan aman. Saya pada dasarnya telah mengubah penelitian ‘langit biru’ saya menjadi bisnis konsultasi yang membawa saran hukum khusus ke industri kreatif.

Sebagai Kepala Hukum di OpenOrigins, perusahaan yang fokus pada membangun catatan yang tidak dapat diubah dari provenance konten untuk melawan deepfakes, bagaimana Anda melihat sistem berbasis provenance bersaing dengan atau menggantikan pendekatan deteksi deepfake tradisional?

Membandingkan alat deteksi deepfake dapat dengan cepat menjadi latihan membandingkan apel dan jeruk, karena efektivitasnya tergantung pada konteks dan tujuan. Dari perspektif kebijakan, apa yang kita butuhkan adalah rangkaian alat yang komplementer – tidak ada solusi “terbaik” tunggal, dan OpenOrigins adalah bagian dari ekosistem yang lebih luas. Di mana teknologi OpenOrigins menonjol sebagai solusi deteksi deepfake adalah dalam situasi di mana kreator konten atau organisasi informasi perlu membuktikan keaslian konten yang mereka bagikan dengan mitra, audiens, atau publik.

Dengan menyediakan provenance yang dapat diverifikasi dan “resi” pada titik penciptaan, itu menawarkan bentuk pencegahan yang kuat dengan menunjukkan bahwa konten bukanlah deepfake. Namun, pendekatan ini kurang berguna untuk pengguna internet sehari-hari yang ingin segera menilai konten yang mereka temui secara online. Dalam kasus-kasus tersebut, deteksi lebih bergantung pada metode analisis konten dan probabilistik daripada verifikasi berbasis provenance. Kita membutuhkan alat yang berbeda untuk kebutuhan yang berbeda, dan kita harus menerima bahwa tidak ada peluru perak melawan deepfakes.

Dari sudut pandang hukum, apa yang saat ini merupakan celah terbesar dalam cara yurisdiksi menangani persetujuan dan kepemilikan dalam konten yang dihasilkan AI atau direplikasi AI?

Oh, berapa lama Anda punya? Jawabannya tergantung pada apa yang kita maksud dengan konten yang dihasilkan AI atau direplikasi AI. Masalahnya bervariasi apakah Anda melihat gambar AI yang dihasilkan dari rumah atau kucing. Atau rekreasi digital wajah seseorang atau suaranya. Mari kita tetap pada topik deepfakes dan replika digital, dan jawab pertanyaan Anda dalam konteks ‘pemalsuan digital’.

Mengenai persetujuan, masalah intinya adalah bahwa sebagian besar kontrak – baik perjanjian kerja atau ketentuan platform – mengandung klausa yang luas dan samar yang memberikan hak yang luas atas konten pengguna. Ini dapat diartikan sebagai bentuk “persetujuan belakang” di mana menyetujui ketentuan mungkin diartikan sebagai persetujuan untuk penggunaan seperti cloning, meskipun kebanyakan orang akan sangat membantah interpretasi itu. Ini menciptakan celah signifikan antara interpretasi hukum dan harapan pengguna, satu yang saat ini menguntungkan perusahaan sementara regulasi tertinggal.

Mengenai kepemilikan, tidak ada jawaban hukum yang jelas tentang siapa yang memiliki replika digital, karena kerangka kerja yang ada seperti perlindungan data, hak cipta, dan hak kepribadian tidak dirancang untuk teknologi ini. Hari ini, kebanyakan orang discan dan direplikasi di tempat kerja, atas permintaan dan dengan pembiayaan dari majikan atau klien. Dan entitas-entitas tersebut biasanya mengharapkan kontrol yang tinggi atas aset itu, yang dapat dimengerti tetapi sering bermasalah karena aset itu adalah tiruan digital wajah atau suara Anda, dan dapat membuat Anda mengatakan hal-hal yang tidak pernah Anda katakan, atau melakukan hal-hal yang tidak pernah Anda lakukan.

Pertanyaan ‘siapa yang memiliki klona Anda?’ sangat penting, tetapi belum terjawab dalam hukum saat ini.

Anda telah bekerja erat pada teknologi cloning suara. Apa yang paling kurang dipahami tentang risiko hukum ketika datang ke suara sintetis, baik untuk perusahaan maupun individu?

Masalah yang paling kurang dipahami dalam kepatuhan hukum adalah keseimbangan antara kepentingan komersial perusahaan dalam membiayai dan mengeksploitasi klona digital, dan hak individu untuk privasi dan martabat digital. Ketegangan ini berada di seluruh rezim hukum (terutama hak cipta, perlindungan data, dan privasi) yang tidak pernah dirancang untuk beroperasi bersama dan menafsirkan cloning secara fundamental berbeda. Sebagai hasilnya, menerjemahkan ini menjadi praktik yang dapat dioperasikan dan ramah bisnis adalah kompleks dan sering tidak jelas. Perusahaan kemudian either mengabaikan risiko kunci atau mengeluarkan biaya yang signifikan untuk menavigasi mereka dengan benar. Itu menciptakan hasil yang tidak diinginkan di mana kepatuhan yang bertanggung jawab menjadi jalur yang lebih sulit dan lebih mahal, bukan default.

Bagaimana perusahaan harus memikirkan arsitektur persetujuan dalam sistem AI, terutama ketika menangani kesamaan, identitas, dan data pelatihan?

Perusahaan harus merancang sistem mereka di sekitar tiga kemampuan inti. Pertama, mereka perlu memastikan persetujuan yang terinformasi dan kontekstual pada saat pendaftaran. Kedua, mereka harus membuatnya mudah bagi pengguna untuk menarik persetujuan itu dan menghapus beberapa atau semua data mereka, sesuatu yang secara teknis menantang dan sering diabaikan, tetapi penting untuk kepatuhan dengan hukum seperti GDPR Inggris dan UE dan rezim serupa di AS. Memelihara persetujuan dari waktu ke waktu berarti membangun sistem di mana penarikan adalah operasional yang mulus dan sejalan dengan model bisnis.

Persetujuan harus bersifat granular. Dan ketiga, pengguna harus dapat mengelola izin pada tingkat file individual, memperbarui data kesamaan mereka, dan memahami bagaimana data tersebut digunakan. Itu memerlukan transparansi dan kontrol – alat yang memungkinkan pengguna untuk memantau, meninjau, dan memoderasi bagaimana klona digital mereka diterapkan. Tingkat fleksibilitas ini masih jarang, tetapi itu tempat di mana keunggulan kompetitif semakin berada.

Dalam pengalaman Anda memberikan saran kepada startup dan pemerintah, di mana letak kesenjangan terbesar antara bagaimana AI dibangun dan bagaimana AI diatur?

Kesenjangan antara bagaimana AI dibangun dan bagaimana AI diatur terletak pada misi yang berbeda secara fundamental. Pemerintah mengatur dalam kepentingan publik, sementara perusahaan AI (sering didukung ventura) didorong oleh pertumbuhan, pendapatan, dan keuntungan. Prioritas tersebut tidak selalu bertentangan, tetapi sering menarik ke arah yang berbeda, dengan regulasi dianggap sebagai kendala daripada dukungan.

Ini menciptakan ketegangan struktural: regulator dan inovator beroperasi dengan insentif, nilai, dan bahasa yang berbeda. Itu membuat keselarasan sulit dalam praktek, bahkan jika itu tidak mustahil. Kami mulai melihat gelombang baru perusahaan teknologi yang lebih sejalan dengan tujuan kepentingan publik, tetapi mereka masih pengecualian daripada aturan – terutama di antara mereka yang berhasil membesar.

OpenOrigins fokus pada memverifikasi konten pada titik penciptaan menggunakan provenance kriptografis. Seberapa kritis pendekatan origin-first ini dibandingkan dengan pengamanan pasca-distribusi?

Ini kembali ke jawaban saya di atas. Mengotentikasi konten pada penciptaan, ‘hilir’ jauh lebih efektif daripada mencoba memverifikasinya pada titik distribusi atau bahkan konsumsi, yaitu ‘hulu’. Mengotentikasi konten pada penciptaan seperti melacak makanan dari saat itu ditanam di pertanian, bukan mencoba menebaknya dari apa yang ada di piring Anda. Jika Anda tahu dari mana ayam itu dipelihara, bagaimana itu ditangani, dan bagaimana itu bergerak melalui rantai pasokan, Anda dapat mempercayai apa yang Anda makan. Jika Anda sebaliknya mencoba menebak semua itu hanya dengan melihat hidangan yang sudah jadi, Anda bergantung pada tebakan. Ini sama dengan membedakan antara konten yang dibuat manusia dan konten yang dihasilkan AI secara online: provenance dari sumber memberikan Anda jaminan yang dapat diverifikasi, sementara deteksi hulu lebih tidak pasti dan reaktif.

Apa peran yang Anda lihat untuk standar seperti C2PA dalam masa depan media, dan apakah mereka cukup sendiri untuk memulihkan kepercayaan online?

C2PA adalah inisiatif yang disambut, dan dalam banyak cara mendukung gerakan yang sama untuk autentikasi konten seperti OpenOrigins. Mereka adalah bagian penting dari ekosistem keamanan konten dan autentikasi konten. Seperti dengan setiap alat keamanan siber, tidak ada peluru perak.

Untuk kreator dan talenta di industri seperti film, musik, dan game, langkah-langkah praktis apa yang harus mereka ambil hari ini untuk melindungi diri dari replikasi digital tidak sah?

Seni hari ini menghadapi dua risiko yang berbeda: replikasi karya mereka (seperti musik, gambar, atau tulisan) dan replikasi kesamaan mereka, termasuk wajah, suara, dan tubuh mereka. Dengan sedikit input, sistem AI sekarang dapat mereproduksi keduanya dengan tingkat kesamaan yang tinggi. Dalam istilah praktis, perlindungan dimulai dengan menjadi sengaja tentang apa yang Anda bagikan secara online, mengakui bahwa konten apa pun yang diposting mungkin akan diambil dan digunakan dalam set data pelatihan, sering tanpa persetujuan yang jelas atau visibilitas.

Itu risiko yang sekarang menjadi kenyataan dasar dari beroperasi secara online. Tapi risiko yang lebih langsung dan terkendali sering terletak pada kontrak. Perjanjian yang dibuat oleh seniman dengan kolaborator, distributor, atau platform mereka mungkin berisi klausa yang mengizinkan penggunaan AI, penggunaan kembali, atau penjualan kembali konten untuk tujuan pelatihan – sering tanpa partisipasi yang signifikan dalam pendapatan hulu.

Bagi seniman, ini membuat pemeriksaan kontrak sangat kritis. Memahami bagaimana karya dan kesamaan mereka dapat digunakan, dilisensikan, atau digunakan kembali sekarang sama pentingnya dengan proses kreatif itu sendiri. Banyak debat saat ini (di seluruh serikat, badan industri, dan platform) berfokus pada mengoreksi ketidakseimbangan ini dan memastikan kreator mempertahankan kontrol dan kompensasi yang adil.

Jadi dua saran utama: berhati-hati dengan apa yang Anda bagikan secara online, dan baca kontrak Anda dan cari klausa AI sebelum Anda menandatangani.

Menghadap ke depan tiga hingga lima tahun, apakah Anda percaya kita akan mencapai titik di mana setiap potongan konten digital harus membawa provenance yang dapat diverifikasi, atau apakah kepercayaan akan tetap terfragmentasi di seluruh platform dan yurisdiksi?

Saya ingin mengatakan ya, tetapi secara realistis, tidak – tidak dalam lima tahun. Dalam teknologi, lima tahun terasa lama; dalam hal mengubah perilaku dan kebiasaan pengguna, itu sangat singkat. Kebanyakan konsumen tidak mungkin membuat keputusan berdasarkan apakah konten datang dengan provenance yang diverifikasi. Platform cenderung mengikuti permintaan pengguna, mengoptimalkan untuk keterlibatan daripada provenance.

Itu bisa berubah jika regulasi campur tangan. Kami sudah melihat langkah awal di tempat-tempat seperti California, di mana persyaratan pelabelan dan moderasi muncul, tetapi menskalakan itu secara global akan memakan waktu – mungkin lebih dekat ke satu dekade daripada lima tahun.

Area perubahan lainnya adalah spesifik sektor: industri seperti jurnalisme, keuangan, asuransi, dan perawatan kesehatan mungkin mulai memerlukan provenance dan autentikasi karena kepercayaan adalah fundamental bagi operasi mereka.

Terakhir, konsumen mungkin tidak peduli dengan informasi provenance dalam jangka pendek, tetapi mereka mungkin peduli dengan kualitas konten, dan kualitas informasi. Jika konten yang dihasilkan AI menjadi terlalu homogen atau “tumpul”, audiens mungkin mulai menilai konten yang dibuat manusia secara eksplisit. Itu bisa mengarah pada segmentasi pasar, di mana beberapa platform memprioritaskan skala dan konten yang dihasilkan AI, dan yang lain mengkurasi untuk autentikasi, provenance, dan bahan yang dipimpin oleh manusia dengan kepercayaan tinggi – tetapi pergeseran itu masih belum diketahui.

Terima kasih atas jawaban Anda yang bagus, pembaca yang ingin mempelajari lebih lanjut harus mengunjungi OpenOrigins.

Antoine adalah seorang pemimpin visioner dan mitra pendiri Unite.AI, didorong oleh semangat yang tak tergoyahkan untuk membentuk dan mempromosikan masa depan AI dan robotika. Seorang wirausaha serial, ia percaya bahwa AI akan sama-sama mengganggu masyarakat seperti listrik, dan sering tertangkap berbicara tentang potensi teknologi mengganggu dan AGI.

As a futurist, ia berdedikasi untuk mengeksplorasi bagaimana inovasi ini akan membentuk dunia kita. Selain itu, ia adalah pendiri Securities.io, sebuah platform yang fokus pada investasi di teknologi-teknologi canggih yang mendefinisikan kembali masa depan dan membentuk kembali seluruh sektor.