Terhubung dengan kami

Kecerdasan Buatan

Definisi 'Deepfake' yang Sulit Dipahami

mm
Berdasarkan: https://unsplash.com/photos/man-sitting-on-chair-E9PFbdhZmus

Sebuah studi baru yang menarik dari Jerman mengkritik UU AI Uni Eropa definisi istilah 'deepfake' terlalu samar, terutama dalam konteks manipulasi gambar digital. Penulis berpendapat bahwa penekanan Undang-Undang tersebut pada konten yang menyerupai orang atau peristiwa nyata – namun berpotensi muncul palsu – kurang jelas.

Mereka juga menyoroti bahwa pengecualian Undang-Undang untuk 'penyuntingan standar' (yaitu, modifikasi gambar yang dianggap kecil dengan bantuan AI) gagal mempertimbangkan pengaruh AI yang meluas dalam aplikasi konsumen dan sifat subjektif konvensi artistik yang sudah ada sebelum munculnya AI.

Undang-undang yang tidak tepat dalam isu-isu ini menimbulkan dua risiko utama: 'efek mengerikan', di mana cakupan interpretasi hukum yang luas menghambat inovasi dan adopsi sistem baru; dan 'efek pelanggar hukum', di mana hukum diabaikan karena dianggap melampaui batas atau tidak relevan.

Dalam kedua kasus tersebut, undang-undang yang tidak jelas secara efektif mengalihkan tanggung jawab penetapan definisi hukum praktis ke putusan pengadilan di masa mendatang – sebuah pendekatan yang hati-hati dan menghindari risiko terhadap legislasi.

Teknologi manipulasi gambar berbasis AI tampaknya masih jauh lebih maju dari kapasitas undang-undang untuk mengatasinya. Misalnya, salah satu contoh penting dari elastisitas konsep pasca-pemrosesan 'otomatis' yang digerakkan oleh AI, menurut pengamatan makalah tersebut, adalah 'Pengoptimal Pemandangan' fungsi pada kamera Samsung terbaru, yang dapat menggantikan gambar bulan yang diambil pengguna (a menantang subjek), dengan gambar yang 'disempurnakan' dan digerakkan oleh AI:

Kiri atas, contoh dari makalah baru gambar bulan asli yang diambil pengguna, di sebelah kiri versi yang disempurnakan Samsung yang dibuat secara otomatis dengan Scene Optimizer; Kanan, ilustrasi resmi Samsung tentang proses di balik ini; kiri bawah, contoh dari pengguna Reddit u/ibreakphotos, yang menunjukkan (kiri) gambar bulan yang sengaja diburamkan dan (kanan), pencitraan ulang Samsung terhadap gambar ini – meskipun foto sumbernya adalah gambar monitor, dan bukan bulan asli. Sumber (searah jarum jam dari kiri atas): https://arxiv.org/pdf/2412.09961; https://www.samsung.com/uk/support/mobile-devices/how-galaxy-cameras-combine-super-resolution-technologies-with-ai-to-produce-high-quality-images-of-the-moon/; https://reddit.com/r/Android/comments/11nzrb0/samsung_space_zoom_moon_shots_are_fake_and_here/

Kiri atas, contoh dari makalah baru berupa gambar bulan asli yang diambil pengguna, di sebelah kiri versi yang disempurnakan Samsung yang dibuat secara otomatis dengan Scene Optimizer; Kanan, ilustrasi resmi Samsung tentang proses di balik ini; kiri bawah, contoh dari pengguna Reddit u/ibreakphotos, yang menunjukkan (kiri) gambar bulan yang sengaja diburamkan dan (kanan), pencitraan ulang Samsung atas gambar ini – meskipun foto sumbernya adalah gambar monitor, dan bukan bulan asli. Sumber (searah jarum jam dari kiri atas): https://arxiv.org/pdf/2412.09961; https://www.samsung.com/uk/support/mobile-devices/how-galaxy-cameras-combine-super-resolution-technologies-with-ai-to-produce-high-quality-images-of-the-moon/; https:/reddit.com/r/Android/comments/11nzrb0/samsung_space_zoom_moon_shots_are_fake_and_here/

Di kiri bawah gambar di atas, kita melihat dua gambar bulan. Yang di kiri adalah foto diambil oleh pengguna Reddit. Di sini, gambar sengaja diburamkan dan diperkecil skalanya oleh pengguna.

Di sebelah kanannya, kita melihat foto gambar yang sama yang diambil dengan kamera Samsung dengan pemrosesan pasca AI yang diaktifkan. Kamera secara otomatis telah 'memperbesar' objek 'bulan' yang dikenali, meskipun itu bukan bulan yang sebenarnya.

Makalah ini memberikan kritik yang lebih mendalam pada Pengambilan Terbaik fitur yang dimasukkan ke dalam smartphone terbaru Google – kontroversial Fitur AI yang menyunting bagian-bagian 'terbaik' dari foto grup, memindai beberapa detik rangkaian foto sehingga senyuman dapat diubah ke depan atau ke belakang sesuai kebutuhan – dan tidak ada seorang pun yang terlihat sedang berkedip.

Makalah ini menyatakan bahwa proses gabungan semacam ini berpotensi untuk salah menggambarkan peristiwa:

'[Dalam] suasana foto grup yang umum, rata-rata pemirsa mungkin masih menganggap foto yang dihasilkan sebagai asli. Senyum yang disisipkan muncul dalam beberapa detik sejak foto terakhir diambil.

"Di sisi lain, jangka waktu sepuluh detik dari fitur pengambilan gambar terbaik sudah cukup untuk mengubah suasana hati. Seseorang mungkin berhenti tersenyum sementara anggota kelompok lainnya menertawakan lelucon yang merugikan mereka.

'Oleh karena itu, kami berasumsi bahwa foto kelompok tersebut kemungkinan besar merupakan foto palsu.'

kertas baru berjudul Apa yang dimaksud dengan Deep Fake? Batas yang tidak jelas antara pemrosesan yang sah dan manipulasi berdasarkan Undang-Undang AI Uni Eropa, dan berasal dari dua peneliti di Computational Law Lab di Universitas Tübingen, dan Universitas Saarland.

Trik Lama

Memanipulasi waktu dalam fotografi jauh lebih tua daripada AI tingkat konsumen. Penulis makalah baru tersebut mencatat keberadaan teknik yang jauh lebih tua yang dapat dikatakan sebagai 'tidak autentik', seperti penggabungan beberapa gambar berurutan menjadi Rentang Dinamis Tinggi (HDR) foto, atau 'dijahit' foto panorama.

Memang, beberapa foto palsu tertua dan paling lucu secara tradisional dibuat oleh anak-anak sekolah yang berlari dari satu ujung kelompok sekolah ke ujung lainnya, di depan lintasan kereta khusus. kamera panorama yang pernah digunakan untuk fotografi olahraga dan kelompok sekolah – memungkinkan murid muncul dua kali dalam gambar yang sama:

Godaan untuk mengelabui kamera panorama selama sesi foto kelompok terlalu besar untuk ditolak oleh banyak siswa, yang bersedia mengambil risiko mendapat sesi buruk di kantor kepala sekolah demi 'mengkloning' diri mereka sendiri dalam foto sekolah. Sumber: https://petapixel.com/2012/12/13/double-exposure-a-clever-photo-prank-from-half-a-century-ago/

Godaan untuk mengelabui kamera panorama selama foto kelompok terlalu besar untuk ditolak bagi banyak siswa, yang bersedia mengambil risiko mendapat sesi buruk di kantor kepala sekolah agar dapat 'mengkloning' diri mereka sendiri di foto sekolah. Sumber: https://petapixel.com/2012/12/13/double-exposure-a-clever-photo-prank-from-half-a-century-ago/

Kecuali Anda mengambil foto dalam mode RAW, yang pada dasarnya membuang sensor lensa kamera ke berkas yang sangat besar tanpa interpretasi apa pun, kemungkinan besar foto digital Anda tidak sepenuhnya autentik. Sistem kamera secara rutin menerapkan algoritme 'perbaikan' seperti penajaman gambar dan keseimbangan putih, secara default – dan telah melakukannya sejak asal mula fotografi digital tingkat konsumen.

Penulis makalah baru ini berpendapat bahwa bahkan jenis augmentasi foto digital lama ini tidak mewakili 'realitas', karena metode tersebut dirancang untuk membuat foto lebih menarik, bukan lebih 'nyata'.

Studi ini menunjukkan bahwa UU AI Uni Eropa, bahkan dengan amandemen selanjutnya seperti resital 123–27, menempatkan semua keluaran foto dalam pembuktian kerangka kerja yang tidak sesuai dengan konteks di mana foto diproduksi saat ini, berbeda dengan sifat (yang secara nominal objektif) dari rekaman kamera keamanan atau fotografi forensik. Sebagian besar gambar yang dibahas oleh Undang-Undang AI lebih cenderung berasal dari konteks di mana produsen dan platform daring secara aktif mempromosikan interpretasi foto kreatif, termasuk penggunaan AI.

Para peneliti berpendapat bahwa foto 'tidak pernah menjadi gambaran objektif dari realitas'. Pertimbangan seperti lokasi kamera, kedalaman bidang yang dipilih, dan pilihan pencahayaan, semuanya berkontribusi untuk membuat foto menjadi sangat subjektif.

Makalah ini mengamati bahwa tugas-tugas 'pembersihan' rutin – seperti menghilangkan debu sensor atau kabel listrik yang tidak diinginkan dari pemandangan yang tersusun dengan baik – hanya setengah-diotomatisasi sebelum munculnya AI: pengguna harus memilih wilayah atau memulai proses secara manual untuk mencapai hasil yang diinginkan.

Saat ini, operasi ini sering kali dipicu oleh perintah teks pengguna, terutama pada alat seperti Photoshop. Pada tingkat konsumen, fitur-fitur tersebut semakin diotomatisasi tanpa masukan pengguna – suatu hasil yang tampaknya dianggap oleh produsen dan platform sebagai 'jelas diinginkan'.

Arti yang Diencerkan dari 'Deepfake'

Tantangan utama bagi legislasi seputar citra yang diubah dan dihasilkan AI adalah ambiguitas istilah 'deepfake', yang maknanya telah diperluas secara signifikan selama dua tahun terakhir.

Awalnya istilah ini hanya berlaku untuk keluaran video dari sistem berbasis autoencoder seperti DeepFaceLab dan FaceSwap, keduanya berasal dari kode anonim yang diunggah ke Reddit pada akhir tahun 2017.

Mulai tahun 2022, datangnya Model Difusi Laten (LDM) seperti Difusi Stabil dan Aliran, serta sistem teks-ke-video seperti sora, juga akan memungkinkan pertukaran identitas dan kustomisasi, dengan resolusi, fleksibilitas, dan kesetiaan yang lebih baik. Sekarang dimungkinkan untuk membuat model berbasis difusi yang dapat menggambarkan selebriti dan politisi. Karena istilah 'deepfake' sudah menjadi berita utama bagi produser media, istilah ini diperluas untuk mencakup sistem ini.

Kemudian, baik di media maupun literatur penelitian, istilah ini juga mencakup peniruan berbasis teksPada titik ini, makna asli 'deepfake' sudah hampir hilang, sementara makna luasnya terus berkembang dan semakin terdilusi.

Namun karena kata tersebut begitu menghasut dan menggugah, dan kini menjadi tonggak penting politik dan media, terbukti mustahil untuk meninggalkannya. Kata tersebut menarik pembaca ke situs web, pendanaan bagi peneliti, dan perhatian bagi politisi. Ambiguitas leksikal ini menjadi fokus utama penelitian baru tersebut.

Sebagaimana yang diamati oleh penulis, pasal 3(60) dari UU AI Uni Eropa menguraikan empat kondisi yang mendefinisikan 'deepfake'.

1: Bulan Sejati

Pertama, kontennya harus dihasilkan atau dimanipulasi, yaitu, dibuat dari awal menggunakan AI (generasi) atau diubah dari data yang ada (manipulasi). Makalah ini menyoroti kesulitan dalam membedakan antara hasil penyuntingan gambar yang 'dapat diterima' dan deepfake manipulatif, mengingat bahwa foto digital, bagaimanapun juga, tidak pernah merupakan representasi realitas yang sebenarnya.

Makalah tersebut berpendapat bahwa bulan yang dihasilkan Samsung dapat dikatakan autentik, karena bulan tersebut tidak mungkin berubah penampilan, dan karena konten yang dihasilkan AI, yang dilatih pada gambar bulan asli, oleh karena itu cenderung akurat.

Namun, penulis juga menyatakan bahwa karena sistem Samsung telah terbukti menghasilkan citra bulan yang 'ditingkatkan' dalam kasus di mana citra sumber bukanlah bulan itu sendiri, ini akan dianggap sebagai 'deepfake'.

Akan tidak praktis untuk menyusun daftar lengkap berbagai kasus penggunaan yang berbeda di sekitar jenis ini ad hoc fungsionalitas. Oleh karena itu, beban definisi tampaknya kembali lagi ke pengadilan.

2: Teks Palsu

Kedua, konten harus dalam bentuk gambar, audio, atau videoKonten teks, meskipun tunduk pada kewajiban transparansi lainnya, tidak dianggap sebagai deepfake berdasarkan Undang-Undang AI. Hal ini tidak dibahas secara rinci dalam studi baru, meskipun hal ini dapat berdampak signifikan pada efektivitas visual deepfake (lihat di bawah).

3: Masalah Dunia Nyata

Ketiga, konten harus menyerupai orang, objek, tempat, entitas, atau peristiwa yang adaKondisi ini menciptakan koneksi ke dunia nyata, yang berarti bahwa citra yang sepenuhnya direkayasa, bahkan jika tampak nyata, tidak akan memenuhi syarat sebagai deepfake. Resital 134 Undang-Undang AI Uni Eropa menekankan aspek 'kemiripan' dengan menambahkan kata 'cukup' (penundaan yang jelas terhadap keputusan hukum berikutnya).

Para penulis, mengutip pekerjaan sebelumnya, pertimbangkan apakah wajah yang dihasilkan AI harus milik orang sungguhan, atau apakah hanya perlu cukup mirip kepada orang sungguhan, untuk memenuhi definisi ini.

Misalnya, bagaimana seseorang dapat menentukan apakah serangkaian gambar fotorealistik yang menggambarkan politisi Donald Trump memiliki maksud peniruan, jika gambar (atau teks tambahan) tidak secara khusus menyebutkannya? Pengenalan wajah? Survei pengguna? Definisi hakim tentang 'akal sehat'?

Kembali ke masalah 'TextFakes' (lihat di atas), kata-kata sering kali merupakan bagian penting dari tindakan seseorang visual deepfake. Misalnya, dimungkinkan untuk mengambil gambar atau video (yang tidak diubah) dari 'orang a', dan katakanlah, dalam keterangan atau postingan media sosial, bahwa gambar tersebut adalah 'orang b' (dengan asumsi kedua orang tersebut memiliki kemiripan).

Dalam kasus seperti itu, tidak diperlukan AI, dan hasilnya mungkin sangat efektif – tetapi apakah pendekatan berteknologi rendah seperti itu juga merupakan 'deepfake'?

4: Memperbaiki, Merombak

Terakhir, konten harus tampak asli atau jujur ​​kepada seseorangKondisi ini menekankan persepsi pemirsa manusia. Konten yang hanya dikenali sebagai representasi orang atau objek nyata oleh algoritma akan tidak dianggap sebagai deepfake.

Dari semua ketentuan dalam Pasal 3(60), ketentuan ini jelas-jelas tunduk pada putusan pengadilan di kemudian hari, karena ketentuan ini tidak memperbolehkan adanya penafsiran melalui cara-cara teknis atau mekanis.

Jelas ada beberapa kesulitan yang melekat dalam mencapai konsensus mengenai ketentuan subjektif semacam itu. Para penulis mengamati, misalnya, bahwa orang yang berbeda, dan tipe orang yang berbeda (seperti anak-anak dan orang dewasa), mungkin cenderung berbeda dalam mempercayai deepfake tertentu.

Para penulis lebih lanjut mencatat bahwa kemampuan AI tingkat lanjut dari alat seperti Photoshop menantang definisi tradisional tentang 'deepfake.' Meskipun sistem ini mungkin menyertakan perlindungan dasar terhadap konten yang kontroversial atau dilarang, sistem ini secara dramatis memperluas konsep 'retouching.' Pengguna kini dapat menambahkan atau menghapus objek dengan cara yang sangat meyakinkan dan fotorealistik, sehingga mencapai tingkat keaslian profesional yang mendefinisikan ulang batasan manipulasi gambar.

Para penulis menyatakan:

"Kami berpendapat bahwa definisi deep fake saat ini dalam undang-undang AI dan kewajiban terkait tidak cukup ditetapkan untuk mengatasi tantangan yang ditimbulkan oleh deep fake. Dengan menganalisis siklus hidup foto digital dari sensor kamera hingga fitur penyuntingan digital, kami menemukan bahwa:

(1.) Deep fake tidak didefinisikan dengan baik dalam UU AI Uni Eropa. Definisi tersebut memberikan terlalu banyak ruang untuk menjelaskan apa itu deep fake.

(2.) Tidak jelas bagaimana fungsi penyuntingan seperti fitur “pengambilan terbaik” Google dapat dianggap sebagai pengecualian terhadap kewajiban transparansi.

'(3.) Pengecualian untuk gambar yang diedit secara substansial menimbulkan pertanyaan tentang apa yang dianggap sebagai pengeditan konten secara substansial dan apakah pengeditan ini harus dapat dilihat oleh orang perseorangan.'

Mengambil Pengecualian

UU AI Uni Eropa memuat pengecualian yang, menurut penulis, dapat sangat permisif. Pasal 50 (2), mereka menyatakan, menawarkan pengecualian dalam kasus di mana sebagian besar gambar sumber asli tidak diubah. Para penulis mencatat:

"Apa yang dapat dianggap sebagai konten dalam pengertian Pasal 50(2) dalam kasus audio, gambar, dan video digital? Misalnya, dalam kasus gambar, apakah kita perlu mempertimbangkan ruang piksel atau ruang kasat mata yang dapat dirasakan oleh manusia? Manipulasi substantif dalam ruang piksel mungkin tidak mengubah persepsi manusia, dan di sisi lain, gangguan kecil dalam ruang piksel dapat mengubah persepsi secara dramatis."

Para peneliti memberikan contoh penambahan pistol pada foto seseorang yang sedang menunjuk seseorang. Dengan menambahkan pistol, seseorang mengubah sedikitnya 5% dari gambar; namun, signifikansi semantik dari bagian yang diubah cukup penting. Oleh karena itu tampaknya pengecualian ini tidak memperhitungkan pemahaman 'akal sehat' apa pun tentang pengaruh detail kecil terhadap signifikansi keseluruhan gambar.

Pasal 50(2) juga memberikan pengecualian untuk 'fungsi bantuan untuk penyuntingan standar'. Karena Undang-Undang tersebut tidak mendefinisikan apa yang dimaksud dengan 'penyuntingan standar', bahkan fitur pasca-pemrosesan yang ekstrem seperti Google's Best Take tampaknya dilindungi oleh pengecualian ini, menurut pengamatan penulis.

Kesimpulan

Maksud dari karya baru ini adalah untuk mendorong studi interdisipliner seputar regulasi deepfake, dan menjadi titik awal bagi dialog baru antara ilmuwan komputer dan sarjana hukum.

Akan tetapi, makalah itu sendiri tunduk pada tautologi di beberapa poin: makalah itu sering menggunakan istilah 'deepfake' seolah-olah maknanya sudah jelas dengan sendirinya, sambil mengkritik UU AI Uni Eropa karena gagal mendefinisikan apa sebenarnya yang dimaksud dengan deepfake.

 

Pertama kali diterbitkan pada hari Senin, 16 Desember 2024

Penulis tentang pembelajaran mesin, spesialis domain dalam sintesis citra manusia. Mantan kepala konten penelitian di Metaphysic.ai.
Situs pribadi: martinanderson.ai
Kontak: [email dilindungi]
Twitter: @manders_ai