Connect with us

Kecerdasan buatan

Alat Browser AI Bertujuan Mengenali Deepfakes dan Media Palsu Lainnya

mm

Upaya perusahaan teknologi untuk menangani informasi yang salah dan konten palsu telah meningkat dalam beberapa waktu terakhir karena teknologi pembuatan konten palsu yang canggih seperti DeepFakes menjadi lebih mudah digunakan dan lebih halus. Salah satu upaya mendatang untuk membantu orang mendeteksi dan melawan deepfakes adalah RealityDefender, yang diproduksi oleh AI Foundation, yang telah berkomitmen untuk mengembangkan agen dan asisten AI yang etis yang dapat dilatih pengguna untuk menyelesaikan berbagai tugas.

Proyek paling terkenal dari AI Foundation adalah platform yang memungkinkan orang membuat persona digital mereka sendiri yang terlihat seperti mereka dan mewakili mereka di ruang hangout virtual. AI Foundation diawasi oleh Dewan AI Global dan sebagai bagian dari mandat mereka, mereka harus memprediksi dampak negatif yang mungkin dari platform AI, kemudian mencoba untuk mengatasi masalah tersebut. Seperti yang dilaporkan oleh VentureBeat, Salah satu alat yang dibuat oleh AI Foundation untuk membantu mendeteksi deepfakes adalah Reality Defender. Reality Defender adalah alat yang dapat digunakan seseorang di browser web mereka (periksa pada itu), yang akan menganalisis video, gambar, dan jenis media lainnya untuk mendeteksi tanda-tanda bahwa media telah dipalsukan atau diubah dengan cara tertentu. Diharapkan alat ini dapat membantu melawan arus deepfakes yang semakin meningkat di internet, yang menurut beberapa perkiraan telah meningkat sekitar dua kali lipat dalam enam bulan terakhir.

Reality Defender bekerja dengan menggunakan berbagai algoritma berbasis AI yang dapat mendeteksi petunjuk yang menunjukkan bahwa gambar atau video mungkin telah dipalsukan. Model AI mendeteksi tanda-tanda penipuan dan manipulasi yang halus, dan positif palsu yang dideteksi oleh model dilabeli sebagai salah oleh pengguna alat. Data tersebut kemudian digunakan untuk melatih kembali model. Perusahaan AI yang membuat deepfakes non-deceptif memiliki konten mereka diberi label “honest AI” atau watermark yang memungkinkan orang dengan mudah mengidentifikasi palsu yang dihasilkan AI.

Reality Defender hanya salah satu dari sekumpulan alat dan platform tanggung jawab AI yang AI Foundation coba buat. AI Foundation berusaha untuk menciptakan Guardian AI, platform tanggung jawab yang dibangun atas prinsip bahwa individu harus memiliki akses ke agen AI pribadi yang bekerja untuk mereka dan dapat membantu melindungi mereka dari eksploitasi oleh aktor jahat. Pada dasarnya, AI Foundation bertujuan untuk memperluas jangkauan AI dalam masyarakat, membawanya ke lebih banyak orang, sambil juga melindungi terhadap risiko AI.

Reality Defender bukanlah satu-satunya produk AI yang bertujuan untuk mengurangi informasi yang salah di Amerika Serikat. Produk serupa disebut SurfSafe, yang dibuat oleh dua mahasiswa dari UC Berkeley, Rohan Phadte dan Ash Bhat. Menurut The Verge, SurfSafe bekerja dengan memungkinkan penggunanya mengklik pada sepotong media yang mereka tanyakan dan program akan melakukan pencarian gambar terbalik dan mencoba menemukan konten serupa dari berbagai sumber tepercaya di internet, mengidentifikasi gambar yang diketahui telah diedit.

Tidak jelas seberapa efektif solusi ini akan bekerja dalam jangka panjang. Profesor Dartmouth College dan ahli forensik Hany Farid dikutip oleh The Verge sebagai mengatakan bahwa ia “sangat skeptis” bahwa rencana sistem seperti Reality Defender akan bekerja dengan kapasitas yang berarti. Farid menjelaskan bahwa salah satu tantangan utama dalam mendeteksi konten palsu adalah bahwa media tidak sepenuhnya palsu atau asli. Farid menjelaskan:

“Ada kontinum; rentang masalah yang sangat kompleks untuk ditangani. Beberapa perubahan tidak berarti, dan beberapa secara fundamental mengubah sifat gambar. Untuk berpura-pura kita dapat melatih AI untuk mendeteksi perbedaan adalah sangat naif. Dan untuk berpura-pura kita dapat menggunakannya adalah lebih naif lagi.”

Selain itu, sulit untuk memasukkan elemen crowdsourcing, seperti menandai positif palsu, karena manusia biasanya sangat buruk dalam mengidentifikasi gambar palsu. Manusia sering membuat kesalahan dan melewatkan detail halus yang menandai gambar sebagai palsu. Juga tidak jelas bagaimana cara menangani aktor jahat yang melakukan tindakan troll ketika mereka menandai konten.

Sepertinya kemungkinan besar bahwa, untuk menjadi efektif secara maksimal, alat pendeteksi palsu harus digabungkan dengan upaya literasi digital yang mengajarkan orang cara berpikir tentang konten yang mereka temui secara online.

Blogger dan programmer dengan spesialisasi di Machine Learning dan Deep Learning topik. Daniel berharap untuk membantu orang lain menggunakan kekuatan AI untuk kebaikan sosial.