potongan Mengidentifikasi Konten Video Berbahaya Dengan Cuplikan Film dan Pembelajaran Mesin - Unite.AI
Terhubung dengan kami

Kecerdasan Buatan

Mengidentifikasi Konten Video Berbahaya Dengan Cuplikan Film dan Pembelajaran Mesin

mm
Updated on

Sebuah makalah penelitian dari Dewan Media Swedia menguraikan kemungkinan pendekatan baru untuk identifikasi otomatis 'konten berbahaya', dengan mempertimbangkan konten audio dan video secara terpisah, dan menggunakan data yang dianotasi manusia sebagai indeks panduan untuk materi yang dapat mengganggu pemirsa.

Berjudul Apakah ini Berbahaya? Belajar Memprediksi Peringkat Bahaya dari Video, yang kertas mengilustrasikan perlunya sistem pembelajaran mesin untuk mempertimbangkan keseluruhan konteks sebuah adegan, dan mengilustrasikan banyak cara konten yang tidak berbahaya (seperti konten lucu atau satir) dapat disalahartikan sebagai berbahaya dalam pendekatan analisis video yang kurang canggih dan multimodal – salah satunya karena soundtrack musikal sebuah film sering kali digunakan dengan cara yang tidak terduga, baik untuk meresahkan atau meyakinkan penonton, dan sebagai tandingan, bukan sebagai pelengkap komponen visual.

Kumpulan Data Video yang Berpotensi Membahayakan

Para peneliti mencatat bahwa perkembangan yang berguna di sektor ini telah dihalangi oleh perlindungan hak cipta dari film, yang membuat pembuatan kumpulan data open source umum bermasalah. Mereka juga mengamati bahwa sampai saat ini, eksperimen serupa telah mengalami kekurangan label untuk film berdurasi penuh, yang menyebabkan pekerjaan sebelumnya terlalu menyederhanakan data yang berkontribusi, atau memasukkan hanya satu aspek data, seperti warna dominan atau dialog. analisis.

Untuk mengatasinya, para peneliti telah menyusun kumpulan data video dari 4000 klip video, cuplikan yang dipotong menjadi potongan-potongan sepanjang sekitar sepuluh detik, yang kemudian diberi label oleh pengklasifikasi film profesional yang mengawasi penerapan peringkat untuk film-film baru di Swedia, banyak dengan kualifikasi profesional dalam psikologi anak.

Di bawah sistem klasifikasi film Swedia, konten 'berbahaya' didefinisikan berdasarkan kemungkinan kecenderungannya untuk menghasilkan perasaan cemas, takut, dan efek negatif lainnya pada anak-anak. Para peneliti mencatat bahwa karena sistem peringkat ini melibatkan intuisi dan insting sebanyak sains, parameter untuk definisi 'konten berbahaya' sulit untuk diukur dan ditanamkan ke dalam sistem otomatis.

Mendefinisikan Bahaya

Makalah ini lebih lanjut mengamati bahwa pembelajaran mesin dan sistem algoritmik sebelumnya yang menangani tantangan ini telah menggunakan deteksi faset khusus sebagai kriteria, termasuk deteksi visual darah dan api, suara ledakan, dan frekuensi panjang tembakan, di antara definisi terbatas berbahaya lainnya. konten, dan bahwa pendekatan multi-domain tampaknya menawarkan metodologi yang lebih baik untuk peringkat otomatis konten berbahaya.

Para peneliti Swedia melatih model jaringan saraf 8×8 50-lapisan pada benchmark pergerakan manusia Kinetics-400 kumpulan data, dan membuat arsitektur yang dirancang untuk memadukan prediksi video dan audio.

Akibatnya, penggunaan trailer memecahkan tiga masalah untuk pembuatan kumpulan data seperti ini: meniadakan masalah hak cipta; turbulensi yang meningkat dan frekuensi pengambilan gambar trailer yang lebih tinggi (dibandingkan dengan film aslinya), memungkinkan frekuensi anotasi yang lebih besar; dan ini memastikan bahwa insiden kekerasan atau konten mengganggu yang rendah di seluruh film tidak membuat keseimbangan kumpulan data dan secara tidak sengaja mengklasifikasikannya sebagai cocok untuk anak-anak.

Hasil

Setelah model dilatih, para peneliti Swedia menguji sistem tersebut dengan klip video.

Di trailer ini untuk The Deep (2012), dua model yang digunakan untuk menguji sistem (label sampel acak vs. label probabilistik) berhasil mengklasifikasikan film sebagai cocok untuk penonton berusia 11 tahun ke atas.

Sumber: https://arxiv.org/pdf/2106.08323.pdf

Sumber: https://arxiv.org/pdf/2106.08323.pdf

Untuk adegan dari Menjelma (2018) di mana antagonis mengerikan diperkenalkan, kerangka kerja ganda sekali lagi dengan tepat memperkirakan rentang usia target sebagai 11+/15+.

Namun, klip dari trailer untuk Kesempatan Kedua (2014) menghadirkan kesulitan yang lebih besar, karena model tidak dapat menyetujui anotasi manusia untuk adegan tersebut, yang mengklasifikasikannya sebagai 'BT' (dapat diterima secara universal). Akibatnya, algoritme telah mendeteksi potensi bahaya yang tidak dianggap berasal dari evaluator manusia.

Meskipun para peneliti membuktikan skor akurasi yang tinggi untuk sistem tersebut, beberapa kegagalan memang terjadi, seperti klip dari ini Negara Kota (2011), yang menampilkan seorang pria telanjang yang ditahan diancam dengan senapan.

Dalam hal ini, sistem telah menetapkan peringkat 11+ untuk klip tersebut, berbeda dengan anotasi manusia.

Disonansi Niat Dan Bahaya

Makalah mencatat bahwa dalam mengevaluasi klip dari trailer untuk Paydirt (2020), sistem dengan benar memberikan peringkat 'universal' ke klip berdasarkan aspek visual dan linguistik (meskipun karakter mendiskusikan senjata api, maksudnya adalah komedi), tetapi dibingungkan oleh penggunaan musik yang mengancam disonan, yang mungkin memiliki konteks satir.

Begitu juga dalam trailer film tersebut Untuk Sama (2019), gaya konten musik yang mengancam tidak cocok dengan konten visual, dan sekali lagi, sistem mengalami kesulitan dalam memisahkan kedua komponen tersebut untuk membuat penilaian seragam yang mencakup konten audio dan video dari klip tersebut.

Terakhir, sistem menavigasi disonansi audio/video dengan benar dalam klip cuplikan untuk Gunung perawan (2015), yang berisi beberapa isyarat visual yang mengancam (yaitu jendela pecah) yang dirusak oleh musik. Dengan demikian, framework menebak dengan tepat bahwa klip tersebut diberi peringkat 'universal' (BT).

Para peneliti mengakui bahwa sistem seperti ini secara eksklusif berfokus pada anak-anak, dengan hasil yang tidak mungkin digeneralisasikan dengan baik ke jenis pemirsa lainnya. Mereka juga menyarankan bahwa mengkodifikasi konten 'berbahaya' dengan cara linier ini berpotensi mengarah pada sistem peringkat algoritmik yang kurang dapat diprediksi, tetapi perhatikan potensi represi gagasan yang tidak diinginkan dalam pengembangan pendekatan semacam itu:

'Menilai apakah konten berbahaya adalah masalah yang rumit. Ada tindakan penyeimbang yang penting antara kebebasan informasi dan melindungi kelompok sensitif. Kami percaya bahwa pekerjaan ini mengambil langkah ke arah yang benar, dengan menjadi setransparan mungkin tentang kriteria yang digunakan untuk menilai bahaya. Selain itu, kami yakin memisahkan bahaya dari kelayakan adalah langkah penting untuk membuat klasifikasi konten berbahaya menjadi lebih objektif.

'…Mendeteksi konten berbahaya juga menarik bagi platform online seperti YouTube. Pada platform seperti itu, tindakan penyeimbangan antara kebebasan informasi dan perlindungan menjadi lebih penting dan semakin diperumit oleh sifat kepemilikan dari algoritme yang bertanggung jawab.'