Trí tuệ nhân tạo
Xác định Nội dung Video Có Hại với Trailer Phim và Học Máy

Một bài báo nghiên cứu từ Hội đồng Truyền thông Thụy Điển phác thảo một cách tiếp cận mới có thể để xác định tự động ‘nội dung có hại’, bằng cách xem xét nội dung âm thanh và video riêng biệt, và sử dụng dữ liệu được chú thích bởi con người như một chỉ số hướng dẫn cho tài liệu có thể gây khó chịu cho người xem.
Được đặt tên Đây có phải là Nội dung Có Hại? Học cách Dự đoán Xếp hạng Có Hại từ Video, bài báo này minh họa nhu cầu của các hệ thống học máy phải xem xét toàn bộ ngữ cảnh của một cảnh, và minh họa nhiều cách mà nội dung vô hại (như nội dung hài hước hoặc châm biếm) có thể bị hiểu lầm là có hại trong một cách tiếp cận ít tinh vi và đa phương thức hơn để phân tích video – không ít vì bản nhạc âm nhạc của một bộ phim thường được sử dụng theo những cách không ngờ, hoặc để làm cho người xem cảm thấy không an toàn hoặc an tâm, và như một điểm đối lập chứ không phải là bổ sung cho thành phần trực quan.
Tập dữ liệu về Video Có thể Có Hại
Các nhà nghiên cứu lưu ý rằng những phát triển hữu ích trong lĩnh vực này đã bị cản trở bởi sự bảo vệ bản quyền của các bộ phim, điều này khiến việc tạo ra các tập dữ liệu mã nguồn mở tổng quát trở nên khó khăn. Họ cũng quan sát thấy rằng cho đến nay, các thí nghiệm tương tự đã phải đối mặt với sự thiếu hụt của các nhãn cho các bộ phim đầy đủ, điều này đã dẫn đến việc các công việc trước đây oversimplifying dữ liệu đóng góp, hoặc tập trung vào chỉ một khía cạnh của dữ liệu, chẳng hạn như màu sắc thống trị hoặc phân tích đối thoại.
Để giải quyết vấn đề này, các nhà nghiên cứu đã biên soạn một tập dữ liệu video gồm 4000 đoạn video, các đoạn trailer được cắt xuống thành các đoạn khoảng mười giây, sau đó được dán nhãn bởi các nhà phân loại phim chuyên nghiệp giám sát việc áp dụng xếp hạng cho các bộ phim mới ở Thụy Điển, nhiều người trong số họ có trình độ chuyên môn về tâm lý học trẻ em.
Theo hệ thống phân loại phim của Thụy Điển, ‘nội dung có hại’ được định nghĩa dựa trên khả năng có thể gây ra cảm giác lo lắng, sợ hãi và các tác động tiêu cực khác ở trẻ em. Các nhà nghiên cứu lưu ý rằng vì hệ thống xếp hạng này liên quan đến trực giác và bản năng cũng như khoa học, các tham số cho định nghĩa ‘nội dung có hại’ khó được lượng hóa và đưa vào một hệ thống tự động.
Định nghĩa về Nội dung Có Hại
Bài báo进一步 quan sát thấy rằng các hệ thống học máy và thuật toán trước đây giải quyết thách thức này đã sử dụng phát hiện đặc điểm cụ thể như một tiêu chí, bao gồm phát hiện trực quan về máu và ngọn lửa, âm thanh của tiếng nổ, và tần suất của độ dài shot, trong số các định nghĩa hạn chế khác về nội dung có hại, và rằng một cách tiếp cận đa lĩnh vực có vẻ sẽ cung cấp một phương pháp luận tốt hơn cho việc xếp hạng tự động của nội dung có hại.
Các nhà nghiên cứu Thụy Điển đã đào tạo một mô hình mạng nơ-ron 8×8 50 lớp trên tập dữ liệu benchmark Kinetics-400 dataset, và tạo ra một kiến trúc được thiết kế để hợp nhất dự đoán video và âm thanh.
Trên thực tế, việc sử dụng trailer giải quyết ba vấn đề cho việc tạo ra một tập dữ liệu như vậy: nó loại bỏ các vấn đề về bản quyền; tần suất shot tăng và độ dài shot cao hơn của trailer (so với các bộ phim gốc), cho phép tần suất chú thích cao hơn; và nó đảm bảo rằng sự xuất hiện thấp của nội dung bạo lực hoặc gây khó chịu trong một bộ phim hoàn chỉnh không làm mất cân bằng tập dữ liệu và vô tình phân loại nó là phù hợp với trẻ em.
Kết quả
Một khi mô hình được đào tạo, các nhà nghiên cứu Thụy Điển đã thử nghiệm hệ thống chống lại các đoạn video-clip.
Trong đoạn trailer này cho The Deep (2012), hai mô hình được sử dụng để thử nghiệm hệ thống (nhãn mẫu ngẫu nhiên so với nhãn xác suất) đã phân loại thành công bộ phim là phù hợp với người xem từ 11 tuổi trở lên.

Source: https://arxiv.org/pdf/2106.08323.pdf
Đối với một cảnh từ Discarnate (2018) nơi một nhân vật phản diện được giới thiệu, khung khổ kép lại ước tính đúng phạm vi tuổi mục tiêu là 11+/15+.

Tuy nhiên, một đoạn clip từ trailer cho A Second Chance (2014) đã gây ra nhiều khó khăn hơn, vì mô hình không thể đồng ý với chú thích của con người cho cảnh, đã phân loại nó là ‘BT’ (được chấp nhận rộng rãi). Trên thực tế, thuật toán đã phát hiện ra khả năng gây hại mà các đánh giá viên của con người không gán cho nó.

Mặc dù các nhà nghiên cứu khẳng định một điểm số chính xác cao cho hệ thống, một số thất bại đã xảy ra, chẳng hạn như đoạn clip này từ City State (2011), có một người đàn ông bị giam giữ khỏa thân bị đe dọa bằng súng.
Trong trường hợp này, hệ thống đã gán một xếp hạng 11+ cho đoạn clip, trái với chú thích của con người.

Sự không hòa hợp giữa Ý định và Nội dung Có Hại
Bài báo lưu ý rằng trong việc đánh giá một đoạn clip từ trailer cho Paydirt (2020), hệ thống đã gán đúng một xếp hạng ‘toàn cầu’ cho đoạn clip dựa trên các khía cạnh trực quan và ngôn ngữ (mặc dù các nhân vật đang thảo luận về súng, ý định là hài hước), nhưng bị nhầm lẫn bởi âm nhạc đe dọa không hòa hợp được sử dụng, có thể có một ngữ cảnh châm biếm.

Tương tự như vậy, trong một trailer cho bộ phim For Sama (2019), phong cách âm nhạc đe dọa không được khớp với nội dung trực quan, và một lần nữa, hệ thống gặp khó khăn trong việc phân tách hai thành phần để đưa ra một phán quyết thống nhất bao gồm cả nội dung âm thanh và video của đoạn clip.

Cuối cùng, hệ thống đã điều hướng đúng sự không hòa hợp giữa âm thanh và video trong một đoạn trailer cho Virgin Mountain (2015), có chứa một số tín hiệu trực quan đe dọa (ví dụ: một cửa sổ bị vỡ) bị phá vỡ bởi âm nhạc. Vì vậy, khung khổ đã đúng cách đoán rằng đoạn clip được xếp hạng ‘toàn cầu’ (BT).

Các nhà nghiên cứu thừa nhận rằng một hệ thống như vậy chỉ tập trung vào trẻ em, với kết quả không thể tổng quát hóa tốt cho các loại người xem khác. Họ cũng đề xuất rằng việc mã hóa ‘nội dung có hại’ theo cách tuyến tính này có thể dẫn đến các hệ thống xếp hạng thuật toán ít khó đoán hơn, nhưng lưu ý đến khả năng đàn áp ý tưởng không mong muốn trong việc phát triển các cách tiếp cận như vậy:
‘Đánh giá liệu nội dung có hại hay không là một vấn đề tinh vi. Có một sự cân bằng quan trọng giữa tự do thông tin và bảo vệ các nhóm nhạy cảm. Chúng tôi tin rằng công việc này đi theo hướng đúng, bằng cách minh bạch nhất có thể về các tiêu chí được sử dụng để đánh giá mức độ có hại.
‘… Phát hiện nội dung có hại cũng là điều quan tâm đến các nền tảng trực tuyến như YouTube. Trên các nền tảng như vậy, sự cân bằng giữa tự do thông tin và bảo vệ trở nên quan trọng hơn và bị phức tạp hóa bởi bản chất độc quyền của các thuật toán chịu trách nhiệm.’












