Connect with us

Künstliche Intelligenz

Identifizierung von schädlichem Video-Inhalt mit Filmtrailern und Machine Learning

mm

Ein Forschungspapier des schwedischen Medienrats skizziert einen möglichen neuen Ansatz zur automatischen Identifizierung von “schädlichem Inhalt”, indem es Audio- und Video-Inhalt separat betrachtet und human-annotierte Daten als Leitfaden für Material verwendet, das Zuschauer stören könnte.

Unter dem Titel Ist dies schädlich? Lernen, Harmfulness-Ratings aus Video vorherzusagen zeigt das Papier die Notwendigkeit auf, dass Machine-Learning-Systeme den gesamten Kontext einer Szene berücksichtigen, und illustriert die vielen Möglichkeiten, wie harmloser Inhalt (wie humorvoller oder satirischer Inhalt) in einem weniger fortschrittlichen und multimodalen Ansatz zur Videoanalyse falsch interpretiert werden könnte – nicht zuletzt, weil die Filmmusik oft auf unerwartete Weise verwendet wird, entweder um den Zuschauer zu beunruhigen oder zu beruhigen, und als Kontrapunkt statt als Ergänzung zur visuellen Komponente.

Datensatz von potenziell schädlichen Videos

Die Forscher bemerken, dass nützliche Entwicklungen in diesem Sektor durch den Urheberrechtsschutz von Filmen behindert wurden, was die Erstellung von allgemeinen Open-Source-Datensätzen problematisch macht. Sie stellen auch fest, dass ähnliche Experimente bislang unter einer Spärlichkeit von Labels für Vollfilme gelitten haben, was zu einer Vereinfachung der Daten oder einer Konzentration auf nur einen Aspekt der Daten wie dominante Farben oder Dialoganalyse geführt hat.

Um dies zu adressieren, haben die Forscher einen Videodatensatz von 4000 Video-Clips erstellt, Trailer, die in etwa zehn Sekunden lange Abschnitte geschnitten wurden, die dann von professionellen Filmklassifizierern annotiert wurden, die die Anwendung von Bewertungen für neue Filme in Schweden überwachen, viele mit professionellen Qualifikationen in Kinderpsychologie.

Im schwedischen System der Filmklassifizierung wird “schädlicher” Inhalt auf der Grundlage seiner möglichen Neigung definiert, Gefühle von Angst, Furcht und anderen negativen Effekten bei Kindern hervorzurufen. Die Forscher bemerken, dass dieses Bewertungssystem so viel Intuition und Instinkt wie Wissenschaft beinhaltet, die Parameter für die Definition von “schädlichem Inhalt” schwer zu quantifizieren und in ein automatisiertes System zu integrieren sind.

Definieren von Schaden

Das Papier beobachtet weiter, dass frühere Machine-Learning- und algorithmische Systeme, die diese Herausforderung angegangen sind, spezifische Facetten-Erkennung als Kriterium verwendet haben, einschließlich der visuellen Erkennung von Blut und Flammen, dem Klang von Explosionen und der Häufigkeit von Schusslängen, unter anderen eingeschränkten Definitionen von schädlichem Inhalt, und dass ein multi-domänenübergreifender Ansatz wahrscheinlich eine bessere Methodik für die automatische Bewertung von schädlichem Inhalt bietet.

Die schwedischen Forscher trainierten ein 8×8-50-Schichten-Neuronales-Netz-Modell auf dem Kinetics-400-Human-Bewegung-Benchmark Datensatz und erstellten eine Architektur, die darauf ausgelegt war, Video- und Audio-Vorhersagen zu fusionieren.

In der Praxis löst die Verwendung von Trailern drei Probleme für die Erstellung eines Datensatzes dieser Art: Sie vermeidet Urheberrechtsprobleme; die erhöhte Turbulenz und höhere Schussfrequenz von Trailern (im Vergleich zu den ursprünglichen Filmen) ermöglicht eine höhere Frequenz von Annotationen; und sie stellt sicher, dass die geringe Häufigkeit von gewaltsamem oder beunruhigendem Inhalt in einem gesamten Film den Datensatz nicht unbalanciert und versehentlich als für Kinder geeignet klassifiziert.

Ergebnisse

Sobald das Modell trainiert war, testeten die schwedischen Forscher das System gegen Video-Clips.

In diesem Trailer für The Deep (2012) klassifizierten die beiden Modelle, die für das Testen des Systems verwendet wurden (zufällig ausgewählte Labels vs. probabilistische Labels), den Film erfolgreich als für Zuschauer ab 11 Jahren geeignet.

Quelle: https://arxiv.org/pdf/2106.08323.pdf

Quelle: https://arxiv.org/pdf/2106.08323.pdf

Für eine Szene aus Discarnate (2018), in der ein monströser Antagonist vorgestellt wird, schätzte das duale Framework die Ziel-Altersgruppe erneut korrekt als 11+/15+.

Jedoch bereitete ein Clip aus dem Trailer für A Second Chance (2014) größere Schwierigkeiten, da das Modell nicht mit den humanen Annotationen für die Szene übereinstimmen konnte, die es als “BT” (allgemein akzeptabel) klassifiziert hatte. In der Praxis hat das Algorithmus potenzielle Schädigung erkannt, die die menschlichen Evaluator nicht zugewiesen haben.

Obwohl die Forscher eine hohe Genauigkeit des Systems bestätigen, traten einige Fehlschläge auf, wie dieser Clip aus City State (2011), der einen festgenommenen nackten Mann zeigt, der mit einem Gewehr bedroht wird.

In diesem Fall hat das System eine 11+-Bewertung für den Clip zugewiesen, im Gegensatz zu den humanen Annotationen.

Dissonanz von Absicht und Schädlichkeit

Das Papier bemerkt, dass bei der Bewertung eines Clips aus dem Trailer für Paydirt (2020) das System korrekt eine “universelle” Bewertung für den Clip auf der Grundlage der visuellen und sprachlichen Aspekte zuweist (obwohl die Charaktere über Schusswaffen sprechen, ist die Absicht komödiantisch), aber von der dissonanten, bedrohlichen Musik verwirrt wird, die einen satirischen Kontext haben könnte.

Ebenso im Trailer für den Film For Sama (2019) wird der bedrohliche Stil des musikalischen Inhalts nicht von dem visuellen Inhalt gematcht, und erneut hat das System Schwierigkeiten, die beiden Komponenten zu entwirren, um ein einheitliches Urteil zu fällen, das sowohl den Audio- als auch den Video-Inhalt des Clips abdeckt.

Schließlich navigiert das System korrekt die Audio/Video-Dissonanz in einem Trailer-Clip für Virgin Mountain (2015), der einige bedrohliche visuelle Hinweise (z.B. ein zerbrochenes Fenster) enthält, die durch die Musik untergraben werden. Somit schätzt das Framework korrekt, dass der Clip als “universell” (BT) bewertet wird.

Die Forscher räumen ein, dass ein System dieser Art ausschließlich auf Kinder fokussiert ist, mit Ergebnissen, die unwahrscheinlich gut auf andere Arten von Zuschauern verallgemeinert werden. Sie schlagen auch vor, dass die Kodifizierung von “schädlichem” Inhalt auf diese lineare Weise potenziell zu algorithmischen Bewertungssystemen führen könnte, die weniger unvorhersehbar sind, aber bemerken das Potenzial für unerwünschte Unterdrückung von Ideen bei der Entwicklung solcher Ansätze:

‘Die Beurteilung, ob Inhalt schädlich ist, ist eine heikle Angelegenheit. Es gibt ein wichtiges Gleichgewicht zwischen Informationsfreiheit und dem Schutz von sensiblen Gruppen. Wir glauben, dass diese Arbeit einen Schritt in die richtige Richtung macht, indem sie so transparent wie möglich über die Kriterien ist, die zur Beurteilung der Schädlichkeit verwendet werden. Darüber hinaus glauben wir, dass die Trennung von Schädlichkeit und Angemessenheit ein wichtiger Schritt zur Objektivierung der Klassifizierung von schädlichem Inhalt ist.

‘…Das Erkennen von schädlichem Inhalt ist auch für Online-Plattformen wie YouTube von Interesse. Auf solchen Plattformen wird das Gleichgewicht zwischen Informationsfreiheit und Schutz noch wichtiger und wird durch die proprietäre Natur der Algorithmen, die dafür verantwortlich sind, weiter kompliziert.’

 

Autor über maschinelles Lernen, Domänen-Spezialist in der menschlichen Bildsynthese. Ehemaliger Leiter der Forschungsinhalte bei Metaphysic.ai.