Connect with us

Angle d’Anderson

Les Risques de l’Annotation d’Image Basée sur les « Vibes »

mm
A patron in the museum of banned artifacts. SDXL; Flux; Flux.1 Kontext; Firefly.

Même s’ils ne sont payés que quelques dollars (ou même rien), les personnes inconnues qui évaluent les images pour leur contenu « préjudiciable » peuvent changer votre vie avec les choix qu’elles font. Maintenant, un nouvel article important de Google semble suggérer que ces annotateurs créent leurs propres règles pour déterminer ce qui est ou non « préjudiciable » ou offensant – peu importe à quel point leurs réactions à une image particulière peuvent être bizarres ou personnelles. Qu’est-ce qui pourrait mal se passer ?

 

Opinion Cette semaine, une nouvelle collaboration entre Google Research et Google Mind a réuni pas moins de 13 contributeurs pour un nouvel article qui explore si les « sentiments instinctifs » des annotateurs d’images devraient être pris en compte lors de l’évaluation des images pour les algorithmes, même si leurs réactions ne correspondent pas aux normes de notation établies.

Ceci est important pour vous, car ce que les évaluateurs et les annotateurs trouvent offensant par consensus tendra à devenir ancré dans les systèmes de modération et de censure automatiques, et dans les critères pour le matériel « obscène » ou « inacceptable », dans la législation telle que le nouveau pare-feu NSFW* du Royaume-Uni (une version duquel arrivera en Australie bientôt), et dans les systèmes d’évaluation de contenu sur les plateformes de médias sociaux, entre autres environnements.

Ainsi, plus les critères pour l’offense sont larges, plus le niveau potentiel de censure est large.

Censure basée sur les « vibes »

Ce n’est pas la seule position que l’article nouveau a à offrir ; il constate également que les personnes qui notent les images sont souvent plus censorieuses sur ce qu’elles pensent offenser les autres personnes en plus d’elles-mêmes ; et que les images de mauvaise qualité provoquent souvent des inquiétudes de sécurité, même si la qualité de l’image n’a rien à voir avec le contenu de l’image.

À sa conclusion, l’article met l’accent sur ces deux constatations, comme si la position centrale de l’article avait échoué, mais les chercheurs étaient obligés de publier quand même.

Bien que ce ne soit pas un scénario inhabituel, l’article donne, à la lecture attentive, un sous-courant plus sinistre : que les pratiques d’annotation pourraient considérer l’adoption de ce que je ne peux décrire que comme l’annotation basée sur les « vibes » :

‘Nos résultats suggèrent que les cadres existants doivent tenir compte des dimensions subjectives et contextuelles, telles que les réactions émotionnelles, les jugements implicites et les interprétations culturelles du préjudice. L’utilisation fréquente par les annotateurs d’un langage émotionnel et leur divergence par rapport aux étiquettes de préjudice prédéfinies mettent en évidence les lacunes dans les pratiques d’évaluation actuelles.

‘L’élargissement des lignes directrices d’annotation pour inclure des exemples illustratifs d’interprétations culturelles et émotionnelles diverses peut aider à combler ces lacunes.’

… (le reste du contenu est traduit de la même manière, en respectant les règles et les instructions fournies)

Écrivain sur l'apprentissage automatique, spécialiste de domaine en synthèse d'images humaines. Ancien responsable du contenu de recherche chez Metaphysic.ai.