Anderson 视角
“氛围”-基于图像注释的风险

尽管他们只获得了几美元(或甚至没有报酬),那些评估图像中“有害”内容的未知人员可以通过他们的选择改变你的生活。现在,一篇来自Google的新论文似乎表明,这些注释者根据自己的规则判断什么是或不是“有害”或令人反感的内容——无论他们对任何图像的反应多么奇怪或个人化。会有什么问题出现?
观点 本周,Google Research和Google Mind之间的新合作将不少于13位贡献者聚集在一起,共同撰写了一篇新论文</a》,探讨是否应该在评估图像时考虑注释者的“直觉感受”,即使他们的反应不符合既定的评级标准。
这对你来说很重要,因为评估者和注释者根据共识规则认为是冒犯性的内容往往会被纳入自动审查和内容管理系统,以及立法中“淫秽”或“不可接受”材料的标准,例如英国的新NSFW防火墙*(澳大利亚也将推出类似的防火墙),以及社交媒体平台上的内容评估系统等。
因此,冒犯标准越广泛,审查的潜在范围就越大。
氛围审查
这篇论文不仅有这一观点,还发现评估图像的人往往更倾向于审查他们认为可能会冒犯其他人(而不是自己)的内容;低质量图像也经常引起安全问题,尽管图像质量与图像内容无关。
在论文的结论中,作者强调了这两个发现,就好像论文的中心论点已经失败,但研究人员仍然不得不发表。
虽然这种情况并不少见,但在仔细阅读后,论文中有一个更险恶的潜流:注释实践可能会采用我只能描述为氛围注释:
“我们的研究结果表明,现有的框架需要考虑主观和语境维度,例如情感反应、隐含判断和对伤害的文化解读。注释者经常使用情感语言,他们的评估结果与预定义的伤害标签有所不同,突出了当前评估实践中的差距。”
“扩展注释指南以包含多样化的文化和情感解读的示例,可以帮助解决这些差距。”
…(以下内容与原文保持一致,只进行了中文翻译)
