Connect with us

人工智能

西方偏见在人工智能中:为什么缺乏全球视角

mm
Western Bias in AI

一个 人工智能助手 对一个简单的问题给出了不相关或令人困惑的回答,暴露了一个重大的问题,因为它难以理解文化细微差别或语言模式以外的训练。这一场景对于依赖人工智能的数十亿人来说是典型的,他们依赖人工智能来获取医疗保健、教育或工作支持等基本服务。对于许多人来说,这些工具往往无法满足他们的需求,甚至完全排除了他们的需求。

人工智能系统主要由西方语言、文化和观点驱动,创造了一个狭隘和不完整的世界表现。这些系统建立在有偏见的数据集和算法之上,无法反映全球人口的多样性。这种影响不仅仅是技术限制,还加剧了社会不平等和扩大了鸿沟。解决这种不平衡对于实现和利用人工智能的潜力以服务所有人类而不是仅仅服务特权阶层至关重要。

了解人工智能偏见的根源

人工智能偏见不仅仅是一个错误或疏忽。它源于人工智能系统的设计和开发方式。历史上,人工智能研究和创新主要集中在西方国家。这一集中导致英语成为学术出版、数据集和技术框架的主要语言。因此,人工智能系统的基础设计往往无法包括全球文化和语言的多样性,留下了大量的区域没有代表。

人工智能中的偏见通常可以分为算法偏见和数据驱动偏见。算法偏见发生在人工智能模型中的逻辑和规则偏向特定的结果或人群。例如,基于历史就业数据训练的招聘算法可能无意中偏向特定的人口统计,强化系统性歧视。

数据驱动偏见则源于使用反映现有社会不平等的数据集。例如,面部识别技术经常在较浅肤色的个体上表现更好,因为训练数据集主要由西方地区的图像组成。

2023年,人工智能现在研究所的一份报告强调了人工智能开发和权力在西方国家的集中,特别是在美国和欧洲,主要科技公司主导了该领域。同样,2023年斯坦福大学人工智能指数报告强调了这些地区对全球人工智能研究和开发的重大贡献,反映了西方在数据集和创新方面的明显主导地位。

这种结构性不平衡要求人工智能系统采取更具包容性的方法,代表全球人口的多样化观点和现实。

文化和地理差异在人工智能中的全球影响

西方中心数据集的主导地位在人工智能系统中创造了显著的文化和地理偏见,这限制了它们对多样化人群的有效性。例如,虚拟助手可能很容易识别西方社会中常见的习语表达或引用,但往往无法对来自其他文化背景的用户做出准确的响应。关于当地传统的问题可能会得到模糊或不正确的回答,反映出系统缺乏文化意识。

这些偏见超出了文化误代表征,并被地理差异进一步放大。人工智能训练数据主要来自北美和欧洲的城市、连接良好的地区,并不能充分代表农村地区和发展中国家。这对关键领域产生了严重的后果。

农业人工智能工具,旨在预测作物产量或检测害虫,通常在非洲或东南亚等地区无法正常工作,因为这些系统不适应这些地区的独特环境条件和耕作实践。同样,医疗保健人工智能系统通常在西方医院的数据上进行训练,难以为世界其他地区的人口提供准确的诊断。研究表明,主要在较浅肤色上训练的皮肤病人工智能模型在测试不同肤色时准确率会显著下降。例如,2021年的一项研究发现,用于皮肤疾病检测的人工智能模型在应用于包括较暗肤色在内的数据集时准确率下降了29-40%。这些问题超出了技术限制,反映了在全球范围内拯救生命和改善健康结果的迫切需要。

社会影响深远。旨在赋予个人权力的人工智能系统往往制造障碍。由人工智能驱动的教育平台往往优先考虑西方课程,留下其他地区的学生无法获取相关或本地化的资源。语言工具经常无法捕捉当地方言和文化表达的复杂性,使其对全球人口的大部分无效。

人工智能中的偏见可以强化有害的假设并加剧系统性不平等。面部识别技术,例如,面临着对民族少数群体错误率更高的批评,导致了严重的现实世界后果。2020年,罗伯特·威廉姆斯,一位黑人,在底特律因面部识别错误匹配而被错误逮捕,这突出了此类技术偏见的社会影响。

从经济角度来说,忽视人工智能开发中的全球多样性可以限制创新并降低市场机会。忽视多样化观点的公司冒着疏远大量潜在用户的风险。2023年,麦肯锡报告估计,生成性人工智能可以每年为全球经济贡献2.6万亿美元至4.4万亿美元。然而,实现这一潜力取决于创建包容性的人工智能系统,以满足全球各地不同人群的需求。

通过解决偏见并扩大人工智能开发中的代表性,公司可以发现新的市场,推动创新,并确保人工智能的好处在全球范围内公平地惠及所有地区。这凸显了在设计、数据和开发中优先考虑包容性的经济必要性。

语言作为包容性的障碍

语言与文化、身份和社区密切相关,但人工智能系统往往无法反映这种多样性。包括虚拟助手和聊天机器人在内的大多数人工智能工具在少数广泛使用的语言中表现良好,但忽略了代表性较少的语言。这一不平衡意味着土著语言、区域方言和少数语言很少被支持,从而进一步边缘化使用这些语言的社区。

虽然像谷歌翻译这样的工具已经改变了沟通,但它们仍然难以处理许多语言,特别是那些具有复杂语法或有限数字存在的语言。这一排除意味着数百万个人工智能驱动的工具仍然无法访问或无效,扩大了数字鸿沟。2023年,联合国教科文组织的一份报告揭示,全球40%以上的语言面临消失的风险,而这些语言在人工智能系统中的缺席加剧了这一损失。

人工智能系统通过优先考虑世界语言多样性中的一小部分来强化西方在技术中的主导地位。解决这一差距对于确保人工智能真正包容并服务全球各地的社区至关重要,无论他们说什么语言。

解决人工智能中的西方偏见

解决人工智能中的西方偏见需要对人工智能系统的设计和训练方式进行重大改变。第一步是创建更具多样性的数据集。人工智能需要多语言、多文化和区域代表性的数据来服务全球各地的人口。像马萨卡内这样的项目支持非洲语言,而AI4Bharat专注于印度语言,都是包容性人工智能开发如何成功的优秀例子。

技术也可以帮助解决这个问题。联邦学习允许从代表性不足的地区收集和训练数据,而不危及隐私。可解释人工智能工具可以更容易地发现和纠正偏见。然而,仅靠技术是不够的。政府、民间组织和研究人员必须共同努力来填补空白。

法律和政策也发挥着至关重要的作用。政府必须制定要求人工智能训练中使用多样化数据的规则。他们应该让公司对有偏见的结果负责。同时,倡导团体可以提高人们的认识并推动改变。这些行动确保人工智能系统代表世界的多样性并公平地服务所有人。

此外,合作与技术和法规一样重要。来自欠发达地区的开发人员和研究人员必须参与人工智能的创作过程。他们的见解可以确保人工智能工具在不同社区中具有文化相关性和实用性。科技公司也有责任在这些地区投资。这意味着资助当地研究,雇用多样化的团队,并建立专注于包容性的伙伴关系。

结论

人工智能有潜力改变生活,弥合差距,创造机会,但只有当它为所有人服务时。 当人工智能系统忽视全球文化、语言和观点的丰富多样性时,它们就无法兑现其承诺。 人工智能中的西方偏见问题不仅仅是一个技术缺陷,也是一个需要立即关注的问题。 通过在设计、数据和开发中优先考虑包容性,人工智能可以成为一种提升所有社区的工具,而不仅仅是服务特权阶层。

阿萨德·阿巴斯博士(Dr. Assad Abbas)是巴基斯坦伊斯兰堡COMSATS大学的终身副教授,他在美国北达科他州立大学获得了博士学位。他的研究重点是包括云计算、雾计算、边缘计算、大数据分析和人工智能在内的先进技术。阿巴斯博士在著名的科学期刊和会议上发表了大量的论文,并做出了重要的贡献。他也是 MyFastingBuddy 的创始人。