合成鸿沟
AI 的潜移默化的影响:我们是否把太多权力交给了它?

AI 正在悄悄地(或不那么悄悄地,取决于个人经历)嵌入我们的日常生活中,影响着职场、媒体、治理,甚至我们的文化叙事。虽然围绕人工智能的讨论大多集中在突然、戏剧性的威胁上——比如流氓 人工通用智能(AGI) 或 深度伪造 ——但还有另一个更阴险的风险在起作用: 渐进式的去权力化。
一项由查尔斯大学的 Jan Kulveit 和 Telic 研究的 Raymond Douglas 领导的 最近研究 表明,人工智能的渐进式进步正在稳步地侵蚀人类对关键社会系统的控制。与其说是人工智能的公开反叛,我们正在见证一个缓慢的、系统性的转变,人工智能在经济、治理和文化等关键领域日益取代人类的决策。随着这些技术优化效率、市场价值和预测准确性,人类的能动性正在悄悄地被边缘化。
为什么这很重要?因为维持我们社会与人类价值观一致的机制 —— 经济参与、文化表达和民主治理 —— 正在失去控制。如果不加以制止,人工智能在决策中的日益增长的作用可能会导致人类影响力被边缘化,我们塑造自己未来的能力大大削弱。
人工智能如何重塑经济
该研究提醒我们,人工智能驱动的自动化正在重塑全球劳动力,逐渐取代各行业的人类劳动。虽然人工智能工具可以提高生产力和降低成本,但它们也将财富转移到工人之外,根本改变了财富的流动。随着机器执行曾经依赖于人类认知和专业知识的任务,传统的就业模式正在崩溃,导致不平等和经济流离。
国际货币基金组织(IMF)的一份 报告 表明,人工智能将影响全球近 40% 的工作岗位,取代一些工作岗位并补充其他工作岗位。
人工智能主导的主要经济后果之一是财富集中。开发和控制人工智能系统的公司将不成比例地受益,而工人则面临着更少的机会。这一转变冒着创造一个世界的风险,在这个世界中,财富集中在人工智能驱动的企业中,人类劳动力成为经济中的次要力量。
另一个问题是人工智能在经济决策中的日益增长的作用。从股票市场预测到资源分配,人工智能系统以人类难以匹敌的速度和复杂性运行。虽然这可以带来优化的财务策略,但也从关键决策中去除了人类的判断,增加了经济不稳定的风险。没有适当的保障措施,人工智能驱动的市场可能会将效率和利润置于更广泛的社会福利之上,创造一个有利于人工智能主导实体而非劳动力的体系。
当人工智能支配创造力时
人工智能不仅仅是在协助人类的创造力 —— 它正在积极地塑造文化格局。在音乐、文学和电影等领域, 人工智能生成的内容 正变得越来越普遍,影响着不仅是内容的产生,还有观众与艺术的互动方式。虽然人工智能工具可以通过提供新的技术和灵感来帮助人类艺术家,但它们也引入了风险,这可能会从根本上改变创造性表达。
主要问题之一是 人工智能生成的内容可能会掩盖人类的创造力。由于人工智能系统能够以前所未有的规模生产音乐、文章和视觉艺术,人类和机器制作的内容之间的区别正在变得模糊。这引发了人们对原创性、作者身份和艺术价值的疑问 —— 如果算法支配创作过程,人类表达是否变得过时?
另一个风险是文化的同质化。人工智能模型根据现有数据生成内容,这意味着它们倾向于通过 人工智能偏见 加强主流趋势,而不是鼓励真正的创新。随着时间的推移,针对参与度和算法成功优化的文化生产可能会导致一个创造力被牺牲于效率之下的格局。
除了艺术表达之外,人工智能还在影响社会叙事。人工智能策划的新闻、自动内容审查和有针对性的媒体推荐塑造着公共话语,过滤人们看到和互动的内容。这创造了一个现实,人工智能不仅放大某些观点,还决定哪些文化叙事蓬勃发展,哪些渐渐消失。如果不加以控制,人工智能对媒体和通信的日益增长的影响可能会侵蚀人类驱动的文化表达的多样性和自主性。
人工智能与治理的未来
人工智能也正在成为政治和行政决策中的强大力量,从预测性执法到自动化社会服务。世界各地的政府正在将人工智能整合到他们的行政框架中,优化运营以提高效率和可扩展性。然而,这一转变也引发了人们对公民参与和民主影响的侵蚀的担忧。
研究团队强调的主要问题之一是,随着人工智能在治理中变得更加根深蒂固,国家可能会将技术效率置于人类权利和公民参与之上。人工智能驱动的决策可以简化官僚主义,但也可以使公共服务失去人性,降低问责制和透明度。例如,用于福利分配或法律案件评估的自动化系统可能会将数据驱动的效率置于个人的细致需求之上。
还存在人工智能驱动的国家演变成类似企业的实体的风险,治理优化的是机构稳定而非公共利益。人工智能驱动的监视、预测执行和自动化政策制定可能会导致政府在决策中减少公民的参与,进一步削弱人类在治理中的影响力。
这只是另一个人工智能恐慌吗?
怀疑者可能会认为人工智能只是另一个技术进步,类似于过去的工业革命。然而,该研究强调这不是关于突然的人工智能主导,而是一种结构性的转变,即权力在社会中运作的方式。与过去的技术颠覆不同,人工智能不仅改变了行业 —— 它积极地取代了人类在决策过程中的角色,横跨多个社会领域。
人类影响力的逐渐侵蚀并不需要超级智能就能构成危险。即使没有恶意的意图,人工智能系统也会逐渐取代人类的判断,导致一个未来,人们对塑造自己生活的力量的控制力越来越小。挑战不在于阻止人工智能的进步,而在于确保它仍然与人类的价值观保持一致,并且人类在关键的社会功能中保持有意义的控制。
为了减轻渐进式人工智能去权力化的风险,研究团队建议我们需要采取积极的措施来保护经济、文化和政府系统中的人类影响力。
- 实施人工智能监督政策:政府和机构必须确保人工智能驱动的决策保持透明,并且受到人类的审查。应建立机制以防止人工智能做出影响基本权利的自主选择。
- 加强民主参与:随着人工智能在治理中扮演更大的角色,民主机构必须适应。这可能包括人工智能辅助投票系统,旨在增强公民参与而非削弱它。
- 保持人工智能领域和经济领域中的人类影响力:应引入法规以保持人工智能生成内容和人类创造内容之间的平衡,确保人类的创造力和劳动力不会被掩盖。
该研究强调,渐进式去权力化的风险并不是一个遥远的假设 —— 它已经在发生。解决这个问题需要国际合作、对系统范围内的人工智能对齐进行研究,以及对人工智能在社会中的作用进行积极的公共讨论。未来并不是预先确定的,有了适当的干预,我们可以确保人工智能增强人类的能动性,而不是削弱它。












