伦理
AI 领导者警告“灭绝风险”

在一个以快速技术进步为标志的时代,人工智能(AI)的崛起站在创新前沿。然而,这同样是人类智慧的奇迹,它既推动进步和便利,也引发了对人类未来的生存问题的担忧,如著名的AI领导者所言。
Centre for AI Safety最近发布了一份声明,得到了OpenAI的Sam Altman、Google DeepMind的Demis Hassabis和Anthropic的Dario Amodei等行业先驱的支持。情绪很明确 – 人类因AI而面临的灭绝风险应该成为全球优先事项。该声明在AI社区引发了辩论,一些人驳斥了这些担忧是夸张的,而其他人支持呼吁谨慎。
可怕的预测:AI的灾难潜力
Centre for AI Safety概述了多种潜在的灾难场景,这些场景源于AI的滥用或失控增长。其中包括AI的武器化、通过AI生成的虚假信息破坏社会稳定,以及对AI技术的日益垄断控制,从而使得普遍的监控和压制性审查成为可能。
弱化的场景也被提及,人类可能过度依赖AI,类似于《瓦力》电影中描绘的情景。这种依赖可能使人类变得脆弱,引发了严重的道德和生存问题。
Geoffrey Hinton博士是该领域的受人尊敬的人物,也是关于超级智能AI的谨慎呼吁的积极倡导者,他支持Centre的警告,蒙特利尔大学计算机科学教授Yoshua Bengio也支持这一警告。
异议的声音:关于AI潜在危害的辩论
相反,AI社区中有一部分人认为这些警告是夸张的。纽约大学教授和Meta的AI研究员Yann LeCun曾经表达过他对这些“世界末日预言”的恼怒。批评者认为,这样的灾难预测会分散人们对现有AI问题的注意力,例如系统偏见和道德考虑。
普林斯顿大学计算机科学家Arvind Narayanan建议,当前的AI能力远远没有达到灾难场景的程度。他强调了关注当前AI相关危害的必要性。
同样,牛津大学AI伦理研究所的高级研究员Elizabeth Renieris分享了她对近期风险的担忧,例如偏见、歧视性决策、虚假信息传播和社会分裂,这些都是由AI进步引起的。AI的学习能力和人类创造的内容相关,引发了人们对财富和权力从公众转移到少数私人实体的担忧。
平衡行为:在当前问题和未来风险之间找到平衡
虽然承认了多样化的观点,Centre for AI Safety的主任Dan Hendrycks强调,解决当前问题可以为减轻未来风险提供路线图。探索的目标是平衡利用AI的潜力和安装防止其滥用的安全措施。
关于AI的生存威胁的辩论并非新鲜事。它在2023年3月获得了动力,当时包括Elon Musk在内的几位专家签署了一封公开信,呼吁停止下一代AI技术的开发。讨论自此演变,最近的讨论将潜在风险与核战争的风险进行了比较。
前进之路:警惕和监管措施
随着AI在社会中发挥着越来越重要的作用,必须记住,这项技术是一把双刃剑。它既承诺进步,也对人类构成生存风险,如果不加控制。围绕AI的潜在危险的讨论凸显了全球合作的必要性,以定义道德准则,创建强大的安全措施,并确保AI的开发和使用采取负责任的态度。












