存根 人工智能是一种生存威胁吗? - 联合人工智能
关注我们.

人工智能

人工智能是一种生存威胁吗?

mm
更新 on

在讨论人工智能 (AI) 时,常见的争论是人工智能是否构成生存威胁。答案需要了解机器学习 (ML) 背后的技术,并认识到人类有拟人化的倾向。我们将探讨两种不同类型的人工智能,即现已可用并引起关注的狭义人工智能(ANI),以及与人工智能的世界末日表现最常相关的威胁,即通用人工智能(AGI)。

狭义人工智能威胁

要了解 ANI 是什么,您只需了解当前可用的每个 AI 应用程序都是 ANI 的一种形式。 这些是具有狭窄专业领域的人工智能领域,例如自动驾驶汽车使用人工智能,其设计的唯一目的是将车辆从 A 点移动到 B 点。另一种类型的 ANI 可能是经过优化的国际象棋程序国际象棋,即使国际象棋程序通过使用强化学习不断改进自身,国际象棋程序也永远无法操作自动驾驶汽车。

由于 ANI 系统专注于其负责的任何操作,因此无法使用广义学习来统治世界。 这是个好消息; 坏消息是,由于人工智能系统依赖人类操作员,因此很容易受到有偏见的数据、人为错误的影响,甚至更糟糕的是,受到流氓操作员的影响。

人工智能监控

对人类来说,可能没有比人类利用人工智能侵犯隐私、甚至在某些情况下利用人工智能监控完全阻止人们自由行动更大的危险了。  中国、俄罗斯和其他国家在 COVID-19 期间通过了法规 使他们能够监测和控制各自人口的流动。 这些法律一旦制定就很难废除,特别是在以独裁领导人为特征的社会中。

在中国,摄像头安装在人们的家外,有时甚至安装在人们的家中。 每次家庭成员离开时,人工智能都会监控到达和离开的时间,并在必要时向当局发出警报。 似乎这还不够,在面部识别技术的帮助下,中国能够在每次被摄像头识别时跟踪每个人的活动。 这为控制人工智能的实体提供了绝对的权力,并为其公民提供了绝对的零追索权。

为什么这种情况很危险,因为腐败的政府可以仔细监视记者、政治对手或任何敢于质疑政府权威的人的行动。 当每一个行动都受到监控时,记者和公民在批评政府时会持谨慎态度,这是很容易理解的。

幸运的是,许多城市正在努力防止面部识别渗透到他们的城市。 尤其, 俄勒冈州波特兰市最近通过了一项法律 这阻止了面部识别在城市中不必要的使用。 虽然这些监管变化可能没有被公众注意到,但在未来,这些监管可能会成为提供某种自治和自由的城市与感到压抑的城市之间的区别。

自主武器和无人机

超过 4500 名人工智能研究人员一直呼吁禁止自主武器,并创建了 禁止致命自主武器 网站。 该组织有许多著名的非营利组织作为签署者,例如 人权观察, 大赦国际,并 生命的未来研究所 它本身拥有一个出色的科学顾问委员会,包括埃隆·马斯克、尼克·博斯特罗姆和斯图尔特·拉塞尔。

在继续之前,我将分享生命未来研究所的这句话,它最好地解释了为什么有明显的担忧:“与需要人类监督以确保每个目标在道德和法律上合法的半自主武器相比,例如完全自主的武器无需人工干预即可选择和攻击目标,这代表了致命伤害的完全自动化。 ”

目前,智能炸弹是根据人类选择的目标来部署的,然后炸弹使用人工智能来绘制路线并降落在目标上。 问题是,当我们决定将人类完全排除在外时会发生什么?

当人工智能选择人类需要瞄准的目标以及被认为可以接受的附带损害类型时,我们可能已经跨越了一个不归路。 这就是为什么如此多的人工智能研究人员反对研究任何与自主武器远程相关的东西。

仅仅试图阻止自主武器研究会带来很多问题。 第一个问题是,即使加拿大、美国和大多数欧洲国家等发达国家选择同意这项禁令,也不意味着中国、朝鲜、伊朗和俄罗斯等流氓国家会配合。 第二个也是更大的问题是,专为某一领域而设计的人工智能研究和应用程序可能会被用于完全不相关的领域。

例如,计算机视觉不断改进,对于开发自动驾驶汽车、精准医疗和其他重要用例非常重要。对于普通无人机或可以改装成自主的无人机来说,这也至关重要。先进无人机技术的一个潜在用例是开发能够监测和扑灭森林火灾的无人机。这将彻底使消防员免受伤害。为了做到这一点,您需要建造能够飞向危险区域、在低能见度或零能见度下导航、并且能够以无可挑剔的精度投放水的无人机。在旨在选择性地瞄准人类的自主无人机中使用这种相同的技术并不遥远。

这是一个危险的困境,目前,没有人完全理解推进或试图阻止自主武器发展的影响。 尽管如此,这仍然是我们需要密切关注的事情,加强 举报人保护 可以使现场人员举报滥用行为。

撇开流氓操作员不谈,如果人工智能偏见渗透到旨在成为自主武器的人工智能技术中,会发生什么?

人工智能偏见

人工智能最未被报道的威胁之一是人工智能偏见。 这很容易理解,因为大多数都是无意的。 当人工智能审查人类提供给它的数据时,人工智能偏见就会出现,并使用输入给人工智能的数据的模式识别,人工智能会错误地得出可能对社会产生负面影响的结论。 例如,人工智能如果接受了上个世纪关于如何识别医务人员的文献,可能会得出不受欢迎的性别歧视结论: 女人永远是护士,男人永远是医生.

更危险的情况是 用于判刑已定罪罪犯的人工智能存在偏见 争取延长少数族裔的刑期。 人工智能的犯罪风险评估算法只是研究输入系统的数据模式。 该数据表明,历史上某些少数群体更有可能再次犯罪,即使这是由于可能受到警察种族定性影响的不良数据集造成的。 然后,带有偏见的人工智能会强化负面的人类政策。 这就是为什么人工智能应该成为指导方针,而不是法官和陪审团。

回到自主武器,如果我们有一个对某些种族有偏见的人工智能,它可以根据有偏见的数据选择针对某些个人,甚至可以确保任何类型的附带损害对某些人群的影响小于其他人群。 例如,当针对恐怖分子时,可以等到恐怖分子被穆斯林信仰而不是基督徒包围时再进行攻击。

幸运的是,事实证明,由多元化团队设计的人工智能不太容易出现偏见。 这足以让企业在可能的情况下尝试雇用一支多元化的全面团队。

通用人工智能威胁

应该指出的是,虽然人工智能正在以指数级的速度发展,但我们仍然没有实现通用人工智能。 我们何时实现通用人工智能尚有争议,每个人对于时间表都有不同的答案。 我个人赞同雷·库兹韦尔(Ray Kurzweil)的观点,他是发明家、未来学家,也是《奇点临近》的作者,他相信我们将会 到 2029 年实现 AGI.

AGI 将成为世界上最具变革性的技术。 在人工智能达到人类水平智能后的几周内,它将达到 超智能 它被定义为远远超过人类的智力。

凭借这种智能水平,AGI 可以快速吸收所有人类知识,并使用模式识别来识别导致健康问题的生物标志物,然后使用数据科学来治疗这些疾病。 它可以制造进入血液以瞄准癌细胞或其他攻击载体的纳米机器人。 AGI 能够实现的成就是无限的。 我们之前已经探讨过一些 AGI 的好处.

问题是人类可能不再能够控制人工智能。 埃隆·马斯克是这样描述的:”借助人工智能,我们正在召唤恶魔.' 问题是我们能控制这个恶魔吗?

除非人工智能离开模拟环境并在我们的开放世界中真正互动,否则实现通用人工智能可能根本不可能。 自我意识无法被设计,而是被认为是一种 涌现意识 当人工智能拥有具有多个输入流的机器人身体时,它可能会进化。 这些输入可能包括触觉刺激、具有增强的自然语言理解的语音识别以及增强的计算机视觉。

先进的人工智能可能会出于利他动机并想要拯救地球。 不幸的是,人工智能可能会使用 数据科学,甚至是 决策树 得出不必要的错误逻辑,例如评估有必要对人类进行绝育,或消除一些人口以控制人口过剩。

在构建远远超过人类智能的人工智能时,需要进行仔细的思考和深思熟虑。 人们已经探索过许多噩梦般的场景。

尼克·博斯特罗姆教授在回形针最大化争论中 有人认为,配置错误的通用人工智能如果被指示生产回形针,就会消耗地球上所有的资源来生产这些回形针。 虽然这似乎有点牵强,但更务实的观点是,AGI 可能被流氓国家或道德差的公司控制。 该实体可以训练 AGI 实现利润最大化,在这种情况下,如果编程不佳且零悔意,它可能会选择让竞争对手破产、破坏供应链、入侵股市、清算银行账户或攻击政治对手。

这时我们需要记住,人类倾向于拟人化。 我们无法赋予人工智能人类的情感、需求或欲望。 虽然有些邪恶的人类为了取乐而杀人,但没有理由相信人工智能会容易受到这种行为的影响。 人类甚至无法想象人工智能会如何看待世界。

相反,我们需要做的是教导人工智能始终尊重人类。 人工智能应该始终由人类确认设置的任何更改,并且应该始终存在故障安全机制。 话又说回来,有人认为人工智能只会在云中自我复制,当我们意识到它具有自我意识时可能为时已晚。

这就是为什么尽可能多地开源人工智能并就这些问题进行理性讨论如此重要。

总结

人工智能面临很多挑战,幸运的是,我们还有很多年的时间来共同找出我们希望 AGI 走的未来道路。 短期内,我们应该专注于创建一支多元化的人工智能劳动力队伍,其中包括尽可能多的女性和男性,以及尽可能多的具有不同观点的种族群体。

我们还应该为从事人工智能研究的研究人员建立举报人保护,我们应该通过法律和法规,防止广泛滥用国家或公司范围的监视。 人类有千载难逢的机会在人工智能的帮助下改善人类状况,我们只需要确保我们仔细创建一个社会框架,最好地实现积极的一面,同时减轻包括生存威胁在内的消极一面。

Unite.AI 创始合伙人 & 会员 福布斯技术委员会, 安托万是一个 未来学家 他对人工智能和机器人技术的未来充满热情。

他也是 证券,一个专注于投资颠覆性技术的网站。