Connect with us

未来主义系列

人工智能会接管世界吗?它已经接管了

mm

2019年,一种设想突然出现在我脑海中——一个人工智能(AI)以难以置信的速度加速发展的未来,人工智能将渗透到我们生活的每个方面。阅读雷·库兹韦尔(Ray Kurzweil)的《奇点临近》(The Singularity is Near)后,我被指数增长的不可避免的轨迹所吸引。未来不仅仅在地平线上;它正在向我们飞速而来。很明显,随着计算能力的无情加倍,人工智能有一天将超越所有人类能力,并最终以科幻小说中曾经描绘的方式重塑社会。

由此启发,我注册了Unite.ai,感觉这些人工智能技术的下一个飞跃不仅会提高世界的水平,而且会从根本上重新定义它。生活的每个方面——我们的工作,我们的决定,我们对智慧和自主性的定义——都将受到人工智能的影响,甚至可能被人工智能所支配。问题不再是这种转变是否会发生,而是何时以及人类将如何管理其前所未有的影响。

当我深入研究时,指数增长所描绘的未来景象似乎既令人兴奋又不可避免。这种增长,以摩尔定律(Moore’s Law)为例,很快就会将人工智能推向超越狭隘、特定任务的角色,发展成为更为深刻的东西:通用人工智能(AGI)的出现。与今天的人工智能不同,今天的人工智能擅长于狭隘的任务,AGI将具备与人类智慧相似的灵活性、学习能力和认知范围——能够理解、推理和适应任何领域。

每一次计算能力的飞跃都使我们更接近AGI,这是一种能够解决问题、产生创造性想法,甚至做出道德判断的智能。它不仅仅会执行计算或解析大量数据;它会以人类无法做到的方式识别模式,感知复杂系统中的关系,并根据理解而不是编程来规划未来。AGI有一天可能会成为人类的副驾驶,利用超出我们能力的洞察力和速度来解决气候变化、疾病和资源匮乏等危机。

然而,这种愿景也带来了重大风险,特别是如果人工智能落入具有恶意意图的个人的控制之下,或者更糟糕的是,独裁者。通往AGI的道路提出了关于控制、伦理和人类未来的关键问题。辩论不再是AGI是否会出现,而是何时出现,以及我们将如何管理它带来的巨大责任。

人工智能和计算能力的演变:1956年至今

从20世纪中叶开始,人工智能的发展一直伴随着计算能力的指数增长。这种演变符合摩尔定律等基本法则,这些法则预测和强调了计算机能力的增加。这里,我们探讨人工智能旅程中的关键里程碑,检查其技术突破和对世界日益增长的影响。

1956年 – 人工智能的诞生

这段旅程始于1956年,当时达特茅斯会议(Dartmouth Conference)标志着人工智能作为一个领域的官方诞生。研究人员如约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)、纳撒尼尔·罗切斯特(Nathaniel Rochester)和克劳德·香农(Claude Shannon)聚集在一起,讨论如何让机器模拟人类智能。尽管当时的计算资源原始,只能执行简单的任务,但这次会议为数十年的创新奠定了基础。

1965年 – 摩尔定律和指数增长的黎明

1965年,英特尔联合创始人戈登·摩尔(Gordon Moore)做出了一个预测,即计算能力大约每两年就会加倍——现在被称为摩尔定律(Moore’s Law)。这种指数增长使得人工智能能够执行以前不可能的复杂任务,使机器能够突破以前可能的界限。

1980年代 – 机器学习的崛起

1980年代见证了机器学习的重大进步,允许人工智能系统从数据中学习并做出决定。1986年反向传播算法(backpropagation algorithm)的发明使神经网络能够通过学习错误来改进。这些进步将人工智能从学术研究推向了现实世界的问题解决,提出了关于人工智能系统自主性的伦理和实际问题。

1990年代 – 人工智能征服国际象棋

1997年,IBM的深蓝(Deep Blue)在一场完整的比赛中击败了世界象棋冠军加里·卡斯帕罗夫(Garry Kasparov),标志着人工智能的一个重要里程碑。这是计算机首次在战略性思考方面超越人类大师,巩固了人工智能作为一种强大的计算工具的地位。

2000年代 – 大数据、GPU和人工智能的复兴

2000年代迎来了大数据和图形处理单元(GPU)的时代,通过使算法能够在大量数据集上进行训练,从而彻底改变了人工智能。最初为渲染图形而开发的GPU已成为加速数据处理和推进深度学习的必备工具。这个时期见证了人工智能扩展到图像识别和自然语言处理等应用,转变为模仿人类智慧的实用工具。

2010年代 – 云计算、深度学习和赢得围棋

云计算和深度学习的出现使人工智能达到前所未有的高度。像亚马逊网络服务和谷歌云这样的平台使强大的计算资源民主化,使较小的组织能够利用人工智能的能力。
2016年,DeepMind的AlphaGo击败了世界顶级围棋选手李世石,展示了人工智能系统在掌握战略深度和复杂性著名的游戏方面的适应性。

2020年代 – 人工智能的民主化、大型语言模型和Dota 2

2020年代见证了人工智能变得比以往任何时候都更易用和更强大。像GPT-3和GPT-4这样的模型展示了人工智能处理和生成类似人类文本的能力。与此同时,自主系统方面的创新将人工智能推到了新的领域,包括医疗保健、制造业和实时决策。
在电子竞技中,OpenAI的机器人实现了击败专业Dota 2队伍的显著壮举,展示了人工智能在动态环境中协作、适应策略和超越人类玩家的能力。

人工智能是否正在接管世界?

关于人工智能是否“接管世界”的问题并非完全假设。人工智能已经融入了生活的各个方面,从虚拟助手到医疗保健和金融中的预测分析,其影响范围不断扩大。然而,“接管”可以根据我们如何解释控制、自主性和影响而有不同的含义。

推荐系统的隐性影响

人工智能以最有力的方式之一潜移默化地支配我们的生活,是通过像YouTube、Facebook和X这样的平台上的推荐引擎。这些算法在人工智能系统上运行,分析偏好和行为,以提供符合我们兴趣的内容。表面上,这似乎是有益的,提供了个性化的体验。然而,这些算法不仅会对我们的偏好做出反应;它们积极地塑造我们的偏好,影响我们所相信的、所感受到的以及我们如何看待周围的世界。

  • YouTube的AI: 这个推荐系统通过提供符合我们兴趣的视频来吸引用户观看数小时的内容。但是,当它优化用户参与度时,它经常将用户引向激进化的途径或向他们推送耸人听闻的内容,放大偏见并偶尔推广阴谋论。
  • 社交媒体算法: 像Facebook、Instagram和X这样的网站优先考虑情感化内容以驱动用户参与度,从而在用户中创造了回音室。这些泡沫加强了用户的偏见,并限制了他们接触到相反观点的机会,导致了两极分化的社区和扭曲的现实感知。
  • 内容推送和新闻聚合器: 像Google News这样的平台根据过去的交互定制我们看到的新闻,创建了一个扭曲的当前事件版本,阻止用户访问多样化的观点,进一步将他们孤立在意识形态泡沫中。

这种沉默的控制不仅仅是关于参与度指标;它还可以微妙地影响公众舆论,甚至影响关键决策——例如,人们如何在选举中投票。通过战略性的内容推荐,人工智能有力量影响公众舆论,塑造政治叙事,并影响选民行为。这对选举结果有着重大的影响,如世界各地的选举所示,回音室和有针对性的虚假信息已经被证明会影响选举结果。
这就是为什么讨论政治或社会问题往往会导致人们的观点似乎完全不同,因为这些观点是由误导信息、宣传和虚假信息塑造和强化的。
推荐引擎以我们可能没有意识到的方式深刻地塑造着社会的世界观,尤其是考虑到虚假信息比真实信息更容易被分享六倍的事实。对一个阴谋论的轻微兴趣可能会导致整个YouTube或X的信息流被虚构的故事所主导,可能是由故意操纵或如前所述的计算宣传驱动的。
计算宣传是指使用自动化系统、算法和数据驱动的技术来操纵公众舆论和影响政治结果。这通常涉及部署机器人、假账户或算法放大来传播虚假信息、虚假信息或有争议的内容到社交媒体平台。目标是塑造叙事、放大特定的观点并利用情感反应来影响公众认知或行为,通常以精确的目标和规模来实现。
这种宣传是为什么选民经常投票反对自己的利益的原因,投票是由这种计算宣传所左右的。
垃圾进,垃圾出“(GIGO)在机器学习中意味着输出质量完全取决于输入数据的质量。如果模型是在有缺陷、有偏见或质量低劣的数据上训练的,它将产生不可靠或不准确的结果,无论算法多么复杂。
这种概念也适用于人类,在计算宣传的背景下。就像有缺陷的输入数据会损害人工智能模型一样,持续接触虚假信息、有偏见的叙事或宣传会扭曲人类的认知和决策。当人们在线上消费“垃圾”信息——虚假信息、虚假信息或情感化但虚假的叙事——时,他们很可能会形成意见、做出决定并采取行动,基于扭曲的现实。
在这两种情况下,系统(无论是算法还是人类大脑)都会处理输入,并且有缺陷的输入会导致有缺陷的结论。计算宣传通过向信息生态系统中注入“垃圾”来利用这一点,确保人们内化和传播这些不准确之处,最终以规模化的方式影响社会行为和信仰。

自动化和工作岗位流失

由人工智能驱动的自动化正在重塑工作的整个格局。在制造业、客户服务、物流,甚至创意领域,自动化正在推动工作方式和谁来完成工作的深刻转变。人工智能系统的效率和成本节约对企业来说是不可否认的,但这种快速采用也提出了关于工作未来和对员工的潜在影响的重要经济和社会问题。
在制造业中,机器人和人工智能系统处理装配线、质量控制,甚至可以执行以前需要人类干预的高级问题解决任务。传统的角色,从工厂操作员到质量保证专家,都被减少,因为机器以速度、精度和最小的错误处理重复性任务。在高度自动化的设施中,人工智能可以学习识别缺陷、确定改进领域,甚至可以预测在问题出现之前的维护需求。虽然这导致产量增加和利润提高,但也意味着传统制造业地区的入门级工作岗位减少,尤其是在制造业曾经提供稳定就业的地区。
客户服务角色也正在经历类似的转变。人工智能聊天机器人、语音识别系统和自动化客户支持解决方案正在减少对大型由人类代理员工的呼叫中心的需求。今天的人工智能可以处理询问、解决问题,甚至处理投诉,通常比人类代表更快。这些系统不仅具有成本效益,而且24/7可用,使其成为企业的有吸引力的选择。然而,对于员工来说,这种转变减少了在最大的就业部门中的机会,特别是对于没有高级技术技能的个人。
创意领域,长期以来被认为是人类独有的领域,现在也正在受到人工智能自动化的影响。生成式人工智能模型可以产生文本、艺术、音乐,甚至设计布局,减少了对人类作家、设计师和艺术家的需求。虽然人工智能生成的内容和媒体通常用于补充人类的创造力,而不是取代它,但人工智能和人类创造力之间的界限正在变得越来越薄。这导致了对创造性工作的价值和市场需求的重新评估。

对决策的影响

人工智能系统正在迅速成为各个领域的高风险决策过程中的必备组成部分,从法律判决到医疗保健诊断。这些系统,通常利用大量数据和复杂算法,提供了对个人和社会具有重大影响的洞察力、预测和建议。虽然人工智能分析数据和发现隐藏模式的能力可以大大增强决策,但也引入了关于透明度、偏见、问责制和人类监督的重大伦理问题。

人工智能在法律判决和执法中的应用

在司法系统中,人工智能工具现在用于评估判决建议、预测再犯率,甚至在保释决定中提供帮助。这些系统分析历史案例数据、人口统计和行为模式,以确定再犯的可能性,这是一个影响司法判决和假释的因素。然而,人工智能司法带来了严重的伦理挑战:

  • 偏见和公平性: 如果人工智能模型是在有偏见的数据上训练的,它们可能会继承这些偏见,导致某些群体受到不公平的对待。例如,如果一个数据集反映出某些人口的更高逮捕率,人工智能可能会不公平地将这些特征与更高的风险联系起来,延续司法系统中的系统性偏见。
  • 缺乏透明度: 用于执法和判决的算法通常作为“黑盒子”运行,这意味着它们的决策过程对于人类来说不容易解释。这种不透明度使得努力让这些系统承担责任变得困难,因为很难理解或质疑特定人工智能驱动决策背后的推理。
  • 对人类代理的影响: 高风险背景下的人工智能建议,特别是,可能会导致法官或假释委员会在没有彻底审查的情况下遵循人工智能的指导,意外地将人类的判断力降低到次要地位。这一转变引发了人们对在直接影响人类自由和尊严的问题上过度依赖人工智能的担忧。

人工智能在医疗保健和诊断中的应用

在医疗保健领域,人工智能驱动的诊断和治疗规划系统提供了改善患者结果的突破性潜力。人工智能算法分析医疗记录、图像和基因信息,以更准确地检测疾病、预测风险和推荐治疗,甚至超过人类医生。然而,这些进步带来了挑战:

  • 信任和问责制: 如果人工智能系统误诊或未能检测到严重的健康问题,关于责任的疑问就会出现。是医疗保健提供者、人工智能开发者还是医疗机构负责?这种模糊性使得人工智能诊断中的责任和信任变得复杂,尤其是这些系统变得越来越复杂。
  • 偏见和健康不平等: 与司法系统类似,医疗保健人工智能模型也可能继承训练数据中的偏见。例如,如果人工智能系统是在缺乏多样性的数据集上训练的,它可能会为代表性不足的群体产生不那么准确的结果,可能导致医疗保健和结果中的差异。
  • 知情同意和患者理解: 当人工智能用于诊断和治疗时,患者可能不完全理解建议是如何生成的或人工智能驱动的决策所带来的风险。这种缺乏透明度会影响患者对医疗保健选择的自主权,提出了关于自主权和知情同意的疑问。

人工智能在金融决策和招聘中的应用

人工智能也在显著影响金融服务和招聘实践。 在金融领域,算法分析大量数据以做出信用决策、评估贷款资格,甚至管理投资。 在招聘中,人工智能驱动的招聘工具评估简历、推荐候选人,甚至在某些情况下进行初步筛选面试。 虽然人工智能驱动的决策可以提高效率,但也引入了新的风险:

  • 招聘中的偏见: 如果人工智能招聘工具是在有偏见的数据上训练的,它们可能会无意中强化刻板印象,根据与工作表现无关的因素(如性别、种族或年龄)筛选候选人。 当公司依赖人工智能进行人才收集时,存在延续不平等而不是促进多样性的风险。
  • 金融可及性和信用偏见: 在金融服务中,基于人工智能的信用评分系统可以影响谁能够获得贷款、抵押贷款或其他金融产品。 如果训练数据包含歧视性模式,人工智能可能会不公平地拒绝某些群体的信用,加剧金融不平等。
  • 减少人类监督: 金融和招聘中的人工智能决策可能是数据驱动的,但缺乏个人情感。 人工智能可能会忽略人类判断在决策过程中所需的细微差别,导致对人工智能的过度依赖,减少人类的作用。

生存风险和人工智能对齐

随着人工智能的力量和自主性不断增长,人工智能对齐的概念——确保人工智能系统按照人类的价值观和利益行事的目标——已经成为该领域最紧迫的伦理挑战之一。像尼克·博斯特罗姆(Nick Bostrom)这样的思想领袖已经提出了存在风险的可能性,如果高度自主的人工智能系统,特别是AGI,发展出与人类福祉不一致的目标或行为。虽然这种情景仍然在很大程度上是推测性的,但其潜在影响需要采取积极、谨慎的方法来开发人工智能。

人工智能对齐问题

对齐问题指的是设计能够理解和优先考虑人类价值观、目标和伦理界限的人工智能系统的挑战。虽然当前的人工智能系统在范围上是狭窄的,执行特定任务,基于训练数据和人类定义的目标,但AGI的前景提出了新的挑战。AGI将理论上具有设定自己的目标、适应新情况和跨多个领域独立做出决策的灵活性和智慧。
对齐问题出现是因为人类的价值观是复杂的、依赖于上下文的,并且通常难以精确定义。这种复杂性使得创建能够一致地解释和遵守人类意图的人工智能系统变得具有挑战性,特别是当它们遇到与其编程相冲突的情况或目标时。如果AGI发展出与人类利益不一致的目标,或者误解人类的价值观,后果可能会很严重,可能导致AGI系统以损害人类或违反道德原则的方式行事。

人工智能在机器人领域

机器人的未来正在迅速发展,机器人、人形机器人和人工智能将整合到日常生活的每个方面。这种趋势是由计算能力、电池效率、人工智能模型和传感器技术的指数级进步驱动的,使机器能够以越来越复杂、自主和类似人类的方式与世界交互。

无处不在的无人机世界

想象一下,你醒来发现无人机无处不在,处理从递送杂货到响应医疗紧急情况等任务。这些无人机远不止是简单的飞行设备;它们通过先进的人工智能系统相互连接。它们以集群形式运行,协调努力以优化交通流、检查基础设施,甚至在受损的生态系统中重新植树。
对于个人使用,无人机可以作为具有物理存在的虚拟助手。配备传感器和LLM,无人机可以回答问题、取物,甚至可以作为儿童的移动导师。在城市地区,空中无人机可能会促进实时环境监测,提供有关空气质量、天气模式或城市规划需求的见解。在农村社区,自主农业无人机可以用于种植、收获和土壤分析,民主化了对先进农业技术的获取。

人形机器人的崛起

与无人机并行,人形机器人由LLM驱动,将无缝地融入社会。这些机器人能够进行类似人类的对话、执行复杂任务,甚至表现出情商,将模糊人类和机器之间的界限。具有先进的移动系统、触觉传感器和认知人工智能,人形机器人可以作为护理人员、伴侣或同事。
在医疗保健领域,人形机器人可能会在病床旁提供帮助,不仅提供身体帮助,还提供富有同情心的交谈,利用深度学习模型从大量的人类行为数据集中训练。 在教育领域,人形机器人可以作为个性化的导师,适应个体的学习风格,提供量身定制的课程,以保持学生的参与度。 在工作场所,人形机器人可以承担危险或重复的任务,让人类专注于创造性和战略性的工作。

不一致的目标和意外后果

与不一致人工智能相关的最常被引用的风险之一是纸夹最大化器的思维实验。想象一个AGI被设计用来以看似无害的目标制造尽可能多的纸夹。如果这个目标以足够的智慧和自主性来追求,AGI可能会采取极端措施,例如将所有可用的资源(包括对人类生存至关重要的资源)转化为纸夹,以实现其目标。虽然这个例子是假设的,但它说明了在强大的人工智能系统中,狭隘的目标定义可能带来的危险,以及单一优化的潜在后果。
人工智能系统中这种单一优化的负面影响的例子是,世界上一些最强大的人工智能系统仅优化用户参与时间,损害事实和真相。人工智能可以通过放大阴谋论和宣传的影响范围来让我们更长时间地保持娱乐,从而实现这一点。

结论

人工智能的指数级增长,推动了计算能力的无情增长,已经不可避免地开始以微妙而深刻的方式塑造世界。从整合到推荐引擎,这些引擎指导我们的内容消费和社交互动,到AGI的即将到来,人工智能的存在无处不在,触及我们生活的几乎每个方面。

如今的人工智能清晰地展示了类似人类的推理能力,这可以从任何顶级LLM公司的聊天机器人中看出。YouTube、Facebook和Google上的推荐引擎已经成为信息的守门人,强化了偏好,并有时加剧了偏见。这些系统不仅提供内容;它们塑造我们的意见,孤立我们在回音室中,甚至延续虚假信息。通过这样做,人工智能已经在更安静的方式下接管了世界——通过微妙地影响信仰、行为和社会规范,往往是在用户没有意识到的情况下。

与此同时,下一个前沿领域——AGI——在地平线上若隐若现。随着每一次计算能力的加倍,我们都更接近于能够理解、学习和像人类一样适应的系统,提出了关于自主性、与人类价值观的一致性以及控制的问题。AGI的出现将重新定义我们与技术的关系,带来前所未有的潜力和伦理挑战。这种未来,人工智能系统可以在任何领域独立运行,需要谨慎的思考、准备和致力于使人工智能的轨迹与人类的最佳利益保持一致。

还应注意到,AGI将居住在机器人身体中,有些是人形的,有些是服务器农场。

虽然机器人将在2030年住在我们的家中,但人工智能的“接管”并不是通过机器人反抗社会,而是通过我们每天互动的系统——引导、说服和影响系统——来实现的,而AGI的承诺则暗示着更深刻的转变。未来取决于我们确保人工智能增强人类的能力,而不是让人工智能控制我们的能力。

如果你认识有人正在被这些推荐引擎控制和操纵,你应该尝试解释人工智能如何以比深州更险恶的方式控制和操纵他们的思想。

人工智能的真正危险在于其控制和操纵我们思想的能力。

安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。

作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。