存根 《AI 困境》一书的作者 Juliette Powell 和 Art Kleiner - 访谈系列 - Unite.AI
关注我们.

面试

Juliette Powell 和 Art Kleiner,《AI 困境 – 访谈系列》的作者

mm

发布时间

 on

《人工智能困境》由 Juliette Powell 和 Art Kleiner 撰写。

朱丽叶e 鲍威尔 是一位作家、一位主持过 9,000 场现场表演的电视创作者、一位技术专家和社会学家。 她还是彭博电视/商业新闻网络的评论员,以及《经济学人》和国际金融公司组织的会议的发言人。 她的 TED 演讲在 YouTube 上有 130 万次观看。 Juliette 指出了成功商业领袖的模式和实践,他们依靠道德人工智能和数据来取胜。 她在纽约大学 ITP 任教,教授四门课程,其中包括基于她的书的《负责任媒体的设计技巧》课程。

人工智能困境”这本书重点关注了人工智能技术落入坏人手中的危险,同时仍然承认人工智能为社会带来的好处。

问题的出现是因为底层技术非常复杂,最终用户不可能真正理解封闭系统的内部工作原理。

最重要的问题之一是负责任的人工智能的定义总是在变化,因为社会价值观往往不会随着时间的推移保持一致。

我非常喜欢阅读《人工智能困境》。 这本书并没有耸人听闻人工智能的危险,也没有深入探讨通用人工智能(AGI)的潜在陷阱。 相反,读者会了解到我们的个人数据在我们不知情的情况下被使用的令人惊讶的方式,以及人工智能当前的一些局限性和令人担忧的原因。

以下是一些问题,旨在向我们的读者展示他们对这本开创性的书的期望。

最初是什么激发您写下《人工智能困境》?

朱丽叶前往哥伦比亚的部分原因是研究人工智能监管的局限性和可能性。 她从从事人工智能项目的朋友那里直接听到了这些项目固有的紧张气氛。 她得出的结论是,存在人工智能困境,这是一个比自我监管更大的问题。 她开发了 Apex 基准模型,该模型展示了由于公司之间以及公司内部团队之间的相互作用,有关人工智能的决策如何倾向于低责任。 这导致了她的论文。

阿特曾与朱丽叶特合作过许多写作项目。 他读了她的论文并说:“你这里有一本书。” 朱丽叶邀请他共同创作。 在共同努力的过程中,他们发现自己的观点截然不同,但都有一个强烈的观点,即需要更好地理解这种复杂、高风险的人工智能现象,以便使用它的人们能够更负责任、更有效地采取行动。

《人工智能困境》中强调的基本问题之一是,目前无法仅通过研究其源代码来了解人工智能系统是否负有责任,或者它是否会延续社会不平等。 这是一个多大的问题?

问题主要不在于源代码。正如 Cathy O'Neil 指出的那样,当存在封闭式系统时,它不仅仅是代码。需要探索的是社会技术系统——人类和技术力量相互塑造。构建和发布人工智能系统的逻辑涉及确定目的、识别数据、设置优先级、创建模型、设置机器学习指南和护栏,以及决定人类应该何时以及如何进行干预。这是需要透明的部分——至少对观察员和审计员来说是这样。当过程的这些部分被隐藏时,社会不平等的风险和其他风险就会大得多。您无法真正从源代码重新设计设计逻辑。

可以重点关注 可解释的AI (XAI)曾经解决过这个问题吗?

对于工程师来说,可解释的人工智能目前被认为是一组技术约束和实践,旨在使模型对研究人员更加透明。 对于被错误指控的人来说,可解释性具有完全不同的含义和紧迫性。 他们需要可解释性才能反击自己的防守。 我们都需要可解释性,让模型背后的商业或政府决策变得清晰。 至少在美国,可解释性(人类的知情权)与组织的竞争和创新权之间始终存在紧张关系。 审计师和监管机构需要不同程度的可解释性。 我们在《人工智能困境》中更详细地讨论了这一点。

您能否简要分享一下您对让利益相关者(人工智能公司)对其向世界发布的代码负责的重要性的看法?

到目前为止,例如在亚利桑那州坦佩发生的导致一名行人死亡的自动驾驶汽车碰撞事故中,操作员被追究责任。 一个人进了监狱。 但最终,这是组织上的失败。

当桥梁倒塌时,机械工程师要承担责任。 这是因为机械工程师接受过培训,并不断接受再培训,并对其职业负责。 计算机工程师则不然。

包括人工智能公司在内的利益相关者是否应该接受培训和再培训,以做出更好的决策并承担更多责任?

人工智能困境主要关注谷歌和 Meta 等公司如何收集我们的个人数据并从中获利。 您能否分享一个应该引起每个人注意的严重滥用我们数据的例子?

来自《人工智能困境》,第 67 页:

系统性个人数据滥用的新案例不断出现在公众视野中,其中许多涉及秘密使用面部识别。 2022 年 16 月,《麻省理工学院技术评论》发表了 iRobot 长期实践的报道。 Roomba 家用机器人记录在志愿者 Beta 测试者家中拍摄的图像和视频,这不可避免地意味着收集私密的个人和家庭相关图像。 这些信息在测试人员不知情的情况下与国外的团体共享。 至少在一个案例中,Facebook 上发布了一张某人在厕所里的照片。 与此同时,在伊朗,当局已开始使用面部识别系统的数据来追踪和逮捕未戴头巾的女性。 XNUMX

没有必要进一步阐述这些故事。 他们有很多。 然而,重要的是要确定这种生活方式的累积效应。 当我们感到我们的私人信息可能会在没有任何警告的情况下随时被用来对付我们时,我们就会失去对自己生活的控制感。

提出的一个危险概念是我们的整个世界如何设计成无摩擦的,摩擦的定义是“客户在与公司合作的旅程中遇到阻碍或导致他们不满意的任何时刻”。 我们对无摩擦体验的期望如何可能导致危险的人工智能?

在新西兰,Pak'n'Save 精明的用餐机器人建议了一种食谱,如果使用的话会产生氯气。 这被宣传为顾客用完剩菜并省钱的一种方式。

无摩擦会产生一种控制的错觉。 听应用程序比查找奶奶的食谱更快更容易。 人们遵循阻力最小的道路,却没有意识到这条道路会将他们带向何方。

相比之下,摩擦则具有创造性。 你参与其中。 这导致实际控制。 实际控制需要注意力和工作,并且就人工智能而言,需要进行扩展的成本效益分析。

带着控制的错觉,感觉就像我们生活在一个人工智能系统在提示人类的世界,而不是人类完全处于控制之中。 您可以举出哪些例子来说明人类集体相信自己拥有控制权,但实际上他们没有控制权?

旧金山现在有机器人出租车。 自动驾驶出租车的想法往往会带来两种相互矛盾的情绪:兴奋(“出租车成本低得多!”)和恐惧(“他们会撞到我吗?”)因此,许多监管机构建议对汽车进行人员测试在其中,谁可以管理控制。 不幸的是,让人类保持警惕,准备好实时超越系统,可能不是对公共安全的良好测试。 过度自信是人工智能系统的一种常见现象。 系统越自治,人类操作员就越倾向于信任它而不是充分关注。 我们对这些技术感到无聊。 当事故即将发生时,我们往往没有预料到,也没有及时做出反应。

这本书做了很多研究,有什么让你惊讶的吗?

真正让我们惊讶的一件事是,世界各地的人们无法就谁应该活、谁应该死达成一致。 道德机器的模拟 自动驾驶汽车碰撞事故。 如果我们不能就此达成一致,那么就很难想象我们能够为人工智能系统建立统一的全球治理或通用标准。

你们都将自己描述为企业家,你们所学到的和所报告的内容将如何影响你们未来的努力?

我们的人工智能咨询实践旨在帮助组织利用该技术负责任地成长。 律师、工程师、社会科学家和商业思想家都是人工智能未来的利益相关者。 在我们的工作中,我们将所有这些观点结合在一起,并实践创造性的摩擦,以找到更好的解决方案。 我们开发了诸如故意风险计算之类的框架来帮助解决这些问题。

感谢您的精彩解答,想要了解更多信息的读者可以访问 人工智能困境.

Unite.AI 创始合伙人 & 会员 福布斯技术委员会, 安托万是一个 未来学家 他对人工智能和机器人技术的未来充满热情。

他也是 证券,一个专注于投资颠覆性技术的网站。