思想领袖
对 ChatGPT 潜在风险的担忧正在加剧,但暂停人工智能是一个好举措吗?

尽管埃隆·马斯克和其他全球科技领袖呼吁 人工智能暂停 ChatGPT 发布后,一些批评者认为停止开发并不是解决问题的办法。 智能自动化公司 ABBYY 的人工智能布道者安德鲁·佩里 (Andrew Pery) 认为,休息一下就像把牙膏放回管中一样。 在这里,他告诉我们原因......
人工智能应用无处不在,几乎影响着我们生活的方方面面。 虽然值得称赞,但现在就踩刹车可能不太可信。
当然,存在明显的担忧,要求加强监管以控制其潜在的有害影响。
就在最近,意大利数据保护局暂时禁止在全国范围内使用 ChatGPT,原因是与用于训练模型的个人数据的收集和处理方式有关的隐私问题,以及明显缺乏保障措施,使儿童面临“绝对”的反应。不适合他们的年龄和意识。”
鉴于“人们越来越担心 ChatGPT 和类似的聊天机器人可能会欺骗和操纵人们”,欧洲消费者组织 (BEUC) 敦促欧盟调查大规模语言模型的潜在有害影响。 这些人工智能系统需要更多的公众监督,公共当局必须重新对它们实施控制。”
在美国,在 人工智能和数字政策中心 已向联邦贸易委员会提出投诉,称 ChatGPT 违反了联邦贸易委员会法案 (FTC 法案) (5 USC 15) 第 45 条。 投诉的依据是 ChatGPT 据称未能满足 指导 美国联邦贸易委员会 (FTC) 为人工智能系统的透明度和可解释性而制定。 参考了 ChatGPT 对几个已知的 风险 包括损害隐私权、生成有害内容和传播虚假信息。
尽管研究指出了 ChatGPT 等大规模语言模型的潜力,但它的实用性 阴暗面。 事实证明,它会产生错误的答案,因为底层的 ChatGPT 模型基于深度学习算法,该算法利用来自互联网的大型训练数据集。 与其他聊天机器人不同,ChatGPT 使用基于深度学习技术的语言模型,生成类似于人类对话的文本,并且该平台“通过一系列猜测得出答案,这也是它可以争论错误答案的部分原因,就好像它们是错误的答案一样”。完全正确。”
此外,事实证明,ChatGPT 会加剧和放大偏见,从而导致“歧视性别、种族和少数群体的答案,而该公司正试图减少这种现象。” ChatGPT 也可能成为不法分子利用毫无戒心的用户的财富,从而损害他们的利益 隐私 并使他们暴露于 诈骗攻击.
这些担忧促使欧洲议会发布了一份 评论 这凸显了进一步加强草案现有条款的必要性 欧盟人工智能法案, (AIA)仍有待批准。 评论指出,目前的拟议法规草案侧重于所谓的狭义人工智能应用,包括特定类别的高风险人工智能系统,例如招聘、信用、就业、执法和社会服务资格。 然而,欧盟AIA法规草案并不涵盖通用人工智能,例如提供更高级认知能力并且可以“执行广泛的智能任务”的大型语言模型。 有人呼吁扩大法规草案的范围,将通用人工智能系统纳入单独的高风险类别,要求开发人员在将此类系统投放市场之前进行严格的事前一致性测试,并持续监控其性能潜在的意外有害输出。
一个特别有用的部分 研究 提醒人们认识到这一差距,即欧盟 AIA 监管“主要关注传统人工智能模型,而不是我们今天见证的新一代人工智能模型”。
它建议监管机构应考虑的四种策略。
- 要求此类系统的开发人员定期报告其风险管理流程的有效性,以减少有害输出。
- 使用大规模语言模型的企业应该有义务向客户披露内容是人工智能生成的。
- 开发人员应订阅正式的分阶段发布流程,作为风险管理框架的一部分,旨在防止潜在的不可预见的有害结果。
- 让开发人员有责任通过“主动审核训练数据集是否存在虚假陈述”来“从根本上减轻风险”。
颠覆性技术相关风险持续存在的一个因素是创新者通过采用“先发货、后修复”的商业模式来实现先发优势。 虽然 OpenAI 有点 透明 关于 ChatGPT 的潜在风险,他们已将其发布用于广泛的商业用途,并让用户自行权衡和承担风险,并承担“买家小心”的责任。 考虑到对话式人工智能系统的普遍影响,这可能是一种站不住脚的方法。 在处理这种颠覆性技术时,积极的监管加上强有力的执法措施必须至关重要。
人工智能已经渗透到我们生活的几乎每个部分,这意味着人工智能开发的暂停可能意味着许多不可预见的障碍和后果。 行业和立法机构不应突然中断,而应真诚合作,制定植根于透明度、问责制和公平等以人为本的价值观的可行监管。 通过参考AIA等现有立法,私营和公共部门的领导者可以设计全面的、全球标准化的政策,以防止恶意使用并减轻不良后果,从而使人工智能保持在改善人类体验的范围内。