存根 如何践行人工智能伦理? - 联合人工智能
关注我们.

思想领袖

如何践行人工智能伦理?

mm

发布时间

 on

人工智能旨在优化流程,而不是消除流程中的人类。 在人工智能可以取代人类的总体理念中,问责制仍然至关重要。 虽然技术和自动化系统在过去一个世纪帮助我们实现了更好的经济产出,但它们能否真正取代服务、创造力和深厚的知识? 我仍然相信他们不能,但他们可以优化开发这些领域所花费的时间。

问责制在很大程度上依赖于知识产权,预见技术对集体和个人权利的影响,并在开发新模型时确保培训和共享中使用的数据的安全和保护。 随着技术的不断进步,人工智能伦理话题变得越来越重要。 这就提出了一个重要问题:我们如何监管人工智能并将其融入社会,同时最大限度地减少潜在风险。

我与人工智能的一个方面密切合作——语音克隆。 语音是个人肖像和用于训练语音模型的生物识别数据的重要组成部分。 构建产品时必须考虑保护相似性(法律和政策问题)、保护语音数据(隐私政策和网络安全)以及确定语音克隆应用程序的限制(衡量影响的道德问题)。

我们必须评估人工智能如何与社会规范和价值观保持一致。 人工智能必须适应社会现有的道德框架,确保它不会带来额外的风险或威胁既定的社会规范。 技术的影响涵盖了人工智能赋予一组人权力同时消灭其他人的领域。 这种生存困境在我们发展和社会成长或衰退的每个阶段都会出现。 人工智能能否将更多虚假信息引入信息生态系统? 是的。 我们如何在产品层面管理这种风险,以及如何对用户和政策制定者进行相关教育? 答案不在于技术本身的危险,而在于我们如何将其包装到产品和服务中。 如果我们的产品团队没有足够的人力来超越并评估技术的影响,我们将陷入解决混乱的循环中。

将人工智能集成到产品中引发了有关产品安全和防止人工智能相关危害的问题。 人工智能的开发和实施应优先考虑安全和伦理,这需要向相关团队分配资源。

为了促进关于实施人工智能伦理的新兴讨论,我建议在产品层面制定人工智能伦理的基本周期:

1. 调查人工智能的法律问题以及我们如何监管它(如果存在法规)。 其中包括欧盟的人工智能法案、数字服务法案、英国的在线安全法案以及关于数据隐私的 GDPR。 这些框架正在进行中,需要行业领跑者(新兴技术)和领导者的投入。 请参阅第 (4) 点,完成建议的循环。

2. 考虑如何在不造成更多风险的情况下使基于人工智能的产品适应社会规范。 它是否影响信息安全或就业部门,或者是否侵犯版权和知识产权? 创建基于危机情景的矩阵。 这是我从我的国际安全背景中得出的结论。

3. 确定如何将上述内容集成到基于人工智能的产品中。 随着人工智能变得越来越复杂,我们必须确保它符合社会的价值观和规范。 我们需要积极主动地解决道德问题,并将其纳入人工智能的开发和实施中。 如果基于人工智能的产品(如生成人工智能)有传播更多虚假信息的威胁,我们必须引入缓解功能、节制、限制对核心技术的访问并与用户沟通。 在基于人工智能的产品中拥有人工智能道德和安全团队至关重要,这需要资源和公司愿景。

考虑我们如何为法律框架做出贡献并塑造法律框架。 最佳实践和政策框架不仅仅是流行语; 它们是实用的工具,可以帮助新技术发挥辅助工具的作用,而不是迫在眉睫的威胁。 将政策制定者、研究人员、大型科技和新兴科技聚集在一起对于平衡围绕人工智能的社会和商业利益至关重要。 法律框架必须适应新兴的人工智能技术,确保保护个人和社会,同时促进创新和进步。

4. 思考我们如何为法律框架做出贡献并塑造它们。 最佳实践和政策框架不是空洞的流行语,而是非常实用的工具,可以使新技术成为辅助工具,而不是迫在眉睫的威胁。 将政策制定者、研究人员、大型科技和新兴科技聚集在一个房间对于平衡围绕人工智能的社会和商业利益至关重要。 法律框架必须适应新兴的人工智能技术。 我们需要确保这些框架保护个人和社会,同时促进创新和进步。

总结

这是将基于人工智能的新兴技术融入我们社会的真正基本循环。 当我们继续应对人工智能道德的复杂性时,必须继续致力于寻找优先考虑安全、道德和社会福祉的解决方案。 这些并不是空话,而是每天将所有难题拼凑在一起的艰巨工作。

这些话是基于我自己的经验和结论。

安娜 (Anna) 是道德与合作伙伴关系主管 Respeecher,一项荣获艾美奖的声音克隆技术,总部位于乌克兰。 Anna 是 Reface 的前政策顾问,Reface 是一款人工智能驱动的合成媒体应用程序,也是反虚假信息工具 Cappture 的技术联合创始人,该工具由 Startup Wise Guys 加速器计划资助。 Anna 在安全和国防政策、技术和复原力建设方面拥有 11 年的经验。 她是塔林国际国防与安全中心和布拉格安全研究所的前研究员。 作为基辅经济学院混合战争特别工作组的一部分,她还一直为乌克兰主要公司提供关于复原力建设的建议。