Connect with us

思想领袖

如何使 AI 道德化?

mm

AI 是关于优化流程,而不是消除人类的参与。责任仍然是至关重要的,在 AI 可以取代人类的想法中。虽然技术和自动化系统在过去的一个世纪中帮助我们实现了更好的经济产出,但它们真的可以取代服务、创造力和深入的知识吗?我仍然相信它们不能,但它们可以优化开发这些领域所花费的时间。

责任性严重依赖于知识产权、预见技术对集体和个人权利的影响以及确保在开发和共享新模型时使用的数据的安全和保护。随着我们继续在技术上取得进步,AI 道德的主题变得越来越相关。这引发了关于我们如何监管和将 AI 集成到社会中,同时尽量减少潜在风险的重要问题。

我与 AI 的一个方面——语音克隆——密切合作。语音是个人外貌和生物特征数据的重要组成部分,用于训练语音模型。保护外貌(法律和政策问题)、保护语音数据(隐私政策和网络安全)以及建立语音克隆应用的限制(衡量影响的道德问题)在构建产品时是必不可少的。

我们必须评估 AI 如何符合社会的规范和价值观。AI 必须适应社会现有的道德框架,确保它不会带来额外的风险或威胁既定的社会规范。技术的影响范围包括 AI 赋予一群人权力同时消除另一群人的领域。这种存在主义困境出现在我们发展和社会增长或衰落的每个阶段。AI 是否会将更多的虚假信息引入信息生态系统?是的。我们如何在产品级别管理这种风险,我们如何教育用户和政策制定者关于它?答案不在于技术本身的危险,而在于我们如何将其打包成产品和服务。如果我们没有足够的人员在产品团队中来看eyond 和评估技术的影响,我们将陷入修复混乱的循环中。

将 AI 集成到产品中引发了关于产品安全和防止 AI 相关危害的问题。AI 的开发和实施应优先考虑安全和道德考虑,这需要分配资源给相关团队。

为了促进关于使 AI 道德化的讨论,我建议以下基本循环来使 AI 在产品级别上变得道德化:

1. 调查 AI 的法律方面以及我们如何监管它,如果有监管。这些包括 EU 的 AI 法案、数字服务法案、英国的在线安全法案和 GDPR 关于数据隐私的规定。这些框架是正在进行的工作,需要行业先驱(新兴技术)和领导者的输入。请参见第 4 点,它完成了建议的循环。

2. 考虑我们如何将基于 AI 的产品适应社会的规范,而不带来更多的风险。它是否影响信息安全或工作领域,或者是否侵犯版权和知识产权?创建一个基于危机情景的矩阵。我从我的国际安全背景中得到了这个想法。

3. 确定如何将上述内容集成到基于 AI 的产品中。随着 AI变得更加复杂,我们必须确保它符合社会的价值观和规范。我们需要在解决道德考虑和将其集成到 AI 开发和实施中的问题上采取积极的态度。如果基于 AI 的产品(如生成式 AI)威胁到传播更多的虚假信息,我们必须引入缓解功能、审查、限制对核心技术的访问并与用户沟通。拥有 AI 道德和安全团队在 AI 基础产品中是至关重要的,这需要资源和公司的愿景。

考虑我们如何为法律框架做出贡献和塑造它们。最佳实践和政策框架不仅仅是流行词汇;它们是实际的工具,帮助新技术作为辅助工具而不是潜在威胁发挥作用。将政策制定者、研究人员、大型科技公司和新兴科技公司聚集在一起对于平衡围绕 AI 的社会和商业利益至关重要。法律框架必须适应 AI 的新兴技术,确保它们保护个人和社会,同时促进创新和进步。

4. 考虑我们如何为法律框架做出贡献和塑造它们。最佳实践和政策框架不仅仅是流行词汇;它们是实际的工具,帮助新技术作为辅助工具而不是潜在威胁发挥作用。将政策制定者、研究人员、大型科技公司和新兴科技公司聚集在一起对于平衡围绕 AI 的社会和商业利益至关重要。法律框架必须适应 AI 的新兴技术,确保它们保护个人和社会,同时促进创新和进步。

摘要

这是一个非常基本的将基于 AI 的新兴技术集成到我们的社会中的循环。随着我们继续应对 AI 道德的复杂性,坚持找到优先考虑安全、道德和社会福祉的解决方案至关重要。这些不仅仅是空话,而是每天将所有拼图拼凑在一起的艰苦工作。

这些文字基于我的个人经验和结论。

Anna 是 Respeecher 的道德和合作负责人,Respeecher 是一家位于乌克兰的艾美奖获奖语音克隆技术公司。Anna 曾是 Reface 的政策顾问,Reface 是一个由 AI 驱动的合成媒体应用程序,也是由 Startup Wise Guys 加速器计划资助的反虚假信息工具 Cappture 的技术联合创始人。Anna 在安全和国防政策、技术和韧性建设方面拥有 11 年的经验。她曾是塔林和布拉格安全研究院国际防御和安全中心的研究员。她还曾作为基辅经济学院混合战争任务小组的一员,为乌克兰主要公司提供韧性建设方面的建议。