Connect with us

访谈

David Maher,Intertrust 首席技术官 – 采访系列

mm

David Maher 担任 Intertrust 的执行副总裁和首席技术官。拥有超过 30 年的可信分布式系统、安全系统和风险管理经验,Dave 领导了研发工作,并在公司的子公司中担任了关键领导职位。他曾是 Seacert Corporation 的前总裁,Seacert Corporation 是数字媒体和 IoT 的证书颁发机构,并且是白色加密 Corporation 的总裁,白色加密 Corporation 是软件自卫系统的开发商。他还曾担任马林信任管理组织(MTMO)的联合主席,马林信任管理组织监督着世界上唯一的独立数字权利管理生态系统。

Intertrust 开发了创新技术,使分布式操作系统能够在开放网络上安全地管理和计算数据,结果是获得了可信分布式计算的基础专利。

最初,Intertrust 根植于研究,现已演变为一家产品导向的公司,提供统一设备和数据操作的可信计算服务,特别适用于 IoT 和 AI。其市场包括媒体分发、设备身份验证/身份认证、数字能源管理、分析和云存储安全。

如何弥合 AI 信任鸿沟,并解决公众日益增长的对 AI 安全性和可靠性的担忧?

透明度是我认为最重要的品质,它将有助于解决人们对 AI 日益增长的担忧。透明度包括帮助消费者和技术人员了解 AI 机制的特点:什么是 AI 机制的一部分,什么是其血统:如何训练 AI 模型,什么防护措施存在,什么政策在模型开发中应用,什么其他保证机制的安全性和安全性。随着更大的透明度,我们将能够解决真正的风险和问题,而不是被不理性的恐惧和猜测所分散注意力。

元数据认证在确保 AI 输出的可信度方面扮演着什么角色?

元数据认证有助于增加我们对 AI 模型或其他机制的可靠性担保的信心。AI 模型卡是一种元数据集合的例子,可以帮助评估 AI 机制(模型、代理等)用于特定目的的可用性。我们需要为模型卡的清晰度和完整性建立标准,包括量化测量和认证的性能、偏差、训练数据的属性等的断言。

组织如何减轻大型语言模型(LLM)中的 AI 偏差和幻觉风险?

红队测试是一种一般方法,用于在开发和预发布期间解决这些和其他风险。最初用于评估安全系统,该方法现在正成为 AI 基础系统的标准。它是一种系统方法的风险管理,包括从初始开发到现场部署的整个系统生命周期,涵盖整个开发供应链。尤其重要的是对用于模型的训练数据进行分类和认证。

公司可以采取什么步骤来创建 AI 系统的透明度,并减少与“黑盒”问题相关的风险?

了解公司将如何使用模型以及它可能在部署中具有什么样的责任,无论是用于内部使用还是客户使用,直接或间接。然后,了解我所说的 AI 机制的血统,包括模型卡上的断言、红队试验的结果、差异分析、公司特定使用的正式评估以及其他人的经验。内部测试使用全面测试计划在现实环境中是绝对必要的。最佳实践在这个新兴领域不断演变,因此保持更新至关重要。

如何设计具有道德指导的 AI 系统,跨不同行业实现这一目标的挑战是什么?

这是一个研究领域,许多人认为,道德的概念和当前的 AI 版本是不相容的,因为道德是概念性的,而 AI 机制主要是数据驱动的。例如,人类可以理解的简单规则,如“不要作弊”,很难保证。然而,仔细分析交互和目标冲突,排除可疑数据和虚假信息,并建立规则以强制使用输出过滤器来执行防护栏并测试违反道德原则的内容(如输出内容中提倡或同情使用暴力)应被考虑。同样,严格测试偏差可以帮助将模型与道德原则更好地对齐。再次,这些都是概念性的,因此必须小心测试给定方法的效果,因为 AI 机制不会像人类一样“理解”指令。

AI 面临的主要风险和挑战是什么,特别是当它与 IoT 系统更加集成时?

我们希望使用 AI 自动优化关键基础设施过程。例如,我们知道可以使用虚拟电厂来优化能量分配和使用,虚拟电厂可以协调成千上万的能量生产、存储和使用元素。这在没有大量自动化和使用 AI 来辅助分秒决策的情况下是不切实际的。系统将包括具有冲突优化目标的代理(例如,消费者与供应商)。AI 的安全性和安全性在此类系统的大规模部署中将至关重要。

为了在 AI 系统中安全地识别和认证实体,需要什么样的基础设施?

我们需要一个强大且高效的基础设施,使评估 AI 系统及其部署的各个方面的实体能够发布有关 AI 系统的权威和真实的声明,包括其血统、可用的训练数据、传感器数据的来源、安全影响事件和事件等。该基础设施还需要使系统的用户和包括 AI 机制和优化器输出的决策的自动系统的元素能够高效地验证声明和断言。

您能否与我们分享您在 Intertrust 工作的见解,以及它如何融入我们所讨论的内容?

我们研究和设计可以提供所需的信任管理基础设施的技术。我们专门解决 IoT 系统中出现的规模、延迟、安全性和互操作性问题,包括 AI 组件。

Intertrust 的公钥基础设施(PKI)服务如何保护 IoT 设备,它的可扩展性如何适应大规模部署?

我们的 PKI 专门为包括设备和数字内容管理在内的系统的信任管理而设计。我们已部署了数十亿个加密密钥和证书,以确保合规性。我们的当前研究解决了大规模工业自动化和关键全球基础设施所需的规模和保证,包括“零信任”部署和可以容纳数万亿个传感器和事件生成器的设备和数据认证的最佳实践。

是什么动机让您加入 NIST 的 AI 计划,您的参与如何为开发可信和安全的 AI 标准做出贡献?

NIST 在开发安全系统的标准和最佳实践方面拥有丰富的经验和成功经验。作为 Intertrust 的首席研究员,我可以倡导开发信任管理系统(包括 AI 机制)的重要标准和最佳实践。从过去的经验来看,我特别欣赏 NIST 在促进创造力、进步和工业合作的同时,帮助制定和推广重要的技术标准以促进互操作性方面的方法。这些标准可以促进有益技术的采用,同时解决社会面临的风险。

感谢这次精彩的采访,希望了解更多的读者请访问 Intertrust

安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。

作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。