Gerald Kierce,Trustible 首席执行官兼联合创始人 – 专访系列
Gerald Kierce 是 Trustible 的首席执行官兼联合创始人,他是一位专注于将负责任的人工智能付诸实践的技术和政策领导者。他领导 Trustible 的使命,帮助组织建立信任、管理风险并遵守新兴的人工智能法规。此前,他曾担任 FiscalNote 的人工智能解决方案副总裁兼总经理,负责监督企业人工智能产品,并在企业开发、产品、客户成功和高管运营等多个领域担任高级职务。他的职业生涯始终处于技术、法规和可扩展的企业执行的交汇点。Trustible 提供了一个人工智能治理平台,帮助组织通过结构化的工作流程和文档,盘点人工智能系统、评估和缓解风险,并将合规性操作化。该平台专为法律、合规和人工智能团队设计,集中管理治理活动,使人工智能用例与监管框架保持一致,并支持在整个企业内更快、更透明地部署负责任的人工智能。在创立 Trustible 之前,您从产品营销和参谋长工作转向领导 FiscalNote 的人工智能解决方案。在这些角色中,您看到了什么让您确信人工智能治理需要一个专门的平台?当您推出 Trustible 时,您决心首先要解决什么问题?在 FiscalNote 工作超过 8 年的时间里,我很幸运地担任了许多角色,从早期的种子轮/A 轮员工开始,到公司上市后作为高级管理人员离开。在跨越产品营销、参谋长工作,以及最终领导 FiscalNote 人工智能解决方案的过程中,我不断从不同角度看到同一个问题出现。人工智能治理本质上是一个社会技术问题,但大多数组织都以零散的方式处理它。团队将人工智能性能、安全性、隐私、道德和法律审查视为独立的轨道,通常由不同的职能部门负责,几乎没有共享的操作主干将它们联系在一起。这五个维度绝对重要,需要协作解决。但组织面临的困境在于,一旦人工智能进入实际决策,如何将这种社会技术意图转化为持久的东西。与此同时,围绕人工智能的监管环境显然正在发生变化。欧盟《人工智能法案》及相关标准标志着一种转变,即开始将人工智能作为受监管的基础设施而非实验性技术来治理。显而易见的是,许多公司试图在部署后将政策和监管期望映射到人工智能系统上,而不是设计能够持续在这些社会技术维度上操作化监管意图的治理框架。我在 FiscalNote 的经历很重要,因为我们当时正在将人工智能应用于政策、法律和监管领域本身。我们帮助组织理解法律如何演变、要求如何被解释,以及监管期望如何随着时间的推移转化为操作义务。这段经历清楚地表明,有效的人工智能治理需要反向应用同样的原则:将政策和监管思维直接应用于人工智能系统的构建、部署、监控以及随条件变化而调整的方式。客户们一致描述了相同的痛点。他们无法自信地回答哪些人工智能系统正在生产中,哪些系统在新兴法规下属于高风险,当系统跨越职能边界时谁应负责,或者如何在模型、数据、供应商和法规同时演变的情况下证明持续的合规性。当我们推出 Trustible...