伦理
Credo AI 宣布推出全球首个负责任的人工智能平台
信条人工智能 宣布推出其 Responsible AI 平台,这是此类平台中的第一个。 该 SaaS 产品可帮助组织利用工具来标准化和扩展其负责任的 AI 方法。
Credo AI 负责创建世界上第一个全面的人工智能治理解决方案。
负责任的人工智能平台
根据该公司的新闻稿,“Credo AI 的 Responsible AI 平台可以帮助公司在 AI 旅程中的任何阶段提供上下文驱动的 AI 风险和合规性评估,从而帮助他们实施 Responsible AI。”
考虑到许多人工智能公司在提出并将必要的人工智能原则付诸实践方面遇到困难,这一点至关重要。
借助 Credo AI,跨职能团队可以针对公平、性能、隐私和安全等负责任的 AI 要求进行协作。该平台还使团队能够评估其人工智能用例,以确保通过数据集和机器学习 (ML) 模型的技术评估满足要求。他们还可以深入了解开发流程。
该平台依靠 Credo AI 的开源评估框架,为所有类型的组织实现更加结构化和可解释的评估。
纳夫里娜·辛格 (Navrina Singh) 是 Credo AI 的创始人兼首席执行官。
Singh 表示:“Credo AI 的目标是成为企业负责任人工智能计划的夏尔巴人,为人工智能带来监督和问责,并定义人工智能框架的良好外观。” “我们开创了一种以环境为中心、全面且持续的解决方案来提供负责任的人工智能。 企业必须在技术和监督职能方面协调不同利益相关者的负责任的人工智能要求,并采取审慎的措施来展示实现这些目标的行动并对结果承担责任。”
平台特性
Credo AI Responsible AI 平台的一些功能包括:
无缝评估集成
多方利益相关者协调一致
转盘基于风险的监督
开箱即用的监管准备就绪
保证和证明
人工智能供应商风险管理
借助 AI 供应商风险管理等功能,组织可以使用 Credo AI 来评估第三方 AI/ML 产品和模型的 AI 风险和合规性。 其他功能(例如可调整的基于风险的监督)允许团队根据用例风险级别微调人机交互治理的级别。
这些新的发展是随着政府不断加强人工智能监管而出现的。 例如,欧盟即将出台的《人工智能法案》(AIA)等法规,以及纽约市的一项法案,强制要求对人工智能就业决策工具进行偏见审计。 这些只是组织选择依赖 AI 治理工具(例如 Credo AI 发布的新平台)的众多原因中的一部分。