倫理
Credo AI が世界初の責任ある AI プラットフォームを発表
クレドAI は、この種では初となる Responsible AI プラットフォームの利用可能性を発表しました。 SaaS 製品は、組織がツールを活用して、責任ある AI へのアプローチを標準化および拡張するのに役立ちます。
Credo AI は、世界初の AI 向けの包括的で状況に応じたガバナンス ソリューションの作成を担当しています。
責任ある AI プラットフォーム
同社のプレスリリースによると、「Credo AI の Responsible AI プラットフォームは、AI の取り組みのどこにいてもコンテキスト駆動型の AI リスクとコンプライアンス評価を提供することで、企業の Responsible AI の運用を支援します。」
多くの AI 企業が必要な AI 原則を考え出し、実践するのに苦労していることを考えると、これは非常に重要です。
Credo AI を使用すると、部門を超えたチームが公平性、パフォーマンス、プライバシー、セキュリティなどに関する Responsible AI 要件について協力できます。このプラットフォームを使用すると、チームは AI のユースケースを評価し、データセットと機械学習 (ML) モデルの技術的評価を通じて要件を満たしていることを確認することもできます。開発プロセスを詳しく見ることもできます。
このプラットフォームは、Credo AI のオープンソース評価フレームワークを利用して、あらゆるタイプの組織に対して、より構造化され解釈可能な評価を実現します。
Navrina Singh は Credo AI の創設者兼 CEO です。
「Credo AI は、人工知能に監視と説明責任をもたらし、自社の AI フレームワークにとって良いものとは何かを定義する、責任ある AI イニシアチブにおける企業のシェルパとなることを目指しています」とシン氏は述べています。 「私たちは、責任ある AI を実現するための、コンテキスト中心の包括的かつ継続的なソリューションを開拓してきました。 企業は、テクノロジーと監督機能の多様な関係者間で責任ある AI 要件に沿って調整し、それらの目標に向けた行動を実証し、結果に責任を負うための意図的な措置を講じる必要があります。」
プラットフォームの機能
Credo AI の Responsible AI プラットフォームの機能には次のようなものがあります。
シームレスな評価統合
マルチステークホルダーの調整
ターンテーブルのリスクベースの監視
すぐに使える規制への対応
保証と証明
AIベンダーのリスク管理
AI ベンダー リスク管理などの機能により、組織は Credo AI を使用して、サードパーティの AI/ML 製品およびモデルの AI リスクとコンプライアンスを評価できます。 調整可能なリスクベースの監視などのその他の機能により、チームはユースケースのリスク レベルに基づいて人間参加型ガバナンスのレベルを微調整できます。
こうした新たな展開は、政府が AI 規制を強化し続ける中で起こります。 たとえば、欧州連合の人工知能法(AIA)のような規制が今後施行されるほか、AI雇用決定ツールのバイアス監査を義務付けるニューヨーク市の法案もある。 これらは、組織が Credo AI によってリリースされた新しいプラットフォームのような AI ガバナンス ツールに依存することを選択する多くの理由の一部にすぎません。