倫理
Credo AI、世界初の責任あるAIプラットフォームを発表

Credo AIは、世界初の責任あるAIプラットフォームの提供を発表しました。このSaaS製品により、組織は責任あるAIへの取り組みを標準化し、拡大することができます。
Credo AIは、世界初の包括的で文脈依存のAIガバナンスソリューションを作成しました。
責任あるAIプラットフォーム
同社のプレスリリースによると、「Credo AIの責任あるAIプラットフォームは、企業が責任あるAIを運用化するために、コンテキストドリブンのAIリスクとコンプライアンス評価を提供します。」
これは、多くのAI企業が必要なAI原則を策定し、実施するのに苦労していることから、非常に重要です。
Credo AIを使用すると、クロスファンクショナルチームは、公平性、パフォーマンス、プライバシー、セキュリティなどの責任あるAI要件について共同で作業できます。プラットフォームを使用すると、チームはAIの使用例を評価して要件を満たしていることを確認できます。さらに、技術的な評価を通じてデータセットと機械学習(ML)モデルを評価することもできます。また、開発プロセスを詳細に調査することもできます。
プラットフォームは、Credo AIのオープンソース評価フレームワークに依存して、すべての種類の組織に対してより構造化された評価を実現します。
Navrina Singhは、Credo AIの創設者兼CEOです。
「Credo AIは、企業の責任あるAIイニシアチブにシェルパとなることを目指しており、人工知能に監視と説明責任をもたらすことで、AIフレームワークの良し悪しを定義します。」とSinghは述べました。 「私たちは、コンテキスト中心の包括的で継続的なソリューションを開発して、責任あるAIを提供しています。企業は、技術と監視機能のさまざまな利害関係者に対して、責任あるAI要件について一致させ、目標に対して意図的に行動を起こし、結果について責任を負う必要があります。」
プラットフォームの機能
Credo AIの責任あるAIプラットフォームの機能には、以下のものがあります。
-
シームレスな評価統合
-
マルチステークホルダーの一致
-
ターンテーブルリスクベースの監視
-
レギュラトリーレディネス
-
アシュランスとアテステーション
-
AIベンダーリスクマネジメント
AIベンダーリスクマネジメントなどの機能を使用すると、組織はCredo AIを使用して、サードパーティのAI/ML製品とモデルのAIリスクとコンプライアンスを評価できます。ターンテーブルリスクベースの監視などの他の機能により、チームはユースケースのリスクレベルに基づいて、ヒューマンインザループガバナンスのレベルを微調整できます。
これらの新しい開発は、政府がAI規制を強化している中で行われています。たとえば、欧州連合のArtificial Intelligence Act(AIA)などの規制や、ニューヨーク市でAI雇用決定ツールのバイアスを監査することを義務付ける法案などがあります。これらは、組織がCredo AIのようなAIガバナンスツールに頼る理由の1つです。












