私達と接続

責任あるAIとは何ですか? 原則、課題、利点

AI 101

責任あるAIとは何ですか? 原則、課題、利点

mm
更新中 on
野原に立って地球儀を手に持っている人。

責任あるAI (RAI) は、透明性、公平性、説明責任を備え、倫理ガイドラインに従う AI システムの設計と導入を指します。 AI システムがより堅牢になり普及するにつれて、AI システムが責任を持って開発され、安全性と倫理的なガイドラインに従うことが重要になります。

健康、輸送、ネットワーク管理、監視は、 セーフティ クリティカルな AI アプリケーション システム障害が重大な結果をもたらす可能性がある場合。 大企業は、テクノロジ リスクを軽減するために RAI が不可欠であることを認識しています。 しかし、1093人の回答者を含むMITスローン/BCGレポートによると、 54% の企業には、責任ある AI の専門知識と人材が不足していました。

思想的リーダーや組織は責任ある AI の原則を策定しましたが、AI システムの責任ある開発を保証することには依然として課題があります。 このアイデアを詳しく見てみましょう。

責任ある AI のための 5 つの原則

1.公平性

技術者は、AI システムがすべての個人とグループを偏見なく公平に扱うように手順を設計する必要があります。 したがって、リスクの高い意思決定アプリケーションでは、公平性が主な要件となります。

公正さ と定義されている:

「さまざまな人口統計上のグループへの影響を検討し、法的、文化的、倫理的要件の望ましいセットを適切に満たす、グループの公平性に関するいくつかの数学的定義の中から XNUMX つを選択します。」

2。 アカウンタビリティ

説明責任とは、AI システムを開発および導入する個人や組織が自らの決定と行動に責任を負う必要があることを意味します。 AI システムを導入するチームは、AI システムが透明性、解釈可能、監査可能であり、社会に害を及ぼさないことを保証する必要があります。

説明責任には以下が含まれます セブン コンポーネント:

  1. コンテキスト(説明責任が必要な目的)
  2. 範囲(責任の対象)
  3. エージェント(責任者は誰ですか?)
  4. フォーラム(責任者が報告しなければならない者)
  5. 基準(説明責任の基準)
  6. プロセス(説明責任の方法)
  7. 影響(説明責任の結果)

3。 透明

透明性とは、AI システムにおける意思決定の背後にある理由が明確で理解できることを意味します。 透明な AI システムは説明可能です。

Hubspot 信頼できる人工知能の評価リスト (ALTAI)、透明性には XNUMX つの重要な要素があります。

  1. トレーサビリティ (データ、前処理ステップ、およびモデルにアクセス可能)
  2. 説明可能性 (意思決定/予測の背後にある理由が明確である)
  3. オープンコミュニケーション(AIシステムの限界について)

4。 プライバシー

プライバシーは責任ある AI の主要原則の XNUMX つです。 個人情報の保護を指します。 この原則は、人々の個人情報が同意のもとに収集および処理され、悪意のある者の手に渡らないようにすることを保証します。

最近明らかになったように、法執行機関や大学向けに顔認識モデルを製造する会社である Clearview の事件がありました。 英国のデータ監視機関 Clearview AIを7.5万ポンドで訴えた 20億枚の画像のデータベースを作成する同意なしにソーシャルメディアから英国居住者の画像を収集した罪。

5。 セキュリティー

セキュリティとは、AI システムが安全であり、社会を脅かさないことを保証することを意味します。 AI セキュリティの脅威の例は次のとおりです。 敵対的攻撃。 これらの悪意のある攻撃は、ML モデルをだまして誤った決定を下させます。 AI システムをサイバー攻撃から保護することは、責任ある AI にとって不可欠です。

責任ある AI の 4 つの大きな課題とリスク

1. バイアス

年齢、性別、国籍、人種に関連する人間の偏見はデータ収集に影響を与え、AI モデルに偏りが生じる可能性があります。 米国商務省の調査 顔認識AIが有色人種を誤認していることが判明した。 したがって、法執行機関で顔認識に AI を使用すると、不当逮捕につながる可能性があります。 また、公平な AI モデルを作成することは困難です。 21 それらを定義するにはさまざまなパラメータを使用します。 したがって、トレードオフがあります。 XNUMX つの公平な AI パラメータを満たすことは、別のパラメータを犠牲にすることを意味します。

2. 解釈可能性

解釈可能性は、責任ある AI の開発における重要な課題です。これは、機械学習モデルがどのようにして特定の結論に到達したかを理解することを指します。

ディープ ニューラル ネットワークは、複数の隠れニューロン層を持つブラック ボックスとして動作するため、解釈可能性に欠けており、意思決定プロセスを理解することが困難になります。 これは、医療や金融など、一か八かの意思決定において課題となる可能性があります。

さらに、ML モデルの解釈可能性を形式化することは困難です。 主観的 および ドメイン固有.

3.ガバナンス

ガバナンスとは、AI システムの開発と展開を監督する一連のルール、ポリシー、手順を指します。 最近、AI ガバナンスに関する議論が大きく進展し、各組織がフレームワークや倫理ガイドラインを提示しています。

倫理ガイドライン EUによる信頼できるAIオーストラリアの AI 倫理フレームワークOECD AI 原則 は AI ガバナンス フレームワークの例です。

しかし、近年の AI の急速な進歩は、これらの AI ガバナンスの枠組みを上回る可能性があります。 この目的を達成するには、AI システムの公平性、解釈可能性、倫理を評価するフレームワークが必要です。

4.規制

AI システムが普及するにつれて、倫理的および社会的価値を考慮するための規制が必要になります。 AI のイノベーションを抑制しない規制を策定することは、責任ある AI にとって重要な課題です。

一般データ保護規則 (GDPR)、カリフォルニア州消費者プライバシー法 (CCPA)、および個人情報保護法 (PIPL) が規制機関であっても、AI 研究者は次のことを発見しました。 97% の EU ウェブサイトが GDPR 法的枠組み要件に準拠していません。

さらに、議員は次のような問題に直面しています。 重大な課題 古典的な AI システムと最新の AI アプリケーションの両方を含む AI の定義について合意に達することです。

責任ある AI の 3 つの主なメリット

1. バイアスの軽減

責任ある AI は意思決定プロセスにおけるバイアスを軽減し、AI システムへの信頼を構築します。 AI システムの偏見を減らすことで、公平で公平な医療システムを提供し、AI ベースの偏見を減らすことができます。 金融業務 等々

2. 透明性の向上

責任ある AI は、AI システムの信頼を構築する透明な AI アプリケーションを作成します。 透過的な AI システム 間違いや誤用のリスクを軽減する。 透明性の向上により、AI システムの監査が容易になり、利害関係者の信頼を獲得し、責任ある AI システムを実現できます。

3。 より良いセキュリティ

セキュア AI アプリケーションは、データのプライバシーを確​​保し、信頼できる無害な出力を生成し、サイバー攻撃から安全に保ちます。

のようなハイテク巨人 Microsoft および グーグルAI システム開発の最前線にある企業は、責任ある AI 原則を開発しました。 責任ある AI は、AI のイノベーションが個人や社会に有害でないことを保証します。

ソートリーダー、研究者、組織、法的当局は、AI イノベーションの安全な未来を確保するために、責任ある AI 文献を継続的に改訂する必要があります。

AI 関連のコンテンツについては、次のサイトをご覧ください。 ユナイトアイ.