倫理
AIの倫理原則はメタ分析を受け、人権が強調される

2019 年には、AI の倫理がこれまで以上に注目されました。 しかし、この議論の多くは体系化されたアプローチがなく、曖昧に見えました。 むしろ、さまざまな企業が AI 倫理に関する独自のフレームワークやポリシーを作成しました。 AI の倫理問題についてコンセンサスを持つことは、政策立案者が政策を作成および調整するのに役立ち、研究者や学者の取り組みにも情報を提供するため重要です。 さらに、AI 企業が非倫理的な AI の実装を回避したい場合は、倫理的限界がどこにあるのかを知る必要があります。 AI 倫理の傾向をよりよく把握するために、 VentureBeats が報じているように、ハーバード大学バークマン・クライン・センター メタ分析を実行した 既存のさまざまな AI 倫理原則とフレームワークの説明。
分析の著者らによると、研究者らは原理を並べて比較し、重複や相違を見つけたいと考えていたという。 ハーバード大学法科大学院サイバーロークリニックのアシスタントディレクター、ジェシカ・フェルド氏は、研究チームは「AIの将来を巡る分裂した世界的な議論の隠れた勢いを明らかにしたいと考え、その結果、このホワイトペーパーとそれに関連するデータの視覚化が生まれた」と説明した。
分析中、チームは世界中から発信され、さまざまな組織タイプに由来する 36 の異なる AI 原則に関する文書を調査しました。 調査の結果、多くの文書にわたって XNUMX つのテーマが常に出現していることが判明しました。
プライバシーと説明責任は、AI の安全性/セキュリティと同様に、最もよく登場する倫理的テーマの 2019 つでした。 透明性/説明可能性もよく挙げられる目標であり、XNUMX 年を通じてアルゴリズムをより説明可能にしようとする多くの試みが行われました。データバイアスに対する懸念の高まりを反映して、公平性/無差別も倫理上の焦点でした。 人間によるテクノロジーの制御を確保し、AI に決定権を明け渡さないことについても大きく言及されました。 研究者が見つけたXNUMX番目の共通テーマは職業上の責任でした。 最後に、研究者らは調査した AI 倫理文書の中で、人間の価値観の促進に関する継続的な言及を発見しました。
研究チームは、これらのテーマが AI 倫理文書内でどのように現れるかについて、論文とそれに付随する文書で定性的および定量的に分析しました。 地図。 マップには、各テーマが言及された場所が表示されます。
研究チームは、AI倫理に関する議論の多くは人間の価値観と権利への懸念を中心に展開していると指摘した。 研究論文には次のように記載されています。
「私たちの文書の64%には人権への言及が含まれており、14つの文書(XNUMX%)は全体的な取り組みの枠組みとして国際人権を取り上げていました。」
人権と価値観への言及は、民間部門のグループや市民社会グループが作成した文書でより一般的でした。 これは、AI 民間企業が利益だけを気にしているのではなく、倫理的な方法で AI を生産することに関心があることを示しています。 一方で、政府機関は全体的に AI 倫理に対する関心や意識が低いようで、政府機関が AI 倫理に関わるとしている AI 関連文書は半分未満です。
研究者らはまた、調査した文書がより新しいものである場合、それらは少数のテーマではなく、XNUMX つの最も顕著なテーマすべてに言及している可能性が高いことにも言及しました。 この事実は、AI の倫理的な使用を構成するものについての背後にある考え方が、AI 倫理に関する議論を主導する人々の間で融合し始めていることを示唆しています。 最後に研究者らは、AIの開発を導く上でこれらの原則が成功するかどうかは、それらの原則がAI開発コミュニティ全体にどれだけうまく統合されているかに依存すると述べている。 研究者らは論文の中で次のように述べています。
「さらに、原則はガバナンスの出発点であり、目的ではありません。 一連の原則自体は、穏やかな説得力以上のものである可能性は低いです。 その影響は、関連する政策(AI国家計画など)、法律、規制だけでなく、専門的な実践や日常業務など、より大きなガバナンスエコシステムにどのように組み込まれるかによって左右される可能性が高い。」