スタブ AI研究者、AIをより倫理的にするためにAIバイアスに報奨金を出すことを提案 - Unite.AI
私達と接続

倫理

AI研究者がAIをより倫理的にするためにAIバイアスに報奨金を与えることを提案

mm

公開済み

 on

Intel、Google Brain、OpenAIなどの企業やAI開発ラボのAI研究者チームは、AIの倫理的な使用を確保するために報奨金の利用を推奨している。 研究者チームは最近、倫理的なAIの使用に関する多くの提案を発表し、その中にはAIの偏見を発見した人々に報酬を与えることがAIをより公平にする効果的な方法である可能性があるという提案が含まれていた。

VentureBeat が報じているようにでは、米国と欧州のさまざまな企業の研究者が協力して、AI 開発のための一連の倫理ガイドラインと、ガイドラインを満たす方法に関する提案をまとめました。 研究者らの提案の XNUMX つは、AI プログラム内にバイアスを発見した開発者に報奨金を提供することでした。 この提案は、「信頼できる AI 開発に向けて: 検証可能な主張をサポートするメカニズム"。

研究者チームが対処したいと考えているバイアスの例として、医療アプリケーションから法執行機関が使用する顔認識システムに至るまで、あらゆるもので偏ったデータとアルゴリズムが見つかっています。 このような偏見の発生の XNUMX つは、コロナウイルスのパンデミックに対応して刑務所の人口規模を削減する際に、米国司法省が囚人をトリアージし、どの囚人を帰宅させることができるかを決定するために最近使用されたリスク評価ツール「PATTERN」です。

コンピューター プログラム内で望ましくない動作を発見した開発者に報酬を与える慣行は、 古いもの、しかし、AI倫理委員会がAIバイアスと戦うための選択肢としてこのアイデアを真剣に推進したのはこれが初めてかもしれません。 AI の倫理性を確保できるほど十分なバイアスを発見できるほどの AI 開発者が存在する可能性は低いですが、それでも企業が全体的なバイアスを軽減し、どのような種類のバイアスが自社の AI システムに漏れ込んでいるかを把握するのに役立ちます。

この論文の著者らは、バグ報奨金の概念はバイアス報奨金と安全報奨金を使用して AI に拡張でき、この手法を適切に使用することで、より適切に文書化されたデータセットとモデルが得られる可能性があると説明しました。 ドキュメントには、モデルとデータの両方の制限がより適切に反映されているはずです。 研究者らは、同じ考え方が解釈可能性、セキュリティ、プライバシー保護などの他の AI 特性にも適用できる可能性があるとさえ述べています。

AI の倫理原則をめぐる議論が増えるにつれ、多くの人が、原則だけでは十分ではなく、AI の倫理性を保つために措置を講じる必要があると指摘しています。 論文の著者らは、「産業界や学術界における既存の規制や規範は、責任あるAI開発を保証するには不十分である」と指摘している。 Google Brainの共同創設者でAI業界のリーダーであるAndrew Ng氏も 立派な 指導原則だけではAIが責任を持って公正に使用されることを保証する能力が欠けており、その多くはより明確で実行可能なアイデアを持つ必要があると述べている。

共同研究チームによるバイアス賞金稼ぎの推奨は、倫理原則を超えて倫理的行動の領域に移行しようとする試みである。 研究チームは、AI 分野における倫理的行動を促す可能性のある他の多くの推奨事項も作成しました。

研究チームは、企業が AI の使用をより倫理的にするために従うべき他の多くの推奨事項を作成しました。 彼らは、AI インシデントの一元化されたデータベースを作成し、より広範な AI コミュニティ間で共有する必要があると提案しています。 同様に、研究者らは、監査証跡を確立し、これらの証跡に AI プラットフォームでの安全性が重要なアプリケーションの作成と展開に関する情報を保存すべきであると提案しています。

研究チームは、人々のプライバシーを保護するために、暗号化通信、フェデレーテッド ラーニング、差分プライバシーなどのプライバシー中心の技術をすべて採用する必要があると提案しました。研究チームはこれに加えて、オープンソースの代替手段を広く利用できるようにし、商用AIモデルを厳しく精査する必要があると提案した。最後に、研究チームは、学術研究者がハードウェアの性能主張を検証できるように、政府の資金を増額することを提案しています。

専門分野を持つブロガーおよびプログラマー 機械学習 & 深層学習 トピック。 ダニエルは、他の人が社会利益のために AI の力を活用できるよう支援したいと考えています。