スタブ 研究者らが長年の機械学習の思い込みに挑戦 - Unite.AI
私達と接続

倫理

研究者らが長年の機械学習の仮説に挑戦

公開済み

 on

カーネギーメロン大学の研究者らは、公共政策の決定に使用されるアルゴリズムの精度と公平性の間にはトレードオフがあるという長年の機械学習の仮説に異議を唱えている。 

機械学習の使用は、刑事司法、雇用、医療提供、社会福祉介入などの多くの分野で増加しています。 この成長に伴い、これらの新しいアプリケーションが既存の不平等を悪化させる可能性があるのではないかという懸念も高まっています。 これらは、人種的少数派や経済的不利な立場にある個人にとって特に有害となる可能性があります。 

システムの調整

バイアスを防ぐために、データ、ラベル、モデルのトレーニング、スコアリング システム、およびシステムのその他の側面に対する継続的な調整が行われます。 ただし、理論的には、こうした調整が多くなるとシステムの精度が低下するということが想定されてきました。 

CMU のチームは、XNUMX 年 XNUMX 月に発表された新しい研究でこの理論に異議を唱え始めました。 ネイチャーマシンインテリジェンス.

Rayid Ghani は、コンピュータ サイエンス学部の機械学習学科 (MLD) およびハインツ情報システムおよび公共政策大学の教授です。 彼には、MLD の研究科学者であるキット・ロドルファが加わりました。 そしてSCSの博士研究員Hemank Lamba氏。 

現実世界のアプリケーションのテスト

研究者らはこの仮定を実際の応用例でテストしたところ、多くの政策領域においてトレードオフは無視できることがわかりました。 

「実際には両方を手に入れることができます。 公平かつ公平なシステムを構築するために精度を犠牲にする必要はありません」とガーニ氏は語った。 「しかし、公平かつ公平になるようにシステムを意図的に設計する必要があります。 既製のシステムは機能しません。」

チームは、需要のあるリソースが限られている状況に焦点を当てました。 これらのリソースの割り当ては、機械学習によって支援されます。

彼らは次の XNUMX つの分野のシステムに焦点を当てました。

  • 再投獄を減らすために、刑務所に戻るリスクに基づいて限定的なメンタルヘルスケアの支援を優先する。
  • 深刻な安全違反を予測して、都市の限られた住宅検査官をより適切に配置する。
  • 追加のサポートが最も必要な生徒を特定するために、生徒が期限内に高校を卒業できないリスクをモデル化する。
  • 教師が教室のニーズを満たすクラウドファンディングの目標を達成できるよう支援します。

研究者らは、精度を最適化したモデルが目的の結果を効果的に予測できることを発見しました。 しかし、彼らはまた、介入の推奨においてかなりの差異があることも実証した。 

研究者らが公平性の向上を目的としたモデルの出力に調整を適用したときに、重要な結果が得られました。 彼らは、人種、年齢、収入に基づく格差を取り除いても精度が損なわれないことを発見しました。 

「私たちは、人工知能、コンピューターサイエンス、機械学習のコミュニティが、精度と公平性の間のトレードオフの仮定を受け入れるのをやめ、両方を最大化するシステムを意図的に設計し始めることを望んでいます」とロドルファ氏は述べた。 「私たちは、政策立案者が公平な成果を達成するための意思決定のツールとして機械学習を採用することを望んでいます。」

Alex McFarland は、AI ジャーナリスト兼ライターであり、人工知能の最新の発展を調査しています。彼は世界中の数多くの AI スタートアップ企業や出版物と協力してきました。