人工知能
AI Now Instituteは、感情検出ソフトウェアの誤用とその他の倫理的な問題について警告する

AI Now Instituteは、感情検出技術の使用を制限するために、法律や規制機関が厳格な基準を設けることを求める報告書を発表しました。この報告書では、従業員の採用や学生の受け入れなどの重要な決定を下す場合に、感情検出技術の使用を禁止することを提案しています。また、AI分野のさまざまなトピックに関する他の提案も含まれています。
AI Now Instituteは、ニューヨーク大学に基づく研究機関で、AIの社会への影響を研究する使命を持ちます。AI Nowは、毎年、AI研究の現状とAIの使用による倫理的な影響についての調査結果を示す報告書を発表しています。BBCによると、今年の報告書では、アルゴリズムによる差別、AI研究における多様性の欠如、労働問題などのトピックについて論じられています。
感情認識、つまり感情検出アルゴリズムの技術用語は、急速に成長しているAI研究分野です。感情検出技術を使用して決定を下す場合、システムはマイクロ表現や声のトーン、ボディランゲージなどの分析によって、人々の感情状態について信頼できる情報を抽出できるという主張があります。AI Now研究所は、感情検出技術が、誰を採用するか、保険料を設定するか、学生が授業に集中しているかどうかを監視するなど、幅広いアプリケーションで使用されていることを指摘しています。
AI Nowの共同創設者であるケイト・クロフォード教授は、人間の感情を比較的単純なモデルで正確に予測できるという考えが広まっていることを説明しました。クロフォードは、一部の企業が、顔に表れる6つの基本的な感情タイプのみがあるというポール・エクマンの理論に基づいてソフトウェアを開発していることを指摘しました。しかし、クロフォードは、エクマンの理論が提案されて以来、顔の表情には状況や文化によって簡単に変化する可能性があることがわかっていることを強調しました。
「同時に、これらの技術が導入されているのと同じ時期に、多数の研究が、感情と顔の表情との間に一貫した関係がないことを示しています」とクロフォードはBBCに語った。
この理由から、AI Now研究所は、感情認識の多くは信頼できない理論と疑わしい科学に基づいていると主張しています。したがって、感情検出システムの使用は、より多くの研究が行われるまで延期されるべきであり、「政府は、感情認識を使用した重要な決定を下すことを特に禁止するべきである」と述べています。AI Nowは、特に「敏感な社会的および政治的状況」、つまり雇用、教育、警察活動などの状況で、感情認識技術の使用を停止するべきであると主張しています。
少なくとも1つの感情認識を専門とするAI開発企業であるEmteqは、技術の誤用を防ぐための規制が必要であると同意しています。Emteqの創設者であるチャールズ・ンドゥカは、AIシステムがさまざまな顔の表情を正確に認識できるものの、表情と感情の間には単純な対応関係がないことをBBCに説明しました。ンドゥカは、規制が研究を妨げる可能性について懸念を表明し、「何かが禁止される場合は、赤ちゃんと風呂の水を一緒に捨てないようにすることが重要です」と述べました。
NextWebによると、AI Nowは、AI業界を導くべき他の政策や規範についても提案しています。
AI Nowは、AI業界が職場での多様性を高め、労働者が侵入的または搾取的なAIについて懸念を表明する権利を保証する必要性を強調しています。テクノロジー業界の労働者は、自分の努力が有害または非倫理的な作業に使用されているかどうかを知る権利を持つべきです。
AI Nowは、健康関連のAIから得られたデータの使用について、情報提供された同意を要求するための措置を講じることを法律が規定することを提案しています。さらに、データのプライバシーをより厳重に取り扱うべきであり、プライベートおよびパブリックの両方のエンティティをカバーするバイオメトリックデータのプライバシー法を設計するべきであると述べています。
最後に、研究所は、AI業界がよりグローバルに考え、行動する必要性を強調し、AIの政治的、社会的、環境的影響を考慮するよう提案しています。地理的移行や気候変動などのAIの影響について、政府が取り組むべきことを強調し、AI業界の気候への影響を公開することを提案しています。












