

プリンセス・マーガレット癌センター、トロント大学、スタンフォード大学、ジョンズ・ホプキンス大学、ハーバード公衆衛生大学院、マサチューセッツ工科大学など様々な機関に所属する国際的な科学者グループが、人工知能(AI)研究における透明性の向上を求めています。この要請の主な背景には、研究に基づいて癌治療を加速させる可能性のある重要な知見を広く共有したいという考えがあります。 科学者らが、計算科学研究者の透明性に関する科学誌の基準引き上げを求めた記事は、2020年10月14日にNature 誌に掲載されました。このグループはまた、研究者が論文発表時にコード、モデル、計算環境を公開すべきだと主張しています。 論文のタイトルは「Transparency and reproducibility in artificial intelligence」でした。 AI研究の詳細公開 ベンジャミン・ハイブ=ケインズ博士は、プリンセス・マーガレット癌センターのシニア・サイエンティストであり、本論文の筆頭著者です。 「科学の進歩は、研究者が研究結果を精査し、主要な知見を再現して学ぶ能力にかかっています」とハイブ=ケインズ博士は述べています。「しかし、計算科学研究においては、AI研究の詳細が完全にアクセス可能であることが広く受け入れられた基準となっていません。これは我々の進歩にとって有害です。」 この懸念は、2020年にMcKinneyらによって主要科学誌に掲載されたGoogle Healthの研究を受けて高まりました。その研究では、乳癌スクリーニングにおいてAIシステムが人間の放射線科医を堅牢性と速度で上回ると主張されていました。この研究は、多くの主要メディアで大きく取り上げられました。 モデルの再現不可能性 この研究後に生じた主な懸念の一つは、使用された方法、コード、モデルが十分に説明されていなかったことです。この透明性の欠如は、研究者がモデルの動作原理を学ぶことができず、結果として他の機関でそのモデルを使用できないことを意味しました。 「紙面上、理論上では、McKinneyらの研究は素晴らしいものです」とハイブ=ケインズ博士は言います。「しかし、そこから学ぶことができないのであれば、科学的価値はほとんど、あるいは全くありません。」 ハイブ=ケインズ博士は、トロント大学医学生物物理学の准教授も兼任しています。また、ベクター人工知能研究所のアフィリエイトでもあります。 「研究者は、自分の研究が再現可能であることを保証するために時間とリソースを費やすよりも、知見を発表することにインセンティブが向けられがちです」とハイブ=ケインズ博士は続けます。「学術誌はAIの『誇大宣伝』に弱く、研究を再現可能にするために必要なすべての材料を含まない論文を受け入れる基準を下げてしまうことがあります。これはしばしば、彼ら自身のガイドラインと矛盾しています。」 このような環境は、AIモデルが臨床現場に到達するまでにより長い時間がかかり、研究者がモデルを再現したり学んだりできないことを意味します。 研究者グループは、この問題を解決し、研究方法を共有できるようにするための様々なフレームワークとプラットフォームを提案しました。 「私たちは、癌患者のためのAIの有用性に大きな期待を寄せています」とハイブ=ケインズ博士は述べています。「発見を共有し、その上に築いていくこと——それが真の科学的インパクトなのです。」


寄稿者: Eric Paternoster、Infosys Public Services CEO Googleの親会社AlphabetのCEOであるSundar Pichaiは、AIの発展を「火や電気よりも深遠なもの」と表現し、COVID-19はこの技術の可能性を解き放つ新たな緊急性をもたらしました。AIの応用は今や確固たる注目の的であり、COVID治療の改善、潜在的なCOVIDキャリアの追跡、供給不足に悩む小売ウェブサイトのユーザーへのリアルタイムチャットボットの展開などに活用されています。これらの応用例は、AIが企業のレジリエンスを高め、より広範な社会に利益をもたらすことを示しています。 したがって、「クラウドネイティブ」と同様に、前四半期のバズワードは「AIファースト・トランスフォーメーション」かもしれません。これは、業界関係者がCOVIDが去った後も真実であり続けると信じている用語です。多くの企業にとって、コスト削減(例:需要と供給を一致させるサプライチェーンアルゴリズム)と生産性の顕著な向上(例:銀行がリアルタイムで書類と本人確認を行う場合)という約束は、無視するにはあまりにも魅力的です。 なぜAIファースト・トランスフォーメーションなのか? AIファースト・トランスフォーメーションでは、企業はAIを北極星として使用し、それを知的に使用するだけでなく、人、プロセス、システムによって大規模に行われる意思決定に影響を与える方法で活用しようと努めます。これは、組織を従業員、パートナー、顧客間の変化するダイナミクスに同調させます。これにより、長期的な競争優位性を創出しながら、迅速に方向転換し、変化する需要に対応することが可能になります。 しかし、すべての企業が同じレベルのAI成熟度にあるわけではありません。「従来型AIグループ」またはH1と呼べる企業があります。経験と投資が少ないこれらの企業は、一般的に、250年前から存在する単純ベイズや、1995年にTin Kam Hoによって開発されたランダムフォレストなどの古典的なアルゴリズムを使用して、既存システム内の断片的な知能を強化します。このようなAIの使用は厳密にルールベースで非常に硬直的であり、発見したルールから一般化する能力に欠けています。次に、「ディープラーニンググループ」またはH2があります。これらの企業は、ニューラル機械翻訳や文字起こしベースのシステムなど、より複雑なAIを取り入れ、会話からの洞察を掘り下げます。このようなシステムはより強力ですが、なぜそのような行動をとるのかを簡単に説明できません。また透明性にも欠けます。これら2つのグループにとって、使用されるAIは信頼性や信頼性が低く、偏った意思決定を行い、政府機関、規制当局、一般大衆から企業に否定的な注目を集める可能性があります。 これらの企業は、AIの実装をさらに一歩進めて、AIが自己学習的で生成的である第3の陣営(H3)に移行するための動きを今すぐ始める必要があります。この段階では、AIシステムは半教師あり、あるいは教師なし学習さえ行います。それらは透明性があり、マルチタスク学習を通じて「常識」を獲得します。これらのシステムはより豊かな知能を提供し、リアルタイムの実用的な洞察をもたらします。これは、すべての段階で解釈可能かつ説明可能な、適切に管理・統治されたAIを通じて実現されます。 より責任ある透明性の高いAIに向けてどのように取り組むか AIは、学校、職場、その他の公共機関の管理にますます使用されています。このような環境では、AIが公平で透明性を持つことがこれまで以上に重要です。しかし、社会がこのAI採用の爆発的増加に対処する中で、規制当局はAI技術の適切な開発と展開に関する限定的なガイダンスしか提供していません。したがって、主導権を握る責任は企業にあります。より広範な技術業界は、財政力と人的資本を投入し、断片的なAIの初期実装を、効率的で創造的、責任ある、透明性の高いインテリジェンス駆動型エコシステムへと変革しなければなりません。この領域に移行するために、企業は以下の4つのことを行うべきです: 人間をループに組み込む: AIモデルは、人間から独立して動作するように設計されることがよくあります。しかし、多くの場合、人間の要素は重要です。人間は意思決定をレビューし、AIプロジェクトをしばしば脱線させるバイアスやミスを避ける必要があります。2つのユースケースとして、不正検知と法執行機関が関与するケースが挙げられます。企業がAIファーストの旅で優位に立つためには、AI実践者をゆっくりと着実に時間をかけて雇用することをお勧めします。 偏りのあるデータセットを排除する: 偏りのないデータセットは、信頼性が高く公平で差別のないAIモデルを作成するための重要な前提条件です。その重要性を理解するために、AIは履歴書の選考や銀行の信用スコアリングに使用されており、一部の司法制度にさえ導入されています。この状況において、チェックされないバイアスは非常に現実的な影響を及ぼしてきました。 意思決定が説明可能であることを保証する: この機能は多くの主要メディアで取り上げられており、当然のことです。XAIは、AIシステムが特定の決定を下した理由を説明するのに役立ちます。それは、ディープラーニングモデルのどの特徴が、他の特徴よりも多く使用されて予測や仮説を立てたのかを明らかにします。特徴の重要性を理解し、意思決定がどのように行われたかを正当化できることは、自動運転車や医療生検で使用されるコンピュータビジョンなどのユースケースにとって重要です。 発見を確実に再現する: 研究プロジェクトにおける一般的な必要性として、AIモデルは時間の経過とともに予測を行う際に一貫性を持つべきです。そのようなモデルは、新しいデータが提示されても動揺してはなりません。 これら4つのことは、透明性の高いインテリジェンス駆動型エコシステムを創出し、私たちが「ライブ・エンタープライズ」と呼ぶものに向かって進みます。ここでは、偏りがなく説明可能な意思決定がほぼリアルタイムで行われ、企業全体が人間によって統治される知覚を持つ有機体として機能します。詳細については、Infosys...


人工知能(AI)分野で最近浮上している問題の一つが、コンピュータビジョンにおけるバイアスです。多くの専門家が現在、AIシステム内にバイアスを発見しており、法廷での量刑プログラムなど様々なアプリケーションで結果が歪められる事態を招いています。 これらの問題の一部を解決しようとする大規模な取り組みが進んでおり、最新の進展はプリンストン大学からもたらされました。同機関の研究者らは、AIシステムのトレーニングに使用される画像内の潜在的なバイアスを指摘できる新ツールを開発しました。 この研究は、8月24日に開催されたバーチャルの欧州コンピュータビジョン会議で発表されました。 AIシステムにおけるバイアス 現在のAIシステムに存在するバイアスの主な理由の一つは、オンラインソースから得られる大量の画像セットでトレーニングされることが多いためです。これらの画像はステレオタイプ的である可能性があり、コンピュータビジョンの開発に用いられると、意図せず影響を受けたモデルが生まれる結果になりかねません。コンピュータビジョンは、コンピュータが人、物体、行動を識別することを可能にする技術です。 研究者らによって開発されたこのツールはオープンソースであり、視覚データセット内の潜在的なバイアスを自動的に明らかにすることができます。このツールは、画像セットがコンピュータビジョンモデルのトレーニングに使用される前に作用し、代表性の不足やステレオタイプに関する問題が影響を及ぼす前に是正することが可能です。 REVISE この新ツールはREVISEと呼ばれ、統計的手法に依存してデータセット内の潜在的なバイアスを特定します。対象ベース、性別ベース、地理ベースの3つの領域に焦点を当てています。 REVISEは完全自動化されており、ユーザーがより多くの制御を持てるようにデータセット画像のフィルタリングとバランス調整を含む以前の手法を基に構築されました。 この新ツールは、データセット内のコンテンツを分析するために、既存の画像アノテーションと測定値に依存しています。それらの既存のアノテーションには、物体の数や画像の原産国などが含まれます。 ツールが機能する一例として、REVISEは人と花の両方の画像が性別によってどのように異なるかを示しました。男性は式典や会議で花と一緒に写る可能性が高く、女性は絵画や演出されたシナリオで花と一緒に写る可能性が高いことがわかりました。 Olga Russaskovskyは、コンピュータサイエンスの助教授であり、Visual AI Labの主任研究員です。この論文は、大学院生のAngelina Wangおよびコンピュータサイエンス准教授のArvind Narayananと共著されました。 ツールが不一致を特定した後、「これが全く無害な事実なのか、それともより深いことが起きているのかという疑問が生じますが、それを自動化するのは非常に難しいことです」とRussaskovskyは述べました。 代表性が不足または誤って表現されている地域 世界中の様々な地域は、コンピュータビジョンのデータセットにおいて代表性が不足しており、これはAIシステムにバイアスをもたらす可能性があります。発見の一つは、米国と欧州諸国からの画像が劇的に多いことでした。REVISEはまた、世界の他の地域からの画像には、現地の言語での画像キャプションが付いていないことが多いことも明らかにし、多くの画像が観光客の視点から見た国のものである可能性があることを意味しています。 「…この地理分析は、物体認識が依然として非常に偏った排他的なものであり、異なる地域や人々に不平等に影響を与える可能性があることを示しています」とRussaskovskyは続けました。 「コンピュータサイエンスにおけるデータセット収集の慣行は、最近までそれほど徹底的に精査されてきませんでした」とWangは述べています。画像収集に関しては、「インターネットからスクレイピングされており、人々は自分の画像が[データセットで]使用されていることに常に気づいているわけではありません。より多様な人々のグループから画像を収集すべきですが、その際には、敬意を持った方法で画像を取得していることに注意する必要があります。」 Vicente Ordonez-Romanは、バージニア大学のコンピュータサイエンス助教授です。 「ツールとベンチマークは重要な一歩です…それらにより、パイプラインのより早い段階でこれらのバイアスを捕捉し、問題設定や前提、データ収集の慣行について再考することが可能になります」とOrdonez-Romanは述べました。「コンピュータビジョンには、表現とステレオタイプの伝播に関する特定の課題があります。プリンストンVisual AI...


人工知能(AI)について議論する際、AIが生存を脅かす存在(エクシステンシャル・リスク)であるかどうかは一般的な論点です。この問いに答えるには、機械学習(ML)の背後にある技術を理解し、人間が擬人化する傾向があることを認識する必要があります。現在利用可能で懸念の原因となっている「特化型人工知能(ANI)」と、AIの黙示録的描写に最も関連付けられる脅威である「汎用人工知能(AGI)」という2種類のAIについて探っていきます。 特化型人工知能(ANI)の脅威 ANIが何であるかを理解するには、現在利用可能なあらゆるAIアプリケーションがANIの一種であることを理解すれば十分です。これらは特定の専門分野に特化したAIの領域です。例えば、自動運転車は、車両を地点AからBへ移動させるという唯一の目的で設計されたAIを使用しています。別の種類のANIとしては、チェスをプレイするために最適化されたチェスプログラムがあり、強化学習を用いて継続的に自己改善したとしても、そのチェスプログラムが自動運転車を操作できるようになることは決してありません。 担当する操作に焦点を当てているため、ANIシステムは世界を乗っ取るために汎用的な学習を利用することができません。これは良い知らせです。悪い知らせは、人間のオペレーターへの依存により、AIシステムは偏ったデータ、人的ミス、さらには悪意のある人間のオペレーターの影響を受けやすいことです。 AI監視 人類にとって、人間がAIを利用してプライバシーを侵害し、場合によってはAI監視を用いて人々の自由な移動を完全に阻止すること以上の危険はないかもしれません。中国、ロシア、その他の国々はCOVID-19の期間中、それぞれの人口の移動を監視・制御することを可能にする規制を通過させました。これらの法律は、特に独裁的な指導者がいる社会では、一度施行されると撤廃することが困難です。 中国では、人々の家の外、場合によっては家の中にカメラが設置されています。世帯員が外出するたびに、AIが到着時刻と出発時刻を監視し、必要に応じて当局に警告します。それだけでは不十分であるかのように、顔認識技術の助けを借りて、中国はカメラに識別されるたびに各個人の移動を追跡することができます。これはAIを制御する主体に絶対的な権力を与え、その市民には全く救済手段を与えません。 このシナリオが危険な理由は、腐敗した政府がジャーナリスト、政敵、または政府の権威に疑問を呈することを敢えてするあらゆる人物の動きを注意深く監視できることです。あらゆる動きが監視されているとき、ジャーナリストや市民が政府を批判することに慎重になるのは容易に理解できます。 幸いなことに、顔認識技術が都市に浸透するのを防ごうと戦っている多くの都市があります。特に、オレゴン州ポートランドは最近、市内で不必要に顔認識技術を使用することをブロックする法律を可決しました。これらの規制の変更は一般大衆には気づかれなかったかもしれませんが、将来的には、これらの規制が何らかの自律性と自由を提供する都市と、抑圧的に感じられる都市との違いを生む可能性があります。 自律型兵器とドローン 4500人以上のAI研究者が自律型兵器の禁止を求め、Ban Lethal Autonomous Weapons ウェブサイトを立ち上げています。このグループには、ヒューマン・ライツ・ウォッチ、アムネスティ・インターナショナル、そしてイーロン・マスク、ニック・ボストロム、スチュアート・ラッセルを含む優れた科学諮問委員会を有するThe Future of Life Instituteなど、多くの著名な非営利団体が署名者として名を連ねています。 続ける前に、懸念の明確な理由を最もよく説明しているThe Future of Life Instituteからの引用を紹介します:「各ターゲットが倫理的かつ法的に正当であると検証されるために人間の監視を必要とする半自律型兵器とは対照的に、このような完全自律型兵器は人間の介入なしにターゲットを選択し交戦し、致死的危害の完全な自動化を表しています。」 現在、スマート爆弾は人間によって選択されたターゲットで展開され、爆弾はAIを使用して進路をプロットし、ターゲットに着弾します。問題は、方程式から人間を完全に排除することを決定したときに何が起こるかです。 AIがどの人間を標的とする必要があるか、および許容されるとみなされる巻き添え被害の種類を選択するとき、我々は引き返し不能な地点を越えてしまったかもしれません。これが、多くのAI研究者が自律型兵器に遠く関連するものの研究に反対している理由です。...


Appenは、機械学習システム向け高品質トレーニングデータの世界的リーダーとして、機械学習および人工知能アプリケーション構築における責任あるトレーニングデータの基準とベストプラクティスの設計と公開のために世界経済フォーラムと提携しました。世界経済フォーラムのアソシエイトパートナーとして、Appenは業界リーダーと協力し、「テクノロジーガバナンスの未来形成:人工知能と機械学習」プラットフォーム内で新基準を公開します。このプラットフォームは、各国および各産業にわたる責任あるトレーニングデータの収集と作成に対するグローバルな足跡と指針を提供します。 責任あるトレーニングデータの基準とベストプラクティスは、AIプロジェクトの品質、効率、透明性、責任を向上させると同時に、包括性と協力を促進することを目的としています。より広範なテクノロジーコミュニティによるこれらの基準の採用は、企業と一般市民によるAI利用の価値と信頼を高めるでしょう。 現代のAIアプリケーションは、深層学習とニューラルネット技術に依存する機械学習モデルを訓練するために、人間による注釈付きデータに大きく依存しています。責任あるトレーニングデータの実践には、公正な賃金の支払い、労働者のウェルネスに関するガイドラインと基準の遵守が含まれます。Appenのクラウド倫理規定は2019年に公開されました。 「倫理的で多様なトレーニングデータは、責任あるAIシステムを構築するために不可欠です」と、AppenのCEO、Mark Brayanは述べています。「堅牢なトレーニングデータプラットフォームと管理戦略は、多くの場合、成功し責任ある機械学習駆動製品を生産に投入するための最も重要な要素です。当社はこの分野における20年以上の専門知識とクラウド倫理規定を世界経済フォーラムと共有し、テクノロジー産業全体における基準と責任ある実践を加速できることを嬉しく思います。」 このパートナーシップの主要な焦点は、AI業界のリーダーを集結させ、以下に取り組むことです: Human-Centered AI for Human Resourcesプロジェクトへの貢献 C-Suite ToolkitとModel AI Governance FrameworkによるAIリーダーシップの強化 「大量の責任ある方法で調達されたトレーニングデータへのアクセスを得ることは、機械学習業界における長年の課題でした」と、世界経済フォーラムのAIおよび機械学習責任者、Kay Firth-Butterfieldは述べています。「業界は、責任あるトレーニングデータを取得し使用することの意味についてのガイドラインと基準で応える必要があります。ユーザーの許可、プライバシー、セキュリティから、AIサプライチェーンの一部として個人が自身の仕事に対してどのように報酬を得るかまで、幅広いトピックに対処します。我々は、Appenおよびマルチステークホルダーコミュニティと協力し、世界中での責任ある機械学習開発に対する実践的な指針を提供することを楽しみにしています。」 10月14日開催のAppen年次Train AIカンファレンスに業界リーダーとして参加し、パイロット段階を超えてAIを本番環境に投入する自信を得ましょう。厳選されたトピック集が、実践的な洞察をもってAIプログラムを成功裏に拡大し、より早くROIを達成する方法を教えます。Kay Firth-Butterfieldが基調講演者として、責任あるAI実践の重要性と、リーダーが倫理基準を満たしていることを確認するために利用可能なツールについて発表します。


BAE Systems Inc.のインテリジェンス・セキュリティ部門 副社長兼主任弁護士 Alfred Crews, Jr 寄稿 今年初め、世界的なパンデミック以前に、私はチャールストンで開催されたThe Citadelのインテリジェンス倫理会議に出席し、国家安全保障の保護に関連する情報収集における倫理について議論しました。防衛産業においては、知識、コンピューティング、先進技術、特に人工知能(AI)と機械学習(ML)の分野での拡散が見られます。しかし、情報収集やリアルタイム戦闘の文脈でAIを展開する際には、重大な問題が生じる可能性があります。 量子コンピューティングと組み合わさったAIはリスクを提示する 我々が問い、分析し、前進の道筋を決定しなければならないのは、戦時意思決定のプロセスにおいて、量子コンピューティング能力と組み合わさったAIを使用する場合です。例えば、『ターミネーター』を覚えていますか?我々の技術が飛躍的に進歩するにつれ、スカイネットが提示した現実が目の前にあります。我々は「スカイネットが我々を襲ってくるのか?」と自問するかもしれません。記憶の道を一緒に辿ってみましょう。AI搭載マシンは、人間の指示なしに自ら考え、意思決定する能力を持っていたために支配権を握りました。マシンが人間をバグと判断した時、彼らは人類を滅ぼそうとしました。誤解しないでください。AIには大きな可能性がありますが、関与するリスク要因のため、制御パラメータが必要だと私は信じています。 AIの倫理的曖昧さと哲学的ジレンマ これはまさに、米国国防総省(DoD)が独自のAIの倫理原則を発表した理由だと私は考えます。なぜなら、AIの使用は新たな倫理的曖昧さとリスクを提起するからです。AIと量子コンピューティング能力を組み合わせると、意思決定の能力が変化し、制御を失うリスクが増大します。それは今日我々が認識している以上かもしれません。量子コンピューティングは、人間の脳のオペレーティングシステムを恥じ入らせるほどです。なぜなら、スーパーコンピューターは、人間の脳が到底及ばないほど、指数関数的に多くの計算をより速く、より正確に行うことができるからです。 さらに、コンピューティングと組み合わさったAIの使用は、哲学的ジレンマを提示します。世界はどの時点でマシンが自らの意志を持つことを許容するのでしょうか?そして、マシンが自ら考えることを許された場合、それはマシン自体が自己認識を持つようになったことを意味するのでしょうか?自己認識を持つことは生命を構成するのでしょうか?社会として、我々はこの状況をどう定義するかまだ決定していません。したがって、現状では、人間の制御なしにマシンが独自に行動を起こすことは、結果を招く可能性があります。マシンは、発砲を止めようとする人間の介入を無効にできるでしょうか?マシンが独自に動作している場合、我々は電源を抜くことができるでしょうか? 私の見るところ、防衛的な観点からAIを使用することは容易です。しかし、攻撃的用途に転用するのはどれほど簡単になるでしょうか?攻撃側では、マシンがその場で戦闘発砲の決定を行うことになります。マシンが敵を撃ち倒すことは、ジュネーブ条約や武力紛争法の違反を構成するでしょうか?この領域に急速に移行する中で、世界は、戦闘におけるAIと量子コンピューティングの使用は、我々が現在有している法律に従わなければならないことに同意する必要があります。 DoDは、自律システムと共にAIを使用する際の立場を持っており、意思決定プロセスには常に人間が関与し、武器の発砲の引き金を引く最終決定は人間が行うと述べています。それが我々のルールです。しかし、敵対者が別の道を選び、AI対応マシンにすべての最終決定を行わせることにしたらどうなるでしょうか?その場合、先に議論したように、すでにより速く、より賢く、より正確なマシンが優位に立つことになります。 AIと顔認識を搭載したドローンを見てみましょう。テロリストとラベル付けされた事前決定された標的のために、ドローンは自らの意思で発砲します。実際に発砲の責任は誰にあるのでしょうか?偏見による誤りがあった場合、責任は問えるのでしょうか? AI/MLに組み込まれたバイアス 研究は、マシンは人間よりも間違いを犯す可能性が低いという事実を示しています。しかし、研究はまた、マシンを教える人間の「教師」に基づいて機械学習にバイアスが存在することを証明しています。DoDのAIに関する5つの倫理原則は、「国防総省は、AI能力における意図しないバイアスを最小限に抑えるための慎重な措置を講じる」と述べ、既存のバイアスに言及しています。我々はすでに実証された研究を通じて、顔認識アプリケーションの使用において、有色人種に対する誤検出のバイアスが存在することを知っています。マシンに意思決定の方法を教えるコードを作成する人間がいる場合、バイアスは存在するでしょう。これは、AIを作成した人物が自分自身の中に存在したバイアスに気づいていなかったために、意図しないものである可能性があります。 では、どうすればバイアスを排除できるでしょうか?AIの出力は、入力と同じくらい良いものにしかなりません。したがって、コントロールが必要です。流入するデータを制御しなければなりません。なぜなら、それがAIの結果の有効性を低下させる可能性があるからです。開発者はバイアスを排除するために、常にコードを書き直さなければならないでしょう。 技術の最善の使用法を定義する世界 技術それ自体は善でも悪でもありません。国家がそれをどのように使用するかが、最善の意図を持っていても間違った方向に進ませる可能性があります。人間の生活に影響を与える方法で技術が進歩するにつれ、世界は協力して適切な行動を定義する必要があります。AIアプリケーションから人間を除外すれば、引き金を引く前の「間」、つまり我々を導く道徳的コンパス、立ち止まって「これは正しいか?」と問う「間」も除外することになります。交戦するように教えられたマシンには、その「間」はありません。したがって、問題は、将来、世界はこれに耐えられるか?世界はどこまでマシンに戦闘決定を行わせることを許容するか?です。


Andrea Sommerは、AIを活用して企業がより多様でアクセスしやすい労働力を生み出すためのより良い意思決定を支援する、女性創業のテクノロジー企業UvvaLabsの創業者兼ビジネスリードです。 UvvaLabsが、企業がより多様でアクセスしやすい労働力を作り出すのをAIでどのように支援しているかについてお話しいただけますか? 私たちのアプローチは、職場における不平等という非常に構造的な問題に対して、構造的な解決策を提供することに焦点を当てています。私たちの研究と経験を通じて、多様性とアクセシビリティの観点から「理想的な」組織がどのようなものかについてのモデルを構築しました。当社のAIは、組織全体のデータを分析・評価し、多様性の観点からその組織の「現状」のバージョンを作成します。理想と現状という両側を比較することで、組織を理想の状態に近づけるために、どのような構造を構築し、どの構造を取り除くべきかについての提言を行うことができます。 UvvaLabsを立ち上げたきっかけは何でしたか? 共同創業者と私は幼なじみで、公平性への障壁を取り除くことに生涯情熱を注いできましたが、その方法は大きく異なっていました。共同創業者のLauraは学術の道を進み、カリフォルニア大学バークレー校で社会学の博士号を取得しました。彼女の研究と経験は、特に人種的バイアスの研究において、低品質なデータ環境でも機能する厳密な方法論の構築に焦点を当ててきました。私はビジネスの道を進み、最初にグローバルなテクノロジーブランドで戦略家として働き、ロンドンビジネススクールでMBAを取得した後、アナリティクス分野で最初のビジネスを立ち上げました。私たちの道は異なっていましたが、長年にわたって連絡を取り合っていました。過去11年間ロンドンに住んだ後、私がアメリカに戻ったとき、一緒にプロジェクトに協力する機会が訪れ、UvvaLabsが誕生しました。 AIを活用した人材採用における現在の問題の一つは、人種差別や性差別などの社会的バイアスを意図せず強化してしまう可能性があることです。これはどの程度大きな問題だとお考えですか? これは非常に大きな問題です。意思決定者は、AIが賢明な判断を下すには人間の対応者を必要とするツールであることを理解する代わりに、AIがすべての問題を解決できると信じることがよくあります。採用も例外ではありません。採用プロセスからバイアスを軽減または除去すると主張する製品は数多くあります。しかし、AIはそれを動かすアルゴリズムと同じくらい強力であり、このアルゴリズムは常に人間によって構築されます。最も強力なAIシステムでさえ、すべての人間がバイアスを持っているため、完全にバイアスから自由になることはできません。 例えば、多くのAI採用ツールは、最も費用対効果の高い方法で候補者を提示したり、役職にマッチングしたりするように設計されています。この意図しない費用への焦点は、実際にはバイアスの大きな変曲点を生み出しています。典型的な組織では、多様な人材を採用するにはより多くの時間と労力がかかります。なぜなら、権力構造はそれ自体を再生産し、同質的になる傾向があるからです。しかし、より多様な労働力を構築することの利点は、初期コストをはるかに上回ります。 UvvaLabsは、これらのバイアスがAIシステムに入り込まないようにするために、どのような対策を講じていますか? AIを含むあらゆるテクノロジーをバイアスから解放されたものとして構築する最良の方法は、歴史的に周縁化されてきた人々と、バイアスを最小限に抑えるように設計された研究方法の専門家の両方で構成されたチームを持つことです。それがUvvaLabsで取っているアプローチです。 Uvvalabsは、組織の多様性環境を理解するために、多種多様なデータソースを使用しています。これらのデータソースのいくつかについて触れていただけますか? 組織は低品質なデータ環境です。多くの場合、企業間や部門間で、何がどのように作成されるかについて一貫性がほとんどありません。当社のテクノロジーは、定量的および定性的なデータソースを組み合わせることで、このような環境下でも厳密な分析を提供するように設計されています。私たちにとって重要なのは、容易に利用可能で簡単に共有できるものだけを分析することです。つまり、アプローチを可能な限り非接触型にするためです。 Uvvalabsは、組織の健全性に関する様々な指標を示すダッシュボードを提供しています。これらの指標と、提供される実践的な洞察の種類についてお話しいただけますか? すべての組織は異なるため、各組織はUvvaを少しずつ異なる方法で使用する可能性があります。これは、すべての組織が多様性への取り組みにおいて異なる段階にあるからです。万能の公式はありません。私たちのアプローチは、各組織の優先事項、現在測定可能なもの、そして組織が目指す方向に応じて柔軟に対応します。この作業が、私たちのツールが提供する提言を定義します。 女性のシリアルアントレプレナーとして、新規事業の立ち上げを考えている女性へのアドバイスはありますか? スタートアップは男の社交場であり、客観的に見て女性にとってはより困難であり、有色人種の女性にとってはさらに困難です。女性や有色人種が、機会、資本、コミュニティ、アクセスネットワークから体系的に締め出されてきたという現実から目を背けるべきではありません。とはいえ、この状況は徐々に変化しています。例えば、女性やBIPOCに特化した基金がますます増えています。インキュベーターやアクセラレーターは、プログラムや実践を形作る際に、より包括的に考え、行動するようになっています。多様な起業家コミュニティが出現し、成長しています。 起業家を志すすべての人への私のアドバイスは、挑戦してみることです。常に簡単とは限りません。うまくいかないかもしれません。しかし、起業家精神は、慣習を打ち破り、否定的な意見を持つ人々の考えを間違いだと証明する人々で満ちています。このコミュニティには、より多くの女性とマイノリティが必要です。彼らの夢、製品、そしてストーリーが必要なのです。 また、あなたは女性創業者を結びつける非営利ネットワークであるHive Foundersの創業者でもあります。この非営利組織と、それが女性をどのように支援できるかについて、詳細を教えていただけますか? Hive Foundersは、世界中の女性のためのグローバルな支援ネットワークであり、彼女たちがどの段階にいるかに関わらずサポートします。すべてのビジネスはユニークですが、お互いから学べる多くの教訓があります。コミュニティに加えて、Hive Foundersはイベント、ポッドキャスト、ニュースレターを主催しており、これらはすべて創業者コミュニティにリソースと知識をもたらすように設計されています。 UvvaLabsについて他に共有したいことはありますか? 現在どのような構造が存在するかに関わらず、すべての組織には、より生産的で多様でアクセスしやすい職場へと変革する可能性があります。多様性に投資するには競争上の理由があります。一つには、顧客の状況が変化していることです。例えば、アメリカでは2044年までにマイノリティが多数派になると予測されています。実際には、これは顧客プロファイルも変化していることを意味します。すべての企業は、顧客にとって可能な限り魅力的であり、類似の製品に対して可能な限り競争力を持ちたいと考えています。多様性はその競争資産なのです。賢明な企業とそのリーダーはこれを理解し、自社の職場と製品が可能な限り多くの異なるタイプの人々に奉仕し、支援することを確実にするために、時代の流れに先んじるでしょう。 素晴らしいインタビューをありがとうございました。多様性とAIバイアスについてのご意見を学べてとても興味深かったです。詳細を知りたい読者は、UvvaLabsを訪れてください。


火曜日、多数のAI研究者、倫理学者、データサイエンティスト、社会学者らがブログ記事を公開し、犯罪統計や顔スキャンなどの変数に基づいて個人の犯罪行為の可能性を予測しようとする研究を、学術研究者は追求するのを止めるべきだと主張しました。 このブログ記事はCoalition for Critical Technologyによって執筆され、そのようなアルゴリズムの利用はマイノリティに対する偏見の連鎖を永続させると論じています。顔認識や予測的ポリシングアルゴリズムの有効性に関する多くの研究は、アルゴリズムがマイノリティをより厳しく判断する傾向があることを発見しており、ブログ記事の著者らは、これは刑事司法制度における不平等に起因すると主張しています。司法制度は偏ったデータを生み出すため、そのデータで訓練されたアルゴリズムはそれらのバイアスを増幅する、とCoalition for Critical Technologyは論じています。同連合は、「犯罪性」という概念そのものがしばしば人種に基づいているため、これらの技術に関する研究は、実際には存在しない中立性をアルゴリズムに仮定していると主張します。 The Vergeが報じているように、学術著作の大手出版社であるSpringerは、「画像処理を用いた犯罪性予測のためのディープニューラルネットワークモデル」と題する研究を出版する計画でした。この研究の著者らは、バイアスなく約80%の精度で個人の犯罪の可能性を予測できる顔認識アルゴリズムを開発したと主張していました。しかし、Coalition for Critical TechnologyはSpringerに対し公開書簡を送り、同社がこの研究や同様の研究を含む将来の研究を出版しないよう要請しました。 「Springerのような主要出版社によるこの作品の流通は、繰り返し反証され、社会的に有害な研究が現実世界で正当化され応用される方向への重大な一歩となるでしょう」と同連合は主張しています。 Springerは、MIT Technology Reviewが報じたように、その論文を出版しないと述べました。Springerは、論文は今後の会議に提出されたものの、査読プロセスの後、出版は却下されたと述べています。 Coalition for Critical Technologyは、犯罪性予測論文は、AI技術者や研究者が、敏感で社会的に構築された変数から成るデータに基づいて行動を予測しようとする、より広範で有害な傾向の一例に過ぎないと論じています。同連合はまた、多くの研究が科学的に疑わしい考えや理論に基づいており、生物学や心理学における利用可能な証拠によって支持されていないと主張します。例として、プリンストン大学とGoogleの研究者らが、顔の特徴に基づいて犯罪性を予測できると主張するアルゴリズムは、人相学のような信用を失った危険な疑似科学に基づいていると警告する記事を発表しました。研究者らは、機械学習が、人種差別的なシステムを支持するために用いられた長く反証されてきた理論を復活させるために使われることを防ぐよう警告しました。 最近のBlack Lives Matter運動の勢いは、顔認識アルゴリズムを利用する多くの企業に、これらのシステムの使用を再評価するよう促しています。研究によれば、これらのアルゴリズムは、代表性に欠け偏ったトレーニングデータに基づいているため、頻繁にバイアスがかかっています。 この書簡の署名者らは、AI研究者が犯罪予測アルゴリズムの研究を控えるべきだと主張するのに加え、研究者がAIモデルの成功をどのように判断するか再評価するよう提言しています。連合のメンバーは、精度、再現率、正確さなどの指標に加えて、アルゴリズムの社会的影響も成功の指標とすべきだと勧めています。論文の著者らが書いているように: 「機械学習が、助成金申請書やプレスリリースで謳われる『社会的利益』をもたらすのであれば、この分野の研究者は、彼らの研究を可能にしている権力構造(およびそれに伴う抑圧)について積極的に考察しなければならない。」


Andrew Peryは、デジタルインテリジェンス企業であるABBYYのエシックス・エバンジェリストです。同社は、真のビジネストランスフォーメーションを可能にする、貴重でありながらしばしば得難い業務への洞察を組織がアクセスできるよう支援しています。 ABBYYは最近、信頼できる人工知能の開発を促進するグローバルイニシアチブを発表しました。私たちは、AI倫理、AIの悪用、そしてAI業界がこれらの懸念に対して今後どのように取り組んでいけるかについて、Andrewに質問することにしました。 AI倫理への関心を最初に引き起こしたのは何ですか? 私のAI倫理への関心に最初に火をつけたのは、法律とAI技術の交差点に対する深い関心でした。私はキャリアを刑事司法制度で始め、法的サービスを購入する経済的手段を持たない貧困層の被告を弁護しました。その後、法律実務における高度な検索とAIの応用に焦点を当てた技術分野に移行しました。認定データプライバシー専門家として、私は特にプライバシー法と、プライバシー権を強化しそれに沿ったAI技術の適切な使用について情熱を持っています。 顔認識技術は、米国政府を含む権威筋によってしばしば悪用されています。これはどれほど大きな社会的懸念であるべきでしょうか? 顔認識技術の影響は、この技術が経済的、社会的、安全保障上の権利を含む多くの基本的権利に影響を与え得るため、重大な社会的懸念であるべきです。 顔認識アルゴリズムが信頼できないという明確で説得力のある証拠があります。NISTの研究では、アフリカ系アメリカ人が誤認される可能性が最大100倍高いことがわかりました。ジョージタウン法科大学院による同様の研究では、顔写真に基づく顔認識アルゴリズムが、アフリカ系アメリカ人個人に関連する高い割合の誤検知を生み出すことがわかりました。また、2018年のMITによるAmazon顔認識ソフトウェアの研究では、白人男性は99%の精度で正確に識別されたのに対し、肌の色の濃い個人は最大35%の誤検知を生み出しました。 これらの理由から、規制当局は、特に監視やプロファイリングの文脈での顔認識技術の使用を禁止する措置を取り始めています。例えば、カリフォルニア州上院は、顔認識技術およびその他の生体認証監視方法の使用に対する州全体での禁止法案を可決しました。 また、技術コミュニティ内でも、顔認識ソフトウェアの販売から撤退する動きがあります。IBMは、基本的人権と基本的自由を侵害するとして、顔認識ソフトウェアの販売を停止すると発表しました。マイクロソフトも同様に、基本的人権を理由として、自社の顔認識技術の販売を中止すると発表しました。 米国の裁判所で犯罪リスク評価に使用されてきたCOMPASソフトウェアは、有色人種の犯罪者を白人犯罪者よりも再犯の可能性が高いと誤ってラベル付けしてきました。このことを知ると、裁判所でAIを使用することは選択肢としてあり得るのでしょうか? COMPASの研究では、それが犯罪を予測するのに無作為な人々よりも優れていないことがわかりました。予測分析は商業的文脈では大きな価値を提供しますが、刑事司法への適用において不公平を生み出すことが証明されています。これは、Pro Publicaが発表したレポートで明らかで、米国の裁判所で犯罪リスク評価に使用される最も一般的なソフトウェアであるCOMPASが、有色人種の犯罪者を白人犯罪者の2倍の割合で再犯の可能性が高いと誤ってラベル付けしたことがわかりました。 これらの不公平は、当時のエリック・ホルダー司法長官に、犯罪者集団内での再犯率を予測するためのAI技術の適用によって提起される潜在的な不公平について、公平性を疑問視し懸念を表明させることになりました。 社会はどのようにしてAIシステムに意図せず負のバイアスをプログラムすることを避けられるでしょうか? 第一に、AIが無意識のバイアスと呼ばれる意図しないバイアスを生み出す傾向があることを認めなければなりません。その悪影響を緩和するには、OECD倫理フレームワークが提案するような倫理的AIガイドラインの開発を含む、包括的なアプローチが必要です。これは、人間の主体性と監視、技術的堅牢性と安全性、プライバシーとガバナンス、透明性、多様性と非差別、社会的幸福、説明責任を含む7つの基本原則に基づいています。 第二に、自動化されたプロファイリングから保護する法的枠組みへの準拠が重要です。例えば、EUはプライバシー権を尊重し保護する長い歴史を持ち、最も最近で強力な表現が、特に自動化された意思決定から保護する一般データ保護規則(GDPR)です。 第三に、AI技術がどのように開発されるかについての業界の説明責任と、彼らの所有知的財産権に影響を与えることなく透明性を提供するというコミットメントが必要です。ここには前向きな進展があります。例えば、Partnership on AIは、13か国に80以上のメンバーを擁し、主要なAI問題に関する研究と議論に専念する組織です。 最後に、技術組織は、特にそのアプリケーションがプライバシーと安全保障の権利に影響を与える場合、AIアルゴリズムの商業リリース前にバイアス影響評価を実施するというコミットメントを堅持すべきです。技術リーダーが新しいAI対応アプリケーションをリリースする前に考慮すべき質問には以下が含まれます:この技術がトレーニングされたデータは十分に多様か?バイアスはどのように検出されるか?それはどのように、誰によってテストされるか?開発者のインセンティブは何か?誰が商業的に利益を得るか? AIソリューションは、これらのアプリケーションがトレーニングされる基礎データを反映することを覚えておくことが重要です。したがって、このデータが偏っておらず、ソリューションがサービスを提供する構成員の多様性を適切に反映していることを確認することが重要です。AI研究者のジョアンナ・ブライソン教授の言葉を借りれば、「基礎データが固定観念を反映している場合、または人間の文化からAIをトレーニングする場合、バイアスが見つかるでしょう。そして注意しないと、病院から学校、刑務所まであらゆるものの運営を急速に引き継いでいるコンピュータプログラムにそのバイアスを統合するリスクがあります。そもそもそれらのバイアスを排除するはずのプログラムです。」 ABBYYは最近、信頼できる人工知能の開発を促進するグローバルイニシアチブを立ち上げました。このイニシアチブはABBYYの将来にとってどれほど重要ですか? 私たちの信頼できるAIのためのグローバルイニシアチブを開発する決定は、世界中の企業に影響を与え、何万人もの個人ユーザーにサービスを提供する組織として、社会的良心を持つ良き企業市民である義務があるという私たちの信念によって推進される重要な決定です。これは、世界中の顧客やパートナーからのより大きな信頼を醸成するだけでなく、私たちの技術が共通の利益に資する方法で引き続き深い影響を与え続けることを保証するのにも役立ちます。 また、AIの信頼できる使用を促進し支援することは、ビジネスとしても理にかなっています。それは私たちのブランドエクイティを強化し、世界中の顧客とパートナーエコシステムとの信頼を醸成します。信頼はリピートビジネスと持続可能な成長につながります。 このイニシアチブの一部として、ABBYYはAIの倫理的使用とその社会的有用性を促進する文化を育成することにコミットしています。他の企業が同様の文化を育成するためには何が必要ですか?...


ABBYYは、デジタルインテリジェンス企業として、信頼できる人工知能(AI)技術の発展を促進するグローバルイニシアチブを最近開始しました。AIが消費者向けおよび企業向けの高価値・大規模な用途で遍在し、データをデジタル化するためのオープンソースツールがより多く利用可能になるにつれ、データへのアクセスとトレーニングにおける倫理的な使用が不可欠となっています。 AI倫理はどれほど懸念すべき問題でしょうか? 最近の研究では、繰り返し現れる8つのテーマがありました。プライバシーと説明責任は、最も頻繁に現れる倫理的テーマの2つであり、AIの安全性/セキュリティも同様でした。透明性/説明可能性もよく引用される目標であり、AIアルゴリズムをより説明可能にすることは極めて重要であると分類されています。 AIに関連する現在の問題に取り組むことは非常に重要であり、ガートナーは2025年までに、AIを組み込んだデジタル製品やサービスの購入に関する大企業および政府の契約の30%が、説明可能で倫理的なAIの使用を要求すると推定しています。さらに、消費者の4分の3は非倫理的な企業からは購入しないと述べており、86%は倫理的な企業により忠実であると述べています。これらは、ABBYYが信頼できるAI技術の開発、維持、促進に関する中核的な指針原則を公開し、他の技術リーダーにも同様のことを提唱する理由の一部です。 私たちは最近、ABBYYのエシックス・エバンジェリスト、アンドリュー・ペリー氏にインタビューしました。彼は次のように述べています: 「第一に、AIが無意識のバイアスと呼ばれる意図しないバイアスを生み出す傾向がある可能性を認めなければなりません。その悪影響を軽減するには、OECD倫理フレームワークによって提案されているような、倫理的AIガイドラインの開発を含む包括的なアプローチが必要です。これは、人間の主体性と監視、技術的堅牢性と安全性、プライバシーとガバナンス、透明性、多様性と非差別、社会的幸福、説明責任という7つの基本原則に基づいています。 第二に、自動化されたプロファイリングから保護する法的枠組みへの順守が重要です。例えば、EUはプライバシー権を尊重し保護する長い歴史を持ち、最も最近で強力な表現が、特に自動化された意思決定から保護する一般データ保護規則(GDPR)です。 第三に、AI技術がどのように開発されるかについての業界の説明責任と、彼らの独自の知的財産権に影響を与えることなく透明性を提供するコミットメントが必要です。ここには前向きな進展があります。例えば、Partnership on AIは、13か国に80以上のメンバーを擁し、主要なAI問題に関する研究と議論に専念する組織です。」 アンドリュー氏は、私たちの詳細なインタビューで、さまざまな倫理的問題についてさらに詳細に語りました。 機械学習(ML)、自然言語処理(NLP)、ニューラルネットワーク、光学文字認識(OCR)などのAI技術を活用してデータを変換するデジタルインテリジェンスソリューションを提供するABBYYは、以下の原則へのコミットメントを確認し、他の主要な技術組織にも信頼できるAI基準へのコミットメントを提唱しています: プライバシー・バイ・デザイン原則をソフトウェア開発プロセスの不可欠な部分として組み込む 機密性の高い顧客およびパートナーデータを保護する パフォーマンス、精度、セキュリティにおいて業界基準を満たすか超えるAI技術を開発する コンテンツとプロセスに対するより深い理解を提供するソリューションを提供することで、顧客とパートナーが組織内でデジタルトランスフォーメーションを成功裏に実装できるようにする 自社技術のパフォーマンス特性とメトリクスへの可視性を提供し、製品フィードバックの機会を提供する 社会的および経済的に有益なAI技術を提供する AIの倫理的使用とその社会的有用性を促進する文化を育成する ABBYYの指針原則および信頼できるAI原則の順守と提唱へのアプローチを閲覧するには、こちらをクリックしてください。ABBYYのデジタルインテリジェンスソリューションスイートの詳細については、こちらをクリックしてください。


Vahidは、ニューヘイブン大学のコンピュータサイエンスおよびデータサイエンスの助教授です。また、Secure and Assured Intelligent Learning (SAIL) Labの所長も務めています。 彼の研究関心は、知的システムの安全性とセキュリティ、AI安全性問題の心理学的モデリング、複雑適応システムのセキュリティ、ゲーム理論、マルチエージェントシステム、サイバーセキュリティに及びます。 あなたはサイバーセキュリティとAIの安全性確保の両方に広範な背景をお持ちです。両分野に惹かれるようになった経緯を共有していただけますか? 私の研究軌跡は、私の二つの核心的な関心によって支えられてきました:物事がどのように破綻するかを解明することと、人間の心のメカニズムを学ぶことです。私は10代の早い頃からサイバーセキュリティに積極的に関わっており、その結果、この分野の古典的な問題を中心に初期の研究計画を立てました。大学院での研究を始めて数年後、私は研究分野を変えるという稀な機会に偶然出会いました。その頃、私はSzegedyとGoodfellowの敵対的サンプル攻撃に関する初期の研究にちょうど出会い、機械学習を攻撃するという考えに非常に興味をそそられました。この問題を深く調べるにつれ、より一般的な分野であるAIの安全性とセキュリティについて知り、それがサイバーセキュリティ、認知科学、経済学、哲学など、私の核心的な関心の多くを含んでいることに気づきました。また、この分野の研究は魅力的であるだけでなく、AI革命の長期的な利益と安全性を確保するために不可欠であると確信するようになりました。 あなたは、知的な機械の安全性とセキュリティのための具体的な基盤を築くことに取り組むSecure and Assured Intelligent Learning (SAIL) Labの所長です。SAILで行われている仕事について、いくつか詳細を説明していただけますか? SAILでは、私と学生たちは、セキュリティ、AI、複雑システムの交差点にある問題に取り組んでいます。私たちの研究の主な焦点は、理論的および応用的な観点から、知的システムの安全性とセキュリティを調査することにあります。理論的側面では、現在、マルチエージェント環境における価値アライメント問題を調査しており、安定性と堅牢なアライメントに関してAIエージェントの目的を評価・最適化するための数学的ツールを開発しています。実用的側面では、自律走行車やアルゴリズム取引などの最先端AI技術のセキュリティ脆弱性を探求するプロジェクトがあり、そのような技術が敵対的攻撃に対して持つレジリエンスを評価・向上させる技術の開発を目指しています。 また、自動化されたペネトレーションテスト、侵入試行の早期検出、ソーシャルメディアなどのオープンデータソースからの自動化された脅威インテリジェンスの収集と分析など、サイバーセキュリティにおける機械学習の応用にも取り組んでいます。 あなたは最近、AI安全性問題を精神病理学的障害としてモデル化する提案を主導されました。これはどのようなものか説明していただけますか? このプロジェクトは、AIエージェントとシステムの急速に高まる複雑さに対処するものです:非自明な環境における強化学習エージェントの安全でない行動を、単にその低レベル設定を見るだけで診断、予測、制御することは、すでに非常に困難です。この研究では、このような問題を調査する際の高レベルの抽象化の必要性を強調しています。人間の行動問題に対する科学的アプローチに触発され、AIやAGIにおける創発的な有害行動をモデル化・分析するための有用な高レベル抽象化として、精神病理学を提案します。概念実証として、古典的なゲーム「Snake」をプレイすることを学習するRLエージェントにおける報酬ハッキングというAI安全性問題を研究します。環境に「ドラッグ」の種を追加すると、エージェントは依存症の神経科学的モデルによって記述できる準最適行動を学習することを示します。この研究はまた、精神医学で用いられる治療アプローチに基づく制御方法論も提案しています。例えば、エージェントの有害行動を修正するための薬物療法の類似物として、人工的に生成された報酬信号の使用を提案します。 自律走行車に関して、AIの安全性について懸念はありますか? 自律走行車は、サイバーフィジカルシステムにAIを導入する顕著な例となりつつあります。現在の機械学習技術が根本的にミスや敵対的攻撃に対して脆弱であることを考えると、半自律走行車でさえその安全性とセキュリティについて深く懸念しています。また、自律走行の分野は、安全性基準と評価プロトコルの深刻な欠如に悩まされています。しかし、私は希望を持っています。自然な知性と同様に、AIもミスを犯しやすいでしょう。それでも、そのようなミスの発生率と影響を人間のドライバーよりも低くすることができれば、自動運転車の目的は依然として達成可能です。産業界、学界、そして政府において、これらの問題に対処するための取り組みが高まっているのを目にしています。...


Intel、Google Brain、OpenAIなどの企業やAI開発ラボのAI研究者からなるチームは、AIの倫理的な利用を確保するために懸賞金の活用を推奨しました。研究者チームは最近、倫理的なAI利用に関する複数の提案を発表し、その中には、AI内のバイアスを発見した人々に報奨金を与えることが、AIをより公平にする効果的な方法となり得るとの示唆が含まれていました。 VentureBeatが報じているように、米国および欧州の様々な企業の研究者らが集まり、AI開発のための倫理ガイドライン一式と、そのガイドラインを満たす方法に関する提案をまとめました。研究者らが行った提案の一つは、AIプログラム内のバイアスを発見した開発者に懸賞金を提供するというものでした。この提案は、「Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims」と題された論文の中でなされました。 研究者チームが対処を望むバイアスの例として、医療アプリケーションから法執行機関が使用する顔認識システムに至るまで、あらゆるものに偏ったデータやアルゴリズムが発見されています。そのようなバイアスの一例が、コロナウイルスパンデミックへの対応として刑務所の収容人数を削減する際に、米国司法省が受刑者の選別とどの受刑者を帰宅させるかの決定に最近使用したPATTERNリスク評価ツールです。 コンピュータプログラムにおける望ましくない動作を発見した開発者に報奨金を与える慣行は古くからあるものですが、AI倫理委員会がAIバイアス対策の選択肢としてこのアイデアを真剣に提唱したのはこれが初めてかもしれません。AIが倫理的であることを保証できるだけの十分なバイアスを発見できるだけのAI開発者がいない可能性は高いですが、それでも企業が全体的なバイアスを減らし、どのような種類のバイアスが自社のAIシステムに浸透しているかを把握するのに役立つでしょう。 論文の著者らは、バグ報奨金の概念は、バイアスおよび安全性に対する懸賞金を用いることでAIに拡張可能であり、この手法を適切に使用すれば、よりよく文書化されたデータセットとモデルにつながる可能性があると説明しました。その文書化は、モデルとデータの両方の限界をよりよく反映するでしょう。研究者らは、同じ考え方を解釈可能性、セキュリティ、プライバシー保護などの他のAI特性にも適用できるとさえ指摘しています。 AIの倫理原則に関する議論がますます活発になる中、原則だけでは不十分であり、AIを倫理的に保つための行動が取られなければならないと多くの人が指摘しています。論文の著者らは、「産業界および学界における既存の規制と規範は、責任あるAI開発を確保するには不十分である」と述べています。Google Brainの共同創設者でありAI業界のリーダーであるAndrew Ngも、指針原則だけではAIが責任を持って公平に使用されることを保証する能力に欠けており、その多くはより明確で実行可能なアイデアを持つ必要があると述べています。 合同研究チームによるバイアス懸賞金ハンティングの推奨は、倫理原則を超えて倫理的行動の領域へと移行しようとする試みです。研究チームはまた、AI分野における倫理的行動を促す可能性のある他の多くの推奨事項も行いました。 研究チームは、企業がAIの利用をより倫理的にするために従うことができる他の多くの推奨事項を提示しました。彼らは、AIインシデントの中央データベースを作成し、より広範なAIコミュニティで共有すべきだと提案しています。同様に、研究者らは監査証跡を確立し、これらの証跡がAIプラットフォームにおける安全性が重要なアプリケーションの作成と展開に関する情報を保存すべきだと提案しています。 人々のプライバシーを保護するために、研究チームは、暗号化通信、連合学習、差分プライバシーなどのプライバシー中心の技術をすべて採用すべきだと提案しました。これに加えて、研究チームは、オープンソースの代替手段を広く利用可能にすべきであり、商用AIモデルは厳重に精査されるべきだと提案しました。最後に、研究チームは、学術研究者がハードウェアの性能に関する主張を検証できるように、政府の資金援助を増やすべきだと提案しています。


2019年、AI倫理への注目はかつてないほど高まりました。しかし、この議論の多くは漠然としており、体系化されたアプローチは見られませんでした。むしろ、各企業が独自のAI倫理に関するフレームワークやポリシーを策定していたのです。AI倫理の問題について合意を持つことは重要です。なぜなら、それは政策立案者が政策を策定・調整する助けとなり、また研究者や学者の行う研究に情報を提供するからです。それ以上に、AI企業は、非倫理的なAIの実装を避けたいのであれば、倫理的限界がどこにあるのかを知らなければなりません。AI倫理の動向をより明確に把握するため、VentureBeatsが報じているように、ハーバード大学のBerkman Klein Centerは、既存の様々なAI倫理原則とフレームワークのメタ分析を実施しました。 この分析の著者によれば、研究者たちはこれらの原則を並べて比較し、重複と相違点を探そうとしました。ハーバード・ロー・スクールのCyberlaw ClinicのアシスタントディレクターであるJessica Fjeldは、研究チームが「AIの未来に関する断片的で世界的な議論の中に隠れた勢いを明らかにし、この白書と関連するデータ可視化をもたらした」と説明しています。 分析の中で、チームは世界中から集められ、様々な組織タイプに由来する36の異なるAI原則文書を調査しました。研究の結果、多くの文書に繰り返し現れる8つのテーマがあることがわかりました。 プライバシーと説明責任は、最も頻繁に現れる倫理テーマの2つであり、AIの安全性/セキュリティも同様でした。透明性/説明可能性もよく引用される目標であり、2019年を通じてアルゴリズムをより説明可能にする多くの試みがありました。公平性/非差別は別の倫理的焦点であり、データバイアスに対する懸念の高まりを反映していました。技術に対する人間のコントロールを確保し、意思決定権をAIに委ねないことも強く言及されていました。専門家としての責任は、研究者が発見した7番目に共通するテーマでした。最後に、研究者は、調査したAI倫理文書の中で、人間の価値観の促進が継続的に言及されていることを発見しました。 研究チームは、これらのテーマがAI倫理文書内でどのように現れているかについて、論文と付随するマップで、質的および量的な内訳を示しました。このマップは、各テーマがどこで言及されたかを表示しています。 研究チームは、AI倫理に関する議論の多くが、人間の価値観と権利への懸念を中心に展開していることに注目しました。研究論文が指摘するように: 「私たちの文書の64%が人権への言及を含んでおり、5つの文書[14%]は国際人権をその全体取り組みの枠組みとして採用していました。」 人権と価値観への言及は、民間セクター団体や市民社会団体によって作成された文書でより一般的でした。これは、AI民間企業が利益だけでなく、倫理的な方法でAIを開発することにも関心を持っていることを示しています。一方、政府機関は全体的にAI倫理への関心や認識が低いようで、政府機関に由来するAI関連文書の半数以下しかAI倫理に関心を寄せていませんでした。 研究者はまた、調査した文書がより新しいものであるほど、8つの主要テーマのうちのほんの一部ではなく、すべてを扱う可能性が高いことにも注目しました。この事実は、倫理的なAIの使用を構成するものについての考えが、AI倫理に関する議論を主導する人々の間で結晶化し始めていることを示唆しています。最後に、研究者は、これらの原則がAI開発を導く上での成功は、AI開発コミュニティ全体にどれだけうまく統合されるかにかかっていると述べています。研究者は論文で次のように述べています: 「さらに、原則はガバナンスの出発点であり、終着点ではありません。原則のセットだけでは、せいぜい穏やかに説得力を持つ程度に過ぎないでしょう。その影響は、関連する政策(例:AI国家計画)、法律、規制、そして専門的な実践や日常業務なども含む、より広範なガバナンス・エコシステムにどのように組み込まれるかに依存する可能性が高いです。」


今や、人工知能(AI)は主流、特にビジネスの世界で確固たる地位を築いたと言って安全でしょう。顧客サービスやマーケティングから不正検出、自動化まで、この特定の技術は近年、業務の効率化に貢献してきました。 残念ながら、AIへの依存は、私たちの家族歴、購入するもの、訪れる場所、さらにお気に入りの曲に至るまで、私たちの個人情報の多くをAIが保持していることも意味します。本質的に、私たちはテクノロジーに私たちの生活への自由なアクセスを与えているのです。AIが発展を続け(さらに多くのデータを要求し)、多くの深刻な懸念を引き起こしています。 例えば、南ウェールズ警察が顔認識システムを導入した際、それが「侵入的」すぎるとすぐに疑問視されました。もちろん、安全性と、そのすべてのデータが実際にどこへ行くのかという問題もあります。 これに加え、AIは他の障壁にも直面しています。例えば、ロボットが大量失業を引き起こすという恐怖から生まれた一般の不信感です。良い例が、大西洋を渡ったところで、HPが報告しているように、アメリカ人の72%がロボットやコンピューターが人間の仕事をできる未来を懸念していることです。後者は、特にAIがまだ人間のように働いたり考えたりするには程遠いことを考えると、少し誇張されているかもしれませんが、急速に成長するAI産業が現在よりも適切に管理される必要があることは否定できません。スタンフォード大学のエマ・ブランスキル教授によれば、「AIが人間のユーザーを尊重し、自律システムに置く私たちの信頼を正当化する」ことを真に望むのであれば、規制を設ける必要があります。そのためには、企業はAI倫理規定を持つ必要があります。 AI倫理規定 AI倫理規定は、AIそのもののためではなく、その技術を開発し使用する人々のためのものです。昨年、英国政府は報告書を発表し、その倫理的使用について一般に情報を提供することを目的としています。全体として、この報告書は5つの原則に要約できます: 1. AIは、すべての人の利益のために創造され、使用されなければならない。 AIは、一部の派閥だけでなく、すべての人を助けるように設計されなければなりません。政府、企業、株主など、関係するすべての当事者は、その創造過程に参加し、すべての人の利益が適切に代表されるようにする必要があります。 2. AIは、個人、家族、コミュニティのデータ権利やプライバシーを損なうために使用されてはならない。 AIは、悪意のある者の手に渡れば危険となり得る大量の消費者データを収集できます。市民と消費者のプライバシーを保護するための対策が講じられるべきです。 3. AIは、人間の心が理解できる範囲内で動作しなければならない。 AIのプログラミングに必要な制限を実装するためには、その機械は依然として人間が理解できる方法で設計されなければなりません。これはまた、他の人々に機械の詳細を教育するためにも必要です。 4. すべての人は、AIの微妙な違いについて教育を受ける権利を有する。 AIに関する知識は、ビジネス界の外にいる人々を含め、誰もが利用できるべきです。幸いなことに、オンラインビデオから詳細なコースまで、学びたい人を支援する多くのオンラインリソースが利用可能です。これらのトピックは、機械学習やPythonからRプログラミング、Pandasまで多岐にわたり、これらはすべてAIの開発と実装に使用されています。このようなコンテンツが一般的であることは、AIの知識がいかにアクセスしやすくなったかを証明しており、今日の社会に深く根付いていることを考えると当然のことです。 5. 人間は、AIと共に精神的、感情的、経済的に繁栄できなければならない。 AIが雇用と労働力に大きく影響を与えていることは疑いの余地がありません。それが最善であるかどうかは議論の余地があります。 Quartzで発表された雇用調査によると、既存の仕事のほぼ半数がこの10年で自動化される高いリスクにさらされています。AIが倫理的であり続けたいのであれば、企業はAIによって脅かされる仕事に取って代わる新しい仕事を創出し始める必要があります。 AIのような新技術は、その利点が何であれ、しばしば懸念の対象となります。結局のところ、起こりうる反響を批判的に見ることなく、技術の利便性を享受するだけでは十分ではないからです。すべての企業がこれらの倫理原則を実施すれば、一般の人々はそれらをもっと受け入れるかもしれません。この追加的な支持は、テクノロジー企業がAIの開発をさらに推し進めるために必要なものかもしれません。


自動化、そしてそれに伴う雇用喪失は、過去数年間AI分野における主要な議論のポイントであり、今後10年間でさらに大きな議論の的となる可能性が高い。現在の民主党大統領候補者アンドリュー・ヤンは、自動化による雇用喪失を自身の政策の重要な課題としている。哲学者ニック・ボストロムが率いるAIシンクタンク「Institute for Humanity」は最近、arXivでプレビュー用の論文を公開した。ZDNetが報じているように、この論文は、超過利潤を上げているAI企業は通常の税金に加えて一定額を支払うべきであり、その資金は自動化によって失われた雇用による社会的損害を軽減するために充てられるべきだと提案している。 研究者らは論文の中で、ほとんどのAI研究者の間では、人間の仕事の大部分が自動化される可能性があるというコンセンサスがあり、また研究者らは、2060年までに経済活動に貢献するほとんどのタスクにおいてAIが人間を上回るようになると予測していると記している。このため、研究者らは、雇用の置き換え、賃金の低下、職種全体の喪失など、自動化の潜在的に有害な影響を緩和するための計画を整えておくべきだと提案している。 研究者らは、企業の利益が世界総利益に対してどの程度の割合であるかに依存する、義務と報酬の規模を設けるべきだと提案している。これは、超過利潤ポイントを超える利益の0%から50%までの範囲になり得る。論文の著者らは、2060年に約5兆ドル(2010年ドルベース)の超過利潤を上げているインターネット企業を例に挙げ、世界総生産が268兆ドルと仮定した場合、約4,881億2,000万ドルを支払わなければならないとしている。 研究者らは、報酬の定量化可能な指標は企業が計画を立てられるものであり、それによってリスクを軽減できると主張している。企業は、割引のプロセスを通じて、「ウィンドフォール条項」に支払う金額を慈善活動への寄付額と一致させる可能性がある。例えば、仮定の4,880億ドルは、インターネット企業の平均資本コストの少なくとも10%で割り引くことができ、さらに、実際にそれほど巨額の支払いを行うために必要な金額を稼ぐ確率が低いため、さらに割り引かれる可能性がある。割引後、4,880億ドルを支払う可能性のある十分な収益を上げている企業にとっての年間コストは、約6億4,900万ドルとなり、大企業が慈善活動に費やす金額とほぼ同程度になる。研究者らは、ウィンドフォール条項をストックオプション報酬の延長として考えることを提案している。 論文の著者らは、これは超過利潤税よりも実施が容易な計画かもしれないと指摘している。超過利潤税を制定するには政治的な多数派と企業を説得する必要があるが、ウィンドフォール条項計画では個々の企業に参加を説得するだけで済むからだ。Institute for Humanityの研究者らは、議論を生み出す精神でarXivにプレビュー用の論文を公開しており、この計画が実現可能であるためには、計画の多くのトピックと側面を考慮しなければならないことを認めている。