スタブ リード・ブラックマン博士、Virtue Consultants 創設者兼 CEO - インタビュー シリーズ - Unite.AI
私達と接続

記事執筆

リード・ブラックマン博士、Virtue Consultants 創設者兼 CEO – インタビュー シリーズ

mm

公開済み

 on

リードブラックマン の創設者兼CEOです 美徳コンサルタント。 その立場で、彼は企業と協力して、倫理と倫理的リスクの軽減を企業文化、および新興テクノロジー製品の開発、導入、調達に統合してきました。 彼は Ernst & Young の上級顧問でもあり、同社の人工知能諮問委員会のメンバーでもあり、IEEE の Ethally Aligned Design Initiative のメンバーでもあります。

Reid の業績は、The Wall Street Journal および Dell Perspectives で紹介されており、The Harvard Business Review、TechCrunch、VentureBeat、および Risk & Compliance Magazine にも記事を寄稿しています。 彼は数多くのニュース記事で引用されており、世界経済フォーラム、SAP、カンヌ ライオンズ、フォーブス、ニューヨーク大学スターン ビジネス スクール、コロンビア大学、AIG などのさまざまな会場で定期的に講演しています。

あなたは 2009 年から 2018 年までコルゲート大学で哲学教授を務めていましたが、いつから AI 倫理を授業に取り入れ始めましたか?

私は社会哲学と政治哲学のコースをよく教え、そこでマルクスを取り上げました。 マルクスの中心的な主張の XNUMX つは、「生産手段」の大幅な増加により、資本主義は最終的に共産主義に道を譲るというものです。 言い換えれば、資本主義は競争と新たな市場の開拓という名の下に、ますます効率性を推し進めており、これはますます短期間でより多くの生産を可能にする技術の創造の増加を意味します。 マルクスはまた、これによって少数の人々の手にますますお金が移り、ますます多くの人々が貧困に追い込まれることになり、その時点で、増大する貧困大衆が主導する革命によって資本主義構造がひっくり返されるだろうと予測した。 これらすべては、AI 倫理の中心的な要素である人間の労働の必要性を排除するテクノロジーの倫理をめぐる議論につながります。

興味があれば、ちょっとしたサイドストーリー: 2002 年に遡ると、私は大学院生で、ノースウェスタン大学の学部生たちとマルクスについてのディスカッションを主導していました。 ある時点で、学生が手を挙げて「最終的には人間が仕事をする必要がなくなるでしょう」と言いました。 クラスは混乱した。 私は混乱していた。 それで私は言いました、「それでは誰がその仕事をするのですか?」 彼は実に淡々と「ロボットです」と答えた。 クラスは笑いに包まれました。 私は自分自身を押し殺しました。 しかし、誰が最後に笑ったかは明らかです。

2018年にローンチしたのは、 美徳コンサルタントは、データおよび AI のリーダーが製品の倫理的リスクを特定して軽減できるようにする倫理コンサルティング会社です。 この起業家としての旅を始めたきっかけは何ですか?

嫉妬。 まあ、ある意味。 2003年か2004年頃だったと思いますが、大学院生だった頃、私は花火の卸売会社を起業しました。それが予想よりうまくいき、会社は今も存続していますが、今は私が顧問を務めており、日常業務は担当していません。 。 とにかく、これは私がどのようにしてコルゲートの起業家精神プログラム(TIA、Thought Into Actionと呼ばれ、TIA Venturesを運営するXNUMX人の素晴らしいVC、Andy GreenfieldとWills Hapworthが率いる)で新興企業のメンターになるようになったのかを説明しているので、意味があります。 メンターとして、私は学生たちが営利または非営利のスタートアップを設立し、規模を拡大する方法を見つけようとしてエキサイティングなプロジェクトに着手しているのを見て、「私もそれが欲しい!」と思いました。 しかし、私の新しい事業は何になるでしょうか? それは私の哲学と倫理への愛を表現する必要があり、最初に理にかなったのは倫理コンサルタント会社でした。 当時はそのようなサービスの市場には目もくれず、見るべきサービスがなかったため、待っていました。 そして、ケンブリッジ アナリティカ、BLM、#MeToo が全国的な見出しになり、突然、その必要性に対する認識が高まりました。

企業にとって AI 倫理声明を導入することはどの程度重要ですか?

AI 倫理声明は必須ではありませんが、目標を設定するために非常に便利なツールです。 AI 倫理プログラムを組織に導入する場合は、さまざまな倫理的、風評的、規制的、法的リスクを特定し、軽減し、管理できるようにする必要があります。 それがその主な機能です。 倫理声明は、その機能を達成するためのインフラストラクチャ、プロセス、慣行を整備した場合に、物事がどのようになるかを明確にするのに役立ちます。 戦略に目標が必要である限り (常にそうである)、AI 倫理声明はそれらの目標を明確にする優れた方法ですが、それが唯一の方法ではありません。

企業は倫理規定をプロセスと実践に確実に反映させるにはどうすればよいでしょうか?

倫理に関する声明は、正しい方向への小さな一歩にすぎません。 前進を続けたい場合、次の自然なステップは、その声明で明示された目標に対して自分がどの位置にいるかを評価することです。 最も大きく最もリスクの高いギャップがどこにあるのか、つまり、目標を達成できないリスクが最も高い場所がわかれば、それらのギャップを狭めるための解決策を考案し始めることができます。 もしかしたら倫理委員会かもしれない。 おそらくそれは製品開発中のデューデリジェンスプロセスかもしれません。 おそらく、マーケティングや人事など、製品以外の部門でのデータの扱い方が改善されてきているのかもしれません。 おそらくそれはすべて、そしてそれ以上です。

実際の AI アルゴリズムへのバイアスを避けるために企業が実装すべきソリューションにはどのようなものがありますか?

バイアスを特定するための技術ツールはたくさんありますが、それらは限られています。 これらを使用すると、モデルの出力を、学術的な ML 倫理文献で提供されている数十の定量メトリクスと比較できますが、これらのメトリクスには相互互換性がないため注意が必要です。 したがって、実質的で倫理的な決定を下す必要があります。これらの指標のいずれかがある場合、この文脈ではどれが適切ですか?

このようなツールを使用し、その質問に答える責任ある方法を追加することとは別に、製品チームは構築を開始する前に、どこにバイアスが入り込む可能性があるかを考えておくとよいでしょう。 それはどのようにしてトレーニング データセットに含まれたり、反映されたりするのでしょうか? 目的関数を決定する場合はどうですか? 閾値を決めるのはどうでしょうか? バイアスが入り込む可能性のある場所はたくさんあります。バイアスを特定し、軽減するには、現在のプロジェクトのどこにバイアスが入り込む可能性があるか、またどのようにバイアスが入り込む可能性があるかを事前に検討することが不可欠です。

AI企業は白人男性が多数を占めていることで有名で、白人男性が意図せずしてAIシステムに何らかのバイアスをプログラムしてしまう可能性がある。 これを避けるために、人事部門はどのような特性を求めるべきでしょうか?

私は一般的に、エンジニアや製品チームの機会が増え、多様性が高まることに賛成です。 そうは言っても、これは間違ったレンズを通して物事を見ていると思います。 偏ったアルゴリズムに関する主な問題は、一部の白人男性の偏見が偏ったコードにつながるということではありません。 それは、データトレーニングセットに偏りがあるということです。 実際、コロンビアから最近出た論文「偏ったプログラマー? それとも偏ったデータでしょうか? 「AI 倫理の運用化におけるフィールド実験」 – 「技術的なガイダンスを理解しているプログラマーは偏見を減らすことに成功している」と結論付けており、「女性や少数派の AI プログラマーによるアルゴリズムによる予測では、アルゴリズムによる偏見や差別が軽減されていない」と結論付けています。 したがって、人事部門は多様性の問題に注意を払うべきですが、偏った AI の成果を削減するための戦略が主に、ましてや専ら、多様性の取り組みに関連した採用決定に焦点を当てるべきかどうかは、明確ではありません。

倫理的リスクのデューデリジェンスとは何なのか、そしてなぜ企業がそれを導入する必要があるのか​​について説明していただけますか?

倫理的リスクのデュー デリジェンスは、作成している製品で実現する可能性のあるさまざまな倫理的リスク (製品の展開方法、使用方法、悪用の可能性など) を特定する試みです。製品にあるものと欠けているものの両方、そしてそれらがさまざまな状況で展開されたときに倫理的な不正行為につながる可能性がある方法。 うまくいけば、体系的かつ徹底的な検査になります。 もちろん、角を曲がったところを見回すために最善を尽くすことはできますが、見逃してしまう可能性も十分にあります。そのため、継続的な監視が重要です。

なぜ企業がそれを導入すべきかというと、そうしない場合の倫理的、評判的、規制的、法的なリスクを考慮する必要があるだけです。 Optum がニュースで報道され、医療従事者に対し、症状の重い黒人患者よりも白人患者に注意を払うよう推奨する偏ったアルゴリズム(とされる)で規制当局の調査を受けていることを考えてみてください。 あるいは、女性差別の疑いでApple Cardの利用限度額を調査中のゴールドマン・サックスに対しても。 あるいは、導入前にバイアスへの懸念から廃止された Amazon の採用ソフトウェア。 あるいは、IBMが天気アプリから収集したデータを流用した疑いでロサンゼルスから訴えられている。 それともフェイスブック…。

Virtue Consultants について他に共有したいことはありますか?

Virtue は、AI 倫理に関する人々の教育とスキルアップを支援したり、AI 倫理に関する声明を作成したり、実用的な AI 倫理リスク フレームワークを作成して実装したり、単に AI 倫理に関するアドバイザーとして機能したりするなど、上級リーダーが AI 倫理を実践するのを支援します。 それが面白そうなら、人々は挨拶に来るべきです。

素晴らしいインタビューをありがとう。リードについてもっと知りたい読者は、こちらをご覧ください。 リード・ブラックマン または訪問することもできます 美徳コンサルタント.

Unite.AI の創設パートナーであり、 フォーブステクノロジー評議会、 アントワーヌさんは、 未来派 AI とロボット工学の未来に情熱を持っている人。

彼はの創設者でもあります 証券.io、破壊的テクノロジーへの投資に焦点を当てたウェブサイト。