インタビュー
David Maher, CTO of Intertrust – Interview Series

David Maherは、Intertrustのエグゼクティブ・ヴァイス・プレジデントおよびチーフ・テクノロジー・オフィサーを務めています。信頼できる分散システム、セキュア・システム、リスク・マネジメントの分野で30年以上の経験を持つデイブは、会社の子会社における研究開発の取り組みや重要なリーダーシップの役割を担ってきました。彼は、デジタル・メディアやIoTの証明書機関であるSeacert Corporationの元社長であり、ソフトウェアのセルフ・ディフェンスのシステムを開発するwhiteCryption Corporationの社長でもありました。また、世界で唯一の独立したデジタル・ライツ・マネジメント・エコシステムを管理するMarlin Trust Management Organization (MTMO)の共同議長も務めました。
Intertrustは、分散オペレーティング・システムがオープン・ネットワーク上でデータや計算をセキュアにし、管理することを可能にするイノベーションを開発し、信頼できる分散コンピューティングに関する基礎的な特許を取得しました。
もともと研究に根ざしていたIntertrustは、デバイスとデータの操作を統一する信頼できるコンピューティング・サービスを提供する製品中心の会社に進化しました。特にIoTやAIの分野で活用されています。市場には、メディア・ディストリビューション、デバイスのアイデンティティ/認証、デジタル・エネルギー・マネジメント、分析、クラウド・ストレージのセキュリティなどがあります。
AIの信頼性のギャップをどのようにして埋め、AIの安全性と信頼性に関する一般の人々の懸念にどう対応することができるのか?
透明性は、AIに関する懸念を解決する上で最も重要な特性であると思います。透明性には、消費者と技術者が、システムに組み込まれたAIメカニズムを理解するための機能が含まれます。たとえば、AIモデルがどのようにトレーニングされたか、どのようなガードレールが存在するか、モデル開発にどのようなポリシーが適用されたか、あるメカニズムの安全性とセキュリティに関するどのような保証があるかなどです。透明性が高まれば、実際のリスクや問題に対処し、非合理的な恐怖や憶測に惑わされることが少なくなります。
AI出力の信頼性を確保する上で、メタデータの認証がどのような役割を果たすのか?
メタデータの認証は、AIモデルや他のメカニズムに関する保証が信頼できるものであるという信頼性を高めるのに役立ちます。AIモデル・カードは、特定の目的のためにAIメカニズム(モデル、エージェントなど)を評価するのに役立つメタデータのコレクションの例です。モデル・カードの明確性と完全性のための標準、パフォーマンス、バイアス、トレーニング・データの特性などに関する定量的な測定と認証された主張のための標準を確立する必要があります。
組織は、LLM(Large Language Model)におけるAIのバイアスやホールシネーションのリスクをどのようにして軽減できるのか?
レッド・チームのアプローチは、モデルの開発と事前リリースの際にこれらのリスクに対処するための一般的なアプローチです。もともとセキュア・システムの評価に使用されていたこのアプローチは、現在、AIベースのシステムでも標準的なものとなりつつあります。これは、システムの全ライフ・サイクル、初期開発からフィールド・デプロイまで、開発サプライ・チェーン全体をカバーするリスク・マネジメントのシステム・アプローチです。特に、モデルのトレーニングに使用されるトレーニング・データの分類と認証が重要です。
企業は、AIシステムの透明性を創出し、「ブラック・ボックス」問題に関連するリスクを軽減するためにどのようなステップを踏むことができるのか?
企業は、モデルをどのように使用するか、内部使用または顧客への提供の場合にどのような責任を負うかを理解する必要があります。次に、企業が展開するAIメカニズムのペディグリーを理解する必要があります。モデル・カードの主張、レッド・チーム・トライアルの結果、企業の特定の使用に基づく差分分析、正式に評価されたもの、他の人の経験などです。現実的な環境で包括的なテスト・プランを使用した内部テストは絶対に必要です。この分野ではベスト・プラクティスが進化しているため、最新情報を把握することが重要です。
AIシステムは、倫理的なガイドラインを念頭に設計することができるのか? また、さまざまな業界でこれを実現する上でどのような課題があるのか?
これは研究の分野であり、多くの人は、倫理の概念と現在のAIのバージョンが相容れないものであると主張しています。たとえば、人間が理解できるような単純なルール「嘘を吐くな」は、確実に保証することが難しいからです。しかし、目標ベースの学習における相互作用や対立の分析、スケッチーなデータやディスインフォメーションの除外、出力フィルタの使用を必要とするルールを組み込むことで、倫理的な原則に違反するようなコンテンツの使用を推進または共感するような出力コンテンツをテストすることができます。同様に、偏りの徹底的なテストは、モデルを倫理的な原則に沿ったものにするのに役立ちます。ただし、これらは概念的なものであるため、与えられたアプローチの影響をテストすることに注意する必要があります。AIメカニズムは、人間が指示を理解するのと同じように指示を「理解」することはないからです。
AIが将来直面する主なリスクと課題は何ですか? 特にIoTシステムとの統合が進む中で?
私たちは、AIを使用して、クリティカル・インフラストラクチャのプロセスを最適化するシステムを自動化したいと思っています。たとえば、仮想パワープラントを使用してエネルギーの配給と使用を最適化できることはわかっています。これは、エネルギー生成、蓄電、使用の要素を数千も調整することで実現可能です。これは、AIを使用して分単位の意思決定を支援することで実現可能です。システムには、消費者とサプライヤーの利益のために最適化の対象となるエージェントが含まれることになります。AIの安全性とセキュリティは、こうしたシステムの広範な展開において極めて重要になります。
AIシステムにおけるエンティティの安全な識別と認証に必要なインフラストラクチャは何ですか?
AIシステムとその展開に関するすべての側面を評価するエンティティが、AIシステム、ペディグリー、利用可能なトレーニング・データ、センサー・データのプロバンス、セキュリティに影響を与えるインシデントやイベントなどについて、権威あるかつ認証された主張を公開できる、堅固で効率的なインフラストラクチャが必要です。このインフラストラクチャは、システムのユーザーまたはAIモデルと最適化の出力に基づいて決定を下す自動化システムの要素が、主張や保証を効率的に検証できるようにする必要があります。
現在、Intertrustで何を開発しているのか、そしてそれが今回の議論とどのように関係するのかについて、詳しくお話しください。
私たちは、先ほどの質問で必要とされた信頼管理インフラストラクチャを提供できる技術を研究し、設計しています。特に、AIコンポーネントを含むIoTシステムで発生するスケール、レイテンシ、セキュリティ、相互運用性の問題に取り組んでいます。
IntertrustのPKI(Public Key Infrastructure)サービスは、IoTデバイスをどのようにしてセキュアにし、大規模な展開にもスケーラブルにしているのか?
私たちのPKIは、デバイスとデジタル・コンテンツのガバナンスを含むシステムの信頼管理のために特別に設計されました。私たちは、コンプライアンスを保証するための億のキーと証明書を展開しました。現在の研究では、巨大な産業用オートメーションや世界的なクリティカル・インフラストラクチャが必要とするスケールと保証、さらに「ゼロ・トラスト」展開や、数兆のセンサーとイベント・ジェネレーターに対応できるデバイスとデータの認証のためのベスト・プラクティスに焦点を当てています。
あなたがNISTのAIイニシアチブに参加する動機は何ですか? また、あなたの関与は、信頼性と安全性のあるAI標準の開発にどのように貢献するのか?
NISTには、セキュア・システムの標準とベスト・プラクティスの開発における豊富な経験と成功があります。Intertrustのプリンシパル・インベスティゲーターとして、信頼管理システムの重要な標準とベスト・プラクティス、特にAIメカニズムを含むものの開発を推進できます。過去の経験から、NISTが進歩と産業協力の促進を支援しながら、重要な技術標準の策定と普及に取り組むアプローチを特に高く評価しています。これらの標準は、有益な技術の採用を促進しながら、社会が直面するリスクに対処するのに役立ちます。
素晴らしいインタビュー、詳細はIntertrustを訪れてください。












