Connect with us

Jonathan Mortensen、Confident Securityの創設者兼CEO – インタビュー・シリーズ

インタビュー

Jonathan Mortensen、Confident Securityの創設者兼CEO – インタビュー・シリーズ

mm

Jonathan Mortensen、Confident Securityの創設者兼CEOは、現在、厳格なセキュリティとコンプライアンス要件を持つ業界向けのプライベートなAIシステムの開発を主導しています。また、South Park CommonsのFounder Fellowとして、AIコンピューティング、メモリ、プライバシー、所有権の将来を探究しています。Confident Securityを立ち上げる前に、Databricksのスタッフソフトウェアエンジニアとして、bit.ioのテクノロジーをデータプラットフォームに統合し、多テナントセキュリティ、IAM/ACL、VPC分離、暗号化、データ所有権に焦点を当てていました。以前は、bit.ioの創設者兼CTOとして、数十万のセキュアデータベースをサポートするマルチクラウド、マルチリージョンのサーバーレスPostgreSQLサービスを構築し、後にDatabricksに買収されました。

Confident Securityは、企業がAIワークフローを実行するためのインフラストラクチャを構築しています。そのプラットフォームは、プロンプト、データ、モデル出力が完全にプライベートのまま残り、ログに記録されず、再利用されないように設計されています。組織は、厳格な規制とコンプライアンス基準を満たしながらAIを採用するためのセキュアな方法を提供します。

あなたは2024年にbit.ioを構築し、Databricksで働いた後、Confident Securityを創設しました。AIに根本的に異なるアプローチが必要であるという認識がどのように生まれたのでしょうか。

データインフラストラクチャを構築する経験から、私は次のことを学びました。敏感な情報をシステムに入力する場合、信頼だけでは十分ではありません。証明が必要です。私たちは、顧客がデータを所有し、証明する方法を提供するインフラストラクチャを構築しました。

LLMを使用する企業を見てみると、その証明は存在しませんでした。従業員は、ソースコード、法的文書、医療レコードを第三者のモデルに貼り付けていました。プライベートな会話がオンラインで偶然にインデックスされ、ポリシーの変更により会話がデフォルトでトレーニングデータになることがありました。現在のプライバシーモデルの脆弱性が明らかでした。

AIが世界で最も敏感な情報を扱う場合、ベンダーの内部的な約束に依存しない保証が必要です。那が私をConfident Securityを始める動機にしました。

OpenPCCは「AIのSignal」として説明されています。プライバシーレイヤーがオープンで、検証可能で、相互運用可能であることが重要でした理由を教えてください。

エンドツーエンド暗号化は、標準になるまで普及しませんでした。私たちは、AIプライバシーにも同じことを望んでいます。もし、わずかな企業しか実際の保証を提供できない場合、プライバシーはスケールしません。

OpenPCCはApache 2.0の下でオープンソースなので、誰でもビルドしたり検査したりできます。秘密の信頼要件はありません。ハードウェアの検証は、実行中のコードと場所について暗号化された証明を提供します。また、どこでも動作します。どのクラウドでも、どのモデルプロバイダーでも、どの開発者スタックでも。

一貫性と普遍性のあるプライバシーフロアには巨大な価値があります。如果あなたがOpenPCCを使用している場合、あなたのデータはモデルプロバイダー、規制当局、または私たちに表示されないことを知っています。標準は、エコシステム全体が参加できる場合にのみ機能します。したがって、私たちは、最初から可能な限り包括的に設計しました。

Confident Securityを創設する前に、あなたはマルチテナンシー、暗号化、データ所有権のための大規模システムを構築しました。OpenPCCのアーキテクチャーをどのように形作ったのでしょうか。

それらのシステムは、私に2つの真実を教えました。システムがデータを保持できる場合、最終的には保持します。ログ、ミスコンフィギュレーション、または法的要請を通じて保持します。信頼はプライバシーモデルではありません。ユーザーは可視性と制御が必要です。

OpenPCCはステートレスモードで実行され、プロンプトは処理後に消えます。検証により、ユーザーはデータがどこに行き、どのコードが実行されているかを確認できます。制御とデータを分離することで、OpenPCCはプライベート入力が実行可能な命令として扱われることを防ぎます。

企業が待っていた制約です。データが予期せず再現されることはありません。

あなたは、ほとんどの「プライベートAI」ソリューションが不透明なシステムへの信頼に依存していることを主張しています。なぜ独立した検証が真のプライバシーに不可欠なのでしょうか。

現在のプライバシーの言語は、基本的に「私たちを信頼してください」ということです。那は、国家安全保障や規制されたヘルスケアデータが含まれる場合に十分ではありません。如果ユーザーが主張を検証できない場合、それは保証ではなく、マーケティングです。

検証可能なプライバシーは異なります。オペレーターの意図を信頼しません。ハードウェア、ソフトウェアイメージ、データ処理保証を検証します。暗号化は境界を強制します。ログは誰かが偶然に漏らしたり召還したりするために存在しません。

ユーザーがプライバシーを監査できる場合、根本的に安全なシステムを作成します。那は数学に根ざした説明責任です。

Googleの「プライベートAI」発表は、OpenPCCの後にすぐに来ました。你は独立したテストのためのTPUを提供するようにGoogleに公に呼びかけた。どのような動機があり、どのようなことが見つかることを期待していますか。

プライバシーガランティーを主張する場合、コミュニティがそれを検証できるようにする必要があります。NVIDIAはすでに外部の検証をH100 GPUで許可しています。私たちは、採用を促進するためにその検証ライブラリのGoバージョンをオープンソース化しました。

Googleが同様の約束をTPUで行う場合、私たちはそれを測定し、検証する必要があります。私たちは、プライバシーシステムから期待するのと同じコントロールを探します。厳格なデータ保持境界、監査可能な検証、ログやテレメトリが逃げる秘密のパスが存在しません。プライバシークレームは検証に耐える必要があります。

メカニズムに不明な読者にとって、OpenPCCの完全に暗号化されたチャネルは従来のクライアント側暗号化や機密コンピューティングとどう違うのでしょうか。

クライアント側暗号化はデータを入力中に保護し、機密コンピューティングはデータを処理中に保護しますが、オペレーターまたは攻撃者が敏感な情報にアクセスできるギャップが依然として存在します。

OpenPCCはそのギャップを閉じます。クライアントとモデル間の完全に暗号化されたエンドツーエンドパスを作成し、プロンプト、レスポンス、ユーザーのID、そして意図を明らかにする可能性のあるメタデータやタイミングシグナルを保護します。オペレーターは何も復号化できません。ログやリテンションは保持されず、 даже侵害条件下でも。

プライバシーは、プロバイダーが裏で正しいことを行うことを希望することに依存するべきではありません。暗号化によって強制される必要があります。

検証可能なプライバシーは、金融、ヘルスケア、防衛などの規制された業界の状況をどのように変えるのでしょうか。

規制された業界は、AIから最も多く利益を得る可能性がありますが、漏洩した場合に最も多く損失を被る可能性もあります。現在、78%の従業員が内部データをAIツールに貼り付けていて、5つのうち1つの場合には、PHIやPCIなどの規制情報が含まれています。既に漏洩が発生しています。

検証可能なプライバシーは、最大の障害を取り除きます。敏感なプロンプトは、モデルプロバイダーの環境内で平文では存在しません。トレーニングに使用することはできません。合法的な要請でも、システム自体が見ることができないものにはアクセスできません。

リスクとコンプライアンスチームには、デフォルトで「はい」となるパスが最終的にあります。

あなたは、どの企業スタックでも動作するクラウドエイジャントなプライバシーレイヤーを設計する際に、どのようなエンジニアリングの課題に直面しましたか。

機密コンピューティングとリモート検証は、私の意見ではまだ幼少期にあります。各クラウドプロバイダーとベアメタルプロバイダーは少し異なることを行います。AWSのようなプロバイダーは、ハードウェア検証に必要なハードウェアを持っていません。私たちが追加する機能ごとに、1000の切り傷とタイトロープを歩くようなものです。しかし、オープンスタンダードになる必要があるため、誰でも動作するようにする必要があります。それはオープンソースなので、さらに多くのプラットフォームと構成を追加することを奨励しています。

デフォルトの検証可能な暗号化を持つ世界はどのようなものですか。企業、クラウドベンダー、モデルプロバイダー間のバランスをどのように変えるのでしょうか。

企業は、最も貴重な資産であるデータを保持します。モデルプロバイダーは、独自の情報を蓄積するのではなく、パフォーマンスとコストで競争します。クラウドは、プライバシーを黙って見ているのではなく、プライバシーを可能にします。

それはより健康的なバランスです。セキュリティが基盤に組み込まれている場合、全エコシステムが勝者です。

AIが普遍的になり、厳しく規制される未来において、検証可能なプライバシーは企業、クラウドプロバイダー、モデル開発者の競争環境をどのように変えるのでしょうか。

規制当局は、ユーザーデータがどのように保存され、使用されるかについて疑問を抱いています。信頼ベースのプライバシーは、長期的には彼らを満足させません。ユーザーは、今日のメッセージングアプリで暗号化を期待するのと同じように、プライバシーガランティーを期待します。

勝者は、ユーザーに妥協を求めない企業です。如果あなたがプライバシーを証明できる場合、あなたは世界で最も貴重なデータを持つ組織の信頼を得ます。データは、以前ロックアウトされていた場所で使用可能になります。

素晴らしいインタビュー、詳細を知りたい読者はConfident Securityを訪問してください。

アントワーヌは、Unite.AIの創設パートナーであり、ビジョナリーなリーダーです。彼は、AIとロボティクスの未来を形作り、推進するという、揺るぎない情熱に突き動かされています。シリアルエントレプレナーである彼は、AIは電気と同じように社会に大きな変革をもたらすと信じており、破壊的な技術やAGIの潜在能力について熱く語ることがよくあります。

As a futurist、彼は、これらのイノベーションが私たちの世界をどのように形作るかを探求することに尽力しています。さらに、彼は、Securities.ioの創設者であり、未来を再定義し、全セクターを再構築する最先端技術への投資に焦点を当てたプラットフォームです。