Rony Ohayon、DeepKeep CEO兼創業者 – インタビューシリーズ
Rony Ohayonは、DeepKeepのCEO兼創業者であり、AI、サイバーセキュリティ、自律システム、大規模ビデオ技術にまたがるキャリアを持つ経験豊富な起業家兼技術者です。彼はこれらの領域で複数の企業を創業・率いており、自律走行車の接続性、ライブビデオ伝送、高度なエンジニアリングにおける主要な役割を担うとともに、以前にはコンピュータ工学の学術研究にも従事していました。DeepKeepは、企業がAI、生成AI、LLM、コンピュータビジョン、マルチモーダルシステムをそのライフサイクル全体にわたって保護するのを支援するために設計されたAIセキュリティプラットフォームです。同社は、脆弱性の特定、敵対的脅威のブロック、データ漏洩やプロンプト操作などの問題の防止、規制コンプライアンスのサポート、信頼性が高く回復力があり保護されたAI導入を確保するための継続的監視に焦点を当てています。あなたは、ビデオ伝送、自律走行車の接続性、AIシステムにおいて主要なイノベーションを主導してきました。ご自身のキャリアの中で、次に解決すべき主要な課題が企業AIのセキュリティであると確信させたものは何ですか?私は常に、産業を再形成するような高い影響力を持つ課題に取り組むことに動機づけられてきました。長年にわたり、新しいテクノロジー、特にAIが、セキュリティ対策をしばしば追い越し、重大な脆弱性を残すという繰り返しのパターンに気づきました。企業によるAIの採用、特に大規模言語モデル(LLM)やエージェント型AIの台頭により、新たなリスクの領域が開かれ、企業はこれらのシステムを安全かつ確信を持って活用する準備ができておらず、圧倒されていると感じることがよくあります。AIシステムにおける私の経験は、これらのテクノロジーが単に革新的であるだけでなく、安全で信頼でき、ビジネスを積極的に支える確かな結果を生み出すために、セキュリティをその中核に統合することがいかに重要であるかを浮き彫りにしました。この認識がDeepKeepの創業につながり、企業がセキュリティやプライバシーを損なうことなく、生産性とビジネス成長を高めるためにAIを自信を持って受け入れられるよう、AIシステムを保護することに焦点を当てています。あなたと共同創業者が2021年にDeepKeepを立ち上げたとき、専用プラットフォームの緊急の必要性を確信させた具体的なAIセキュリティの盲点は何でしたか?また、その洞察は会社の最初の方向性をどのように形作りましたか?コンピュータビジョンにおけるAIの作業を長年行い、その信頼性と堅牢性を確保するために多大な努力を要した後、コンピュータビジョンにおける信頼とセキュリティを確保するための専用ソリューションを設計する時が来たと気づきました。2021年、LLMの爆発的普及以前に、私たちはコンピュータビジョンモデルにおけるこれらのリスクに取り組むためにDeepKeepを立ち上げました。最初のプロトタイプについて振り返っていただけますか?具体的に何をしたのか、チームの規模はどれくらい小さかったのか、そして正しい道を進んでいることをどのように検証したのか教えてください。DeepKeepを創業した当時、焦点は依然として従来型のAI、つまり大規模言語モデルの台頭以前のコンピュータビジョン、表形式モデル、初期のNLPにありました。私たちの最初のプロトタイプは、コンピュータビジョン分類器をレッドチーミングし、敵対的攻撃に対するその堅牢性をテストするシステムでした。それと並行して、これらの攻撃をリアルタイムで検出しフラグを立てるAIファイアウォールの初期バージョンを構築しました。初期のユースケースは、モデルの誤動作が実際の運用リスクをもたらす自動車、保険、金融サービス業界から来ました。当時は約8人の小さなチームでしたが、それにより迅速に反復し、早期に機能するプロトタイプを作成することができました。私たちは、潜在的な顧客と直接話すことで正しい道を進んでいることを検証しました。彼らは一貫して、敵対的堅牢性が新たな懸念事項であると強調しました。ほぼ同時期に、MITREのATLAS(2021年に最初にリリース)のようなフレームワークが登場し始め、これはAIセキュリティと敵対的脅威モデリングの分野が成長しようとしている重要な外部シグナルでした。顧客からのフィードバックと業界の方向性の一致により、私たちは正しい方向に向かっているという確信を得ました。DeepKeepは当初から、従来のソフトウェアではなくAIシステムを保護するように設計されていました。どのモデルタイプと攻撃対象領域に最初に焦点を当てるかをどのように優先順位付けしましたか?当初から、企業AIを保護するにはパラダイムシフトが必要であることを認識していました。多くの組織は、使用するモデルに対してペネトレーションテストと評価を実行する必要があることを知るほど精通していますが、私たちはそれらの行動が単なる始まりに過ぎないことを理解していました。真のリスクは、モデル自体だけでなく、完全なアプリケーションエコシステム内で発生します。そのため、従来のレッドチーミングによるスタンドアロンのAIチャットボットの保護が業界の出発点でしたが、私たちはすぐに、カスタムAIアプリケーションやAIエージェントを保護するソリューションの開発に移行し、次のステップであるエージェント同士が相互作用し、重要なクロスドメイン知能が存在する状況を保護するように進化していきます。私たちはすべてのモデルタイプにわたるモデルスキャンを可能にするとともに、敵対的攻撃、データ漏洩、システムの悪用、信頼の低下などの最も差し迫った脅威に対して、モデルのレッドチーミングを行い、AIプロンプトと応答を保護するガードレールを適用することで防御します。決定的に重要なのは、モデルが動作するコンテキストを理解することで、AIの「セマンティックレイヤー」も保護することです。これにより、モデルが簡単に操作されることがなくなります。創業段階からDeepKeepの現在の製品方向性までの間で、あなたが行った最大の技術的または戦略的な転換点は何でしたか?私たちが下した最大の決断の一つは、従来のモデルセキュリティの領域を超えて、AIアプリケーションセキュリティの領域に拡大することでした。当初は個々のモデルの保護に焦点を当てていましたが、AIの状況が進化するにつれ、複数のモデル、エージェント、ユースケースが交差するAIエコシステム全体を保護することがはるかに重要であると気づきました。これにより、レッドチーミング、エージェント、従業員、アプリケーションがAIと行うすべての相互作用を保護する包括的なAIファイアウォール、およびランタイム監視を組み込むことで、私たちのアプローチを広げることにつながりました。もう一つの重要な決断は、クラウドに依存しない、オンプレミス、およびエアギャップソリューションを含む完全な導入の柔軟性を提供し、企業がどのような環境でもDeepKeepを安全に導入できるようにすることでした。また最近、業界をリードするアップグレードされた個人識別情報(PII)ガードレールをプラットフォームに統合し、顧客にさらに深いレベルのデータ保護を提供し、企業がAIの使用を拡大する際に世界的なコンプライアンス要件を満たせるようにしています。DeepKeepはセキュリティと信頼性の両方を同等に重視しています。その二重の焦点は、どの段階で会社のアイデンティティの中核となりましたか?セキュリティと信頼性の両方への焦点は、特に顧客とそのニーズについてより深く理解し始めた初期の段階で明確になりました。AIモデルを扱う場合、セキュリティと信頼は密接に関連し、同等の役割を果たします。なぜなら、結局のところ、どちらも損害や破壊的な結果につながる可能性があるからです。アプリケーションは堅牢でありながら信頼性が低い、あるいはその逆であることはありえません。従来のサイバーセキュリティツールは、プロンプトインジェクション、幻覚、データ漏洩、モデル操作のために設計されていません。これらの新興脅威ベクトルのうち、企業が最も苦労しているとあなたが見たのはどれですか?また、それらの現実世界の問題はDeepKeepのアーキテクチャにどのように影響しましたか?新興脅威の中では、プロンプトインジェクションとデータ漏洩が、企業が最も苦労している差し迫った懸念事項です。AIアプリケーションやAIエージェントがビジネスプロセスにますます統合されるにつれ、プロンプト操作や機密データの偶発的な露出のリスクがより顕著になっています。これらの問題は、モデルだけでなくAIエコシステム内のデータと相互作用の流れ全体を保護するという、コンテキストセキュリティに焦点を当ててDeepKeepを設計するきっかけとなりました。私たちのインフラストラクチャは、開発段階でこれらのレイヤーをペンテストし、すべてのAI相互作用を保護することでランタイム中に防御するように構築されました。あなたのプラットフォームは、ガードレール、レッドチーミング、データ保護レイヤーを組み合わせています。技術的な観点から、これらのうちどれが企業規模でエンジニアリングするのが最も困難であることが証明されましたか?また、急速に進化するAIモデルに適応しなければならないシステムを構築する過程で何を学びましたか?各レイヤー(ガードレール、レッドチーミング、データ保護)にはそれぞれ独自のエンジニアリング上の課題がありますが、私たちは、これらすべてのレイヤーに共通する課題が実際には最も困難であることを発見しました。第一は変化のペースです:新しいリスク、ジェイルブレイク、攻撃手法が絶えず発生するため、静的なものはすぐに時代遅れになります。第二はコンテキストの適応です:企業環境では、すべてのアプリケーションが異なるポリシー、データの機密性、ユーザー行動を持つため、画一的なアプローチは単純に機能しません。最初の課題に対処するために、私たちはプラグイン式コンポーネントを持つ完全にモジュール化されたアーキテクチャを構築し、システムを中断することなく、レッドチーミングエンジンに新しい攻撃を追加したり、ファイアウォールに新しいガードレールを追加したりできるようにしました。そして第二の課題を解決するために、私たちはエージェント型でコンテキストを認識するシステムを設計しました。これはアプリケーションの環境を分析し、関連するセキュリティ対策を自動的に適応させます。これは、基礎となるAIモデルとユースケースが非常に急速に進化する場合に不可欠です。これらの2つの能力、モジュール性とコンテキスト認識は、急速に進化するAIシステムに追いつきながら、企業規模で運用するための鍵となっています。AIセキュリティは進化する分野です。今日の企業内部に見られるギャップ(ポリシー、ツーリング、リスク理解のいずれにおいても)の中で、DeepKeepのセキュリティスタックと顧客オンボーディングの設計に最も直接的に影響を与えたものは何ですか?ギャップは、業界、企業規模、AI導入の成熟度によって大きく異なります。今日の大企業で見られる最大のギャップの一つは、すべてのAIセキュリティニーズをカバーする単一のソリューションが不足していることです。これらのビジネスの多くはAIセキュリティソリューションの必要性を認識していますが、導入が進むにつれ、追加のセキュリティカバレッジの要件も高まります。私たちは早期に、異なる能力が連携し、シームレスに統合されて動作する堅牢なエンドツーエンドソリューションには価値があることを学びました。顧客は、全体が部分の総和よりも大きいソリューションから利益を得ています。市場が成熟するにつれ、私たちは別のギャップを特定しました。それは、組織が自社のエージェントとアプリケーションを保護するためによりカスタマイズされ、一般的でないセキュリティツールを求めていることです。私たちのコンテキスト認識アプローチの背景にある理由の一つは、すべてのアプリケーションとエージェントが異なり、それに応じて保護する必要があるという理解を持って、このギャップに取り組むことでした。今後5年間を見据えた場合、企業のAIリスクがどのように進化すると予想しますか?また、その未来に先んじるためにDeepKeepがどのような位置にいる必要があると信じていますか?今後5年間で最大のAIリスクは、AIの自律性の進展とともに進化すると予想しています。エージェントがより自律的になり、あらゆるビジネス運用に統合され、複雑なタスクを実行できるようになるにつれ、セキュリティ侵害や悪用の可能性が高まるでしょう。私たちは、エージェント同士が関わり合い、保護すべきAI相互作用のさらに複雑なウェブを形成する「エージェントのインターネット(IoA)」の発展を予見しています。先んじるために、DeepKeepはこれらのますます複雑化するAIシステムを保護するためにプラットフォームを進化させ続け、複数のAIモデルにわたるランタイム保護を提供し、AIを活用した意思決定の成長傾向をサポートします。私たちの目標は、それがどれほど高度になろうとも、企業が自社のAIエコシステム全体を保護するために頼る信頼できるパートナーとなることです。素晴らしいインタビューをありがとうございました。さらに詳しく知りたい読者は、DeepKeepを訪れてください。