

Machines That Thinkは、技術的な明快さと深い哲学的探求のバランスが取れた、構造化された思慮深い人工知能の入門書として際立っています。現代のバズワードに飛びつくのではなく、Inga Strümkeは慎重なアプローチを取り、読者を計算の黎明期から、今日のAIを形作る複雑な倫理的・社会的課題へと導きます。第一原理から構築する本書は、アルゴリズムとアナログコンピュータから始まる、初期の計算概念についての確固たる探求から始まります。この歴史的な枠組みは単なる背景情報ではなく、機械がどのように情報を処理するか、そしてAIがなぜそのように進化したのかの論理を確立するものです。これらの起源をたどることで、Strümkeは読者がAIを突然の技術的飛躍ではなく、連続体として理解することを確実にします。彼女が導入するより価値ある初期の区別の一つは、AIとサイバネティックスの違いです。どちらの分野もシステム、フィードバック、制御を扱いますが、サイバネティックスはシステム内の調節と通信に焦点を当てるのに対し、AIは知性に関連するタスクを実行できるシステムの創造に関心があります。この区別は、現代のAIが初期のサイバネティックス研究のようなより生物学的に着想を得た道筋ではなく、現在の軌道に沿って発展した理由を明確にするのに役立ちます。力任せの計算から学習システムへAIの進化は、おそらくゲーム、特にチェスを通じて最も明確に示されています。Deep BlueとAlphaZeroの対比は、AIの方法論がいかに劇的に変化したかを効果的に示すために用いられています。Deep Blueは力任せの計算に大きく依存し、最適な手を決定するために毎秒数百万の可能な局面を評価しました。それは強力でしたが、事前にプログラムされた評価関数と生の処理能力への依存によって根本的に制限されていました。対照的に、AlphaZeroはパラダイムシフトを表しています。戦略を明示的にプログラムされる代わりに、自分自身と対戦することで学習し、人間のグランドマスターでさえ以前には考えなかったパターンや戦略を発見します。この移行は、本書の核心的なテーマの一つを浮き彫りにします:現代のAIは、機械に何をすべきかを明示的に指示することよりも、データと経験から学習できるようにすることに重点が置かれています。また、より深い哲学的論点も強調しています―AIシステムはもはや指示を実行するだけのツールではなく、新しい解決策を生み出すことができるシステムなのです。記号的AIと非記号的AI本書の特に優れたセクションは、記号的AIと非記号的AIの区別に焦点を当てています。初期の研究を支配した記号的AIは、明示的なルールと知識の論理的表現に依存します。それは構造化され、解釈可能で、決定論的ですが、曖昧さや現実世界の複雑さにしばしば苦戦します。非記号的AI、特にニューラルネットワークは、非常に異なる方法で動作します。ルールの代わりに、これらのシステムはデータから直接パターンを学習します。これにより、画像認識、自然言語処理、パターン検出などのタスクにおいて、はるかに適応性が高く強力になります。しかし、この力は解釈可能性という代償を伴います。ニューラルネットワークはしばしば「ブラックボックス」として機能し、特定の決定にどのように至ったかを理解することを困難にします。Strümkeはこのトレードオフを過度に単純化することなく、優れた説明をしています。非記号的AIへの移行は単なる技術的進化ではなく、知性そのものへのアプローチ方法の根本的な変化であることを示しています。ニューラルネットワークと知覚の理解画像分類とニューラルネットワークに関するセクションは、本書で最も魅力的な部分の一つです。Strümkeは、ニューラルネットワークが層を介して視覚情報を処理し、生のピクセルデータをより高次の抽象概念へと徐々に変換する方法を説明します。初期の層はエッジや形状などの単純な特徴を検出し、より深い層は物体や顔などの複雑なパターンを識別します。この階層的なアプローチにより、機械はかつて人間に特有と思われたタスクを実行できるようになります。しかし、本書はこの「理解」が人間の理解と同じものではないことを明確にしています。AIシステムは意味論的ではなく統計的にパターンを認識します。彼らは人間がそうするように、物体が何であるかを「知って」いるわけではありません―学習した相関関係に基づいてそれを識別しているのです。同時に、AIシステムが人間の能力を凌駕する領域もあります。例えば画像認識において、機械は人間の目には見えない微妙なパターンや異常を検出できます。これは興味深いパラドックスを生み出します:AIシステムは特定のタスクで人間を上回りながらも、真の理解をまだ欠いているのです。説明可能性、倫理、規制本書が進むにつれ、特に説明可能なAIとデータプライバシーについて議論する際に、Strümkeの声はより明確になります。彼女は現代のAIにおける重大な問題を強調します:システムがより強力になるにつれ、それらはまたより不透明になるという問題です。説明可能なAIは、機械の決定をより解釈可能にすることで、この問題に対処することを目指しています。これは、決定の背後にある推論を理解することが極めて重要な、医療、金融、法律などのハイステークスな領域で特に重要です。Strümkeは、説明可能性がなければ、AIシステムへの信頼を確立することは困難になると強調します。データプライバシー法に関する彼女の批判は特に考えさせられるものです。彼女は、既存の規制の多くが制限的でありながらも効果的でないと主張します。一方では、データへのアクセスを制限することでイノベーションを遅らせる可能性があります。他方では、抜け穴や執行の課題のために、ユーザーを適切に保護することにしばしば失敗します。この二重の失敗は、急速に進化する技術を統治することの複雑さを浮き彫りにします。創造性とAIの限界本書のもう一つの説得力のあるテーマは、創造性の問題です。AI生成アート、音楽、文章の台頭により、人間と機械の創造性の境界線はますます曖昧になっています。Strümkeはこのトピックにニュアンスを持ってアプローチし、AIシステムが真に創造的であるのか、それとも単に既存の人間が生成したコンテンツを再結合しているだけなのかを問います。AIは印象的な出力を生み出すことができますが、その創造性は、意識、経験、意図によって形作られる人間の創造性とは根本的に異なります。この議論は、所有権、独創性、人間のインプットの価値を含む、より広範な倫理的考察へと広がります。本書は決定的な答えを提供するのではなく、読者にこれらの問いに向き合い、その含意を考えるよう促します。AIにおける集団行動問題探求されている、より微妙だが重要なアイデアの一つは、AI導入における集団行動問題です。AIシステムがより強力になるにつれ、個々の組織の決定は広範囲にわたる結果をもたらす可能性があります。しかし、政府、企業、機関を横断して行動を調整することは本質的に困難です。これは、短期的なインセンティブが長期的な社会的利益と衝突する状況を生み出します。Strümkeは協力とガバナンスの重要性を強調すると同時に、それを達成することに関わる課題も認めています。AGIとその先を見据えて本書は、人工汎用知能(AGI)と超知能に関する将来を見据えた議論で締めくくられます。Strümkeは推測にふけるのではなく、現在の技術的トレンドと限界に基づいて分析を展開します。彼女は、計算、データ、アルゴリズム設計の進歩を含め、AGIを達成するために何が必要かを探ります。同時に、社会がますます高度なAIシステムにどのように適応するかを考察します。これには技術的変化だけでなく、教育、政策、経済構造の変化も含まれます。結末は適切にバランスが取れています―AIの可能性については楽観的ですが、これからの課題については現実的です。最終評価Machines That Thinkは、人工知能に関する増え続ける文献群への、バランスの取れた魅力的な追加です。それは、深さを犠牲にすることなく複雑なトピックをアクセスしやすくすることに成功すると同時に、技術の倫理的・社会的含意にも取り組んでいます。AIについて強固な基礎を構築しつつ、そのより広範な影響も探求したい読者にとって、この本は思慮深く包括的な視点を提供します。それは入門書であると同時に、AIが未来を形作る上で果たす役割についてより批判的に考えるよう招くものです。


エラン・ヤハブ教授は、Tabnineの共同創設者兼共同CEOであり、イスラエル工科大学テクニオンのコンピュータサイエンス教授です。彼の研究はプログラミング言語、機械学習、ソフトウェア工学、特にプログラム合成と大規模コード分析に焦点を当てています。学術研究と並行して、彼は長年の研究を実践的な開発者ツールに応用するため、Tabnine(旧Codota)を共同設立し、AI駆動のコード補完と自動化の先駆けとなることに貢献しました。彼の仕事は学界と産業界を橋渡しし、現実の企業環境においてAI生成コードをより信頼性が高く、安全で、文脈を理解したものにすることを目指しています。Tabnineは、コードの記述やデバッグからテスト、ドキュメント生成まで、ソフトウェア開発ライフサイクル全体を通じて開発者を支援するように設計されたAI搭載のコーディングプラットフォームです。当初はコード補完ツールとしてリリースされましたが、生成AIとエージェントベースのワークフローを統合した、より広範な企業向けプラットフォームへと進化を遂げ、チームがプライバシー、セキュリティ、コンプライアンスに対する強力な管理を維持しながら、複雑な開発タスクを自動化できるようにしています。数十のプログラミング言語をサポートし、主要なIDEと統合することで、Tabnineは開発者の生産性向上を目指すとともに、AI生成コードが信頼でき、組織の基準に沿ったものであることを保証します。あなたはテクニオンで長年プログラム分析と合成の研究に携わり、以前はIBMリサーチでも働いていました。ソフトウェア開発におけるどのような問題が、Tabnineを共同設立する決意をさせたのでしょうか。また、あなたの学術研究は、同社の当初のビジョンにどのように影響を与えましたか?私の学術研究は、本質的に機械にコードを理解させ、生成させることに関するプログラム分析と合成に焦点を当てていました。私はプログラム分析で博士号を取得し、応用研究の最初の数年もここで過ごしました。プログラム分析を用いてソフトウェア品質の問題に取り組むことで、プログラムが誤って書かれてしまった後では、いくつかの問題は非常に解決が困難であることが明らかになりました。予防は治療に勝る、と言えるかもしれません。これが、ソフトウェア品質に対処する正しい方法はプログラム合成であると私に確信させ、私の研究時間とエネルギーの大半を費やした分野となりました。当初は並行プログラムのためのプログラム合成に取り組み、逐次プログラムから並行プログラムの作成を自動化しようとしました。その後、機械学習を用いたより一般的に適用可能なプログラム合成に切り替えました。機械学習を用いたプログラム合成は、Tabnineを動かす根本的なアイデアでもありました。今では当然と思えるそのアイデアは、モデルが大規模なコードコーパスから直接コーディングパターンを学習し、開発者をリアルタイムで支援できるというものでした。この一般的なアイデアは、コード作成からコードレビュー、デプロイメント、そしてそれ以降まで、ソフトウェア開発ライフサイクルの全段階に適用可能です。ビジョンは常に、開発プロセスを加速し、摩擦を取り除くツールを提供することで、人間の開発者を拡張することでした。ソフトウェア開発は創造的で問題解決的な分野であり、AIの目標は、日常的なタスクを処理し、開発者がフロー状態を維持するのを助けることで、プロセスから摩擦を取り除くことでした。そのビジョンは今日も私たちを導いていますが、技術は当時から大きく進化しています。Tabnineは、OpenAIのモデルのようなツールで生成AIが主流になる何年も前に、AIコーディングアシスタントの先駆けとなりました。振り返ってみて、ソフトウェア開発におけるAIの役割は初期の頃からどのように進化したと思いますか?また、業界は最初の波のコーディングコパイロットからどのような教訓を学びましたか?最初の世代のAIコーディングアシスタントは、主に予測に焦点を当てていました。それらは本質的に高度なオートコンプリートシステムであり、次の行や関数を予測することで、開発者がより速くコードを書くのを助けました。エージェントループによって変わったのは、AIがより大きな自律性を持ってタスクを処理できるようになり、適切なガイダンスがあれば、エージェントを独立したジュニア開発者と見なせる点まで来たことです。しかし、これは業界に重要な教訓ももたらしました。生のモデル能力だけでは、企業向けソフトウェア開発には不十分です。公開データで訓練されたモデルは印象的な出力を生成できますが、多くの場合、組織のアーキテクチャ、依存関係、規約に対する認識を欠いています。そのため、進化の次の段階は、より大きなモデルやより大きなコンテキストウィンドウだけではなく、それらのモデルをソフトウェアが構築される実際の文脈に接続することについてです。多くの企業は、AIエージェントのスケーリングにはより大きなモデル以上のもの、つまりより深い組織的文脈が必要であることに気づきつつあります。なぜ、文脈が信頼性の高いAI駆動開発の真のフロンティアになるとお考えですか?ソフトウェアシステムは、関係性の複雑なネットワークです。単一の変更が、複数のサービス、API、または下流のコンポーネントに影響を与える可能性があります。今日のAIモデルは、もっともらしいコードを生成するのは非常に得意ですが、多くの場合、それらの関係性を構造的に理解せずに動作しています。その理解がなければ、AIは変更の結果について確実に推論することができません。企業が発見しているのは、AIシステムの信頼性が、それが動作する文脈の質に依存するということです。AIシステムがシステムのアーキテクチャ、サービス間の依存関係、組織のコーディング標準を理解していれば、そのシステムが実際にどのように機能するかにより密接に沿ったコードを生成できます。その意味で、文脈は企業AI開発の次のフロンティアになりつつあります。あなた方の新しいEnterprise Context Engineは、AIエージェントに組織のアーキテクチャ、依存関係、エンジニアリング慣行に対する構造的な理解を与えることを目指しています。このアプローチは、多くの企業が現在依存している検索拡張生成のような一般的な方法とどのように異なりますか?検索拡張生成は有用な技術です。これは、モデルが回答を生成する際に関連するドキュメントやコードスニペットを取り込むことを可能にします。しかし、検索だけでは理解は生まれません。それは構造ではなく、情報へのアクセスを提供します。Enterprise Context Engineは、ソフトウェア環境の構造化された表現を構築することで、さらに一歩進むように設計されています。これは、リポジトリ、サービス、依存関係、API、アーキテクチャ上の関係を分析し、システムが実際にどのように機能するかのモデルに整理します。これにより、AIシステムは単にテキストの断片を検索するのではなく、コンポーネント間の関係について推論することができます。複雑な企業環境では、その区別は非常に重要になります。AIコーディングツールは、オートコンプリートの提案から、マルチステップのワークフローを実行できる自律エージェントへと進化しています。今後5年間で、人間の開発者とエージェントシステムのバランスはどのように変化していくとお考えですか?AIエージェントは、日常的な開発タスクをますます引き受けるようになるでしょう。彼らはすでに、テストやドキュメントを含む機能のエンドツーエンドでの実装が可能です。すべての開発者が、AI開発者のチームリーダーになるでしょう。主な課題は、このチームに要件を伝え、生成された成果物が概説された要件と一致していることを確認することになるでしょう。しかし、ソフトウェア開発は本質的に問題解決と設計に関するものです。人間の開発者は、アーキテクチャを定義し、トレードオフを判断し、システム全体の方向性を導き続けるでしょう。変わるのは、開発者が作業する抽象化のレベルです。開発者はコードに焦点を当てるのではなく、より高レベルのワークフローを調整し、それらのワークフローの一部を実行するAIシステムと協力することにますます重点を置くようになるでしょう。言い換えれば、AIがより多くの機械的な作業を処理するにつれて、開発者の役割はより戦略的になります。Tabnineは、企業ユーザーによっては、AI生成コードの受け入れ率が一部の環境で約80%に達することがあると示唆しています。組織は、AIコーディングツールが単により多くのコードを生成しているのではなく、実際に開発者の生産性を向上させているかどうかを判断するために、どのような指標を使用すべきでしょうか?重要な問題は、AIがどれだけのコードを生成するかではなく、実際にどれだけ有用な作業を生み出しているかです。組織が追跡すべき指標はいくつかあります。一つは、AI生成コードが修正なしで使用できる頻度を測定する初回受け入れ率です。もう一つは、プルリクエストがマージされる前に必要な反復回数を示すレビューサイクル時間です。組織はまた、開発者が手直しに費やす時間や、開発から本番環境への変更のリードタイムも見るべきです。AIツールが本当に生産性を向上させているなら、これらの指標全体で改善が見られるはずです。開発者は生成されたコードを修正する時間を減らし、より付加価値の高いタスクに時間を費やすようになります。企業は、独自のコードを外部モデルにさらすことについて依然として慎重です。「信頼できるAIコーディング」という概念は、企業によるAI開発ツールの採用を遅らせてきたガバナンス、プライバシー、コンプライアンスの懸念にどのように対処しますか?信頼は、企業がAIを採用する上で最も重要な要素の一つです。信頼は、AIエンジニアを実現するための究極の課題です。重要なソフトウェアエンジニアリングタスクを自律的に完了するために、AIエンジニアをどのように信頼すればよいでしょうか?その行動が、品質、セキュリティ、ポリシーへの準拠に対する私たちの期待と一致することをどのように保証すればよいでしょうか?AIエンジニアが私たちのエンジニアリングチームの受け入れられたメンバーとなるためには、十分に審査され適切にオンボーディングされたチームメイトと同じくらい信頼される必要があります。この課題に対処するには、2つの重要な柱に依存しています: パーソナライゼーション: AIエンジニアに、あなたの組織、コードベース、ベストプラクティスに対する深い理解を備えさせること。 コントロール: AI生成および人間が書いたすべてのコードが、組織の品質、セキュリティ、パフォーマンス、信頼性の基準を満たすことを保証する堅牢なシステムを実装すること。 さらに、信頼できるAIコーディングとは、組織にAIのデプロイ方法に対するコントロールを与え、集中化されたガバナンスとコントロールを確保することを意味します。あなたは、組織的文脈が、過去のコンピューティング時代におけるデータベースやクラウドインフラストラクチャと同様に、企業AIスタックの基礎レイヤーになる可能性があると示唆しています。その未来のアーキテクチャはどのようなものですか?企業テクノロジーがどのように進化するかを見ると、新しいインフラストラクチャレイヤーが出現することがよくあります。データベースはデータを管理するための基盤となりました。クラウドプラットフォームは、大規模にアプリケーションを実行するための基盤となりました。AI時代において、組織は、AIシステムが企業の内部構造(そのシステム、関係性、運用上の制約)を理解できるようにするインフラストラクチャを必要とするでしょう。そのインフラストラクチャレイヤーは、コーディングアシスタント、サポートエージェント、運用自動化ツールなど、複数のAIシステムが使用できる構造化された文脈を提供します。その意味で、文脈は企業AIの共有基盤となります。多くの企業は、単一の基盤モデルに密接に結合されたコーディングアシスタントを構築しています。一方、Tabnineは企業がニーズに応じて異なるモデルを接続できるようにしています。なぜモデルの柔軟性が、企業AI開発ツールの長期的な進化にとって重要なのですか?AIエコシステムは非常に急速に進化しています。新しいモデルが頻繁にリリースされ、異なるモデルはしばしば異なる分野で強みを持っています。企業は、モデルの状況が変わるたびに開発ワークフローを再設計する必要があるべきではありません。組織がモデルを選択し、切り替えられるようにすることで、私たちは彼らのAI戦略を将来にわたって有効にする柔軟性を提供します。モデルの柔軟性はまた、組織がパフォーマンス、コスト、プライバシー要件、デプロイメントの制約のバランスを取ることを可能にします。長期的には、企業はマルチモデル環境で運用することになる可能性が高く、開発プラットフォームはその現実を念頭に置いて設計されるべきです。今日AI開発プラットフォームを評価しているCTOやエンジニアリングリーダーにとって、組織がAIコーディングツールをデプロイする際に犯す最大の過ちは何ですか?また、それらをどのように回避できますか?一般的な過ちの一つは、モデル能力のみに焦点を当てることです。より大きなモデルは確かに重要な要素ですが、現実世界の環境での信頼性は、AIが動作するシステムをどれだけよく理解しているかに依存します。もう一つの過ちは、ガバナンスとセキュリティ要件を考慮せずにAIツールをデプロイすることです。企業は、コードへのアクセス方法、モデルのデプロイ方法、出力の検証方法について明確なポリシーを必要としています。最後に、組織は、ワークフローを適応させたり、十分な文脈を提供したりすることなく、AIが即座に生産性向上をもたらすことを期待することがあります。成功したデプロイメントには通常、既存の開発プロセスにAIを統合し、組織のコードとアーキテクチャに接続することが含まれます。それらの要素が揃うとき、AIは単なる別のツールではなく、ソフトウェア開発の強力な加速装置となることができます。素晴らしいインタビューをありがとうございました。さらに詳しく知りたい読者は、Tabnineを訪れてください。


ロブ・メイは、NeuroMetricのCEO兼共同創業者であり、クラウドコンピューティング、AIスタートアップ、ベンチャーキャピタルにわたる長い実績を持つ経験豊富な起業家兼投資家です。現在はNeurometric AIを率いると同時に、HalfCourt Venturesのマネージングディレクターも務め、100社以上のテクノロジー企業に出資してきました。経営と投資の役割に加えて、AI Innovators Communityを共同設立し、以前にはBackupifyなどの企業を立ち上げて売却するなど、複数のテクノロジーサイクルにわたる深い経験を持っています。また、10年以上前から執筆を始め、新興のAIトレンド、投資戦略、市場の変化を分析するInvesting in AIニュースレターで広く知られており、これは急速に進化するAIの状況に関するより深い洞察のプラットフォームへと発展しています。NeuroMetric AIは、今日の人工知能における最も重要な課題の一つ、すなわち大規模推論のコストと効率性の解決に焦点を当てています。このプラットフォームはAIワークロードを動的に評価し、より小さな専門モデルと高度なテスト時計算技術の組み合わせなど、最適化戦略を適用することで、パフォーマンスを向上させながらコストを劇的に削減し、企業がAI導入からより良いROIを達成できるようにします。ワークロードを調整し、特定のタスクに合わせてモデル使用をカスタマイズすることで、NeuroMetricはAIシステムを大幅に高速かつ手頃な価格にすることを目指しており、組織が実験段階から本番環境へ移行する中で、AIインフラストラクチャ、効率性、実世界でのスケーラビリティの交差点に自らを位置づけています。あなたは複数のAI企業を創業・率い、HalfCourt Venturesを通じて100以上のスタートアップに投資し、以前にはBackupifyを立ち上げて売却しました。それらの経験は、今日のAIにおいて持続的な価値がどこで生み出されるかについてのあなたの見解をどのように形作ってきましたか?ほとんどの投資家と起業家は、短期的な堀(競争優位性)を追いかけていると思います。つまり、現在市場にはっきりと存在するギャップのように見えるが、既存企業によってすぐに埋められてしまうようなものです。AIはビジネス運営を一連の確率的な意思決定に集約させていくでしょう。投資すべき、あるいは構築すべき企業は、それらの確率について最も優れた全体的な推定を持つ企業です。それは時には垂直統合から、時には水平スケールから生まれるでしょう。市場によります。あなたのInvesting in AIニュースレターでは、モデルはますます交換可能になりつつあり、真の防御性はシステム層に移行すると論じています。実際のところ、真の「システムの堀」とはどのようなものですか?真のシステムの堀には3つの特性があります:使用とともに複利効果で強まること、顧客固有であること、より優れたモデルに置き換えることで複製できないことです。防御性は、私が「コンテキストのシステム」と呼ぶものの中に存在します。これは、基盤モデルを、企業をユニークにするすべてのもの(そのデータ、ワークフロー、ドメイン知識、意思決定の履歴)に接続する統合アーキテクチャです。このシステムは、どのモデルがどのタスクで成功するか、どこでレイテンシが重要か、どのような企業固有のパターンが現れるかなど、あらゆるインタラクションから信号を捕捉し、それを自己改善にフィードバックします。重要な洞察は、これが加算的なフライホイールではなく、乗算的なフライホイールを生み出すことです。過去の意思決定の検索可能なログを単に蓄積しているのではありません。ルーティングを改善する専門モデルを生み出すトレーニング信号を生成し、それがより価値のあるデータを捕捉するのです。堀は推論のたびに広がります。実際には、システムの堀は、切り替えコストがAPIに関するものではなく、ビジネスロジックの書き直しに関するような、深いワークフロー統合のように見えます。それは、特定の企業内での数ヶ月にわたる本番使用を通じて生成されたため、競合他社が複製できない独自のコンテキストのように見えます。そしてそれは、システムがその顧客にとって汎用モデルプロバイダーが決してできない方法で、意味のある改善を続ける継続的特殊化ループのように見えます。モデルの時代は、私たちに生の能力を与えました。システムの時代は、その能力が実世界の価値になる時代です。単一のフロンティアモデルに依存する代わりに、ルーティングロジック、エスカレーションパス、継続的評価を含むマルチモデル戦略を構築するにあたり、企業はどのように考えるべきですか?企業がまず内面化する必要があるのは、「単に最良のモデルを使う」というのは、スケールでは負ける戦略だということです。それは、すべてのクエリを最も経験豊富なエンジニアに通すのと同じです。高価で、遅く、そして直感に反して、しばしば最良の結果を生み出しません。これは私が「推論のギザギザのフロンティア」と呼ぶものにつながります:モデルのパフォーマンスはタスク固有で予測不可能です。フロンティアモデルは、特定のタスクでより小さな専門モデルに常に負けています。私たちは、複合マルチモデルシステムがCRMタスクで72.7%の精度を達成したのに対し、フロンティアモデルは58%だった例を見ています。パフォーマンスの表面は、パラメータ数ときれいに相関しません。ですから、本当の問いは「どのモデルが最良か?」ではなく、「この特定のサブタスクに最適なモデルはどれか?」です。その考え方の転換が、真のマルチモデル戦略の基礎です。企業には3つの層で考えるように伝えたいと思います。ルーティングロジックは、推論の状況をマッピングすることから始まります。システム内でLLM呼び出しが行われるすべてのポイントをカタログ化し、それぞれについて、タスクタイプ、入出力の複雑さ、レイテンシ要件、精度の閾値、呼び出し量を文書化します。それによりヒートマップが得られます。すぐに、ボリュームの大部分が、分類、エンティティ抽出、インテントルーティング、テンプレート生成など、高頻度で範囲の狭い作業であることに気づくでしょう。そこでは、ファインチューニングされた小さなモデルが、フロンティアモデルに匹敵するか凌駕するパフォーマンスを、ほんの一部のコストで発揮します。複雑な推論を真に必要とするタスクのために、高価なフロンティア呼び出しを取っておきましょう。1タスクあたり50回の呼び出しを行うエージェントが、そのすべてにGPT-4を必要とするわけではありません。エスカレーションパスは、単なるフェイルオーバーではなく、インテリジェントなフォールバックを構築することです。システムは、より小さなモデルが低信頼度の結果を返していることを認識し、より能力の高いモデルへ、あるいは全く異なるモデルと戦略の組み合わせへエスカレートする必要があります。ここでテスト時計算戦略が重要になります。時には正しい答えは、より大きなモデルではなく、同じモデルに連鎖思考、ビームサーチ、またはbest-of-Nサンプリングを組み合わせることです。最適な構成は、モデルによってだけでなく、それに組み合わせる思考アルゴリズムによっても変化します。継続的評価は、ほとんどの企業が完全に見落としている部分であり、真の防御性が現れるところです。モデル選択は一度きりの決定ではなく、継続的な最適化問題です。新しいモデルは絶えずリリースされ、ユースケースは進化し、パフォーマンスは静かに失敗する形で劣化します。顧客サービスボットが40%悪い回答をしたことを、そのクエリタイプに間違ったモデルを使ったからだと知ることはできません。ただ、3ヶ月後に解約が増えるのを見るだけです。モデルとタスクの組み合わせで実際に何が機能するかを継続的に測定し、ベンチマークではなく実際のパフォーマンスデータに基づいてルーティングを調整するインフラストラクチャが必要です。ほとんどの企業がこのシフトをまだ行っていない理由は、フロンティアモデルを選んでも誰も解雇されないからです。それはAIにおける「IBMを買っても誰も解雇されない」という状況です。ベンダーエコシステムは、マージンが高いフロンティアを推進します。そして、実際にマルチモデルアーキテクチャを実行するために必要なオーケストレーションインフラストラクチャ(ルーティングロジック、フォールバックメカニズム、モデル管理、可観測性)は、ほとんどの企業には単に存在しません。彼らは、マルチモデルへの切り替えコストと不確実性が、フロンティア推論への継続的な過剰支出よりも高いと感じられる局所最適解に留まっているのです。企業がAIパイロットから本番グレードのシステムに移行する際に、あなたが見る最大の過ちは何ですか?彼らは、自分の選択が静的で長続きするものだと想定しています。現実には、AIの技術スタックのあらゆる層が急速に変化しています。企業は、選択肢と柔軟性を提供する決定を下す必要があります。どのようなタイプのワークフローで、より小さなタスク特化型モデルが大規模なフロンティアモデルを上回るのを見てきましたか?また、それはなぜ戦略的に重要ですか?基本的な会計処理、テキスト要約、様々な文書からのエンティティ抽出など、ほぼすべての日常的な業務タスクでそれを目にしています。何百もの業務タスクについてSLMを検討しましたが、問題が正しく構造化されていれば、ほぼ常に勝ちます。新しいユースケースにAIを導入する際の限界費用の低下について書いています。それは企業におけるAI導入の長期的な経済性をどのように変えますか?バブル論は、AIの収益には新しいモデルへの比例的なR&D投資が必要だと想定しています。そうではありません。モデルは構築済みです。インフラは存在します。追加される各ユースケースは、プロンプト、データ接続、おそらく軽微なファインチューニングであり、別の1億ドルのトレーニング実行ではありません。プラットフォームが成熟するにつれて、限界費用曲線は下方に曲がります。これは、新しい1マイルの線路を敷設するのに費用がかかった鉄道や通信とは正反対です。AIでは、エンジンを構築するのに費用がかかりました。エンジンに接続することは安価で、さらに安くなっています。推論コストは2年間で約1,000倍低下しました。企業にとっての問いは、AIが利益を生むかどうかではありません。収益曲線が費用曲線を圧倒する前に、同じインフラ上にどれだけ多くのユースケースを積み重ねられるかです。技術チームは、いつモデルを切り替えるか、ファインチューニングするか、専門的な小さなタスクモデルを構築するかを判断するために、どのようなシグナルを使用すべきですか?シグナルは必ずしも技術的なものではありません。むしろ、パフォーマンスや経済性に基づくものです。例えば、モデルの切り替え、モデルのファインチューニング、カスタムSLMの構築は、すべて機能する可能性があります。決定は、レイテンシとコストのどちらを最適化するか、タスクがどのくらいの頻度で実行されるか、各ソリューションの構築とデプロイにどれくらい時間がかかるかによって異なります。ガードレール、モニタリング、ガバナンスを、ボトルネックになるのではなく、実際に使用量に合わせて拡張するように設計するにはどうすればよいですか?ほとんどの企業が犯す過ちは、ガバナンスをチェックポイントとして扱うことです。つまり、AIワークフローの上にボルトで固定された手動レビュー層としてです。それはスケールしません。使用量が増加した瞬間にボトルネックになります。ガバナンスは、オーケストレーション層自体に組み込まれなければなりません。ルーティングインフラストラクチャがすでにすべての推論呼び出し(どのモデル、どのタスク、どの信頼度レベル)を評価している場合、ガードレールを追加することは、新たなシステムではなく限界費用です。どのモデルがクエリを処理するかを決定するのと同じ層が、ポリシーを強制できます:呼び出し前のPIIフィルタリング、呼び出し後の出力検証、自動的に捕捉される監査証跡、部門別のコスト配分。重要な洞察は、企業はAIシステム内部で失敗するのではなく、システム間の受け渡し、エスカレーション、例外で失敗するということです。スケールするガバナンスとは、すべてのAIアクションを、実行の障害ではなく、その副産物として安全で監査可能かつ繰り返し可能にするコントロールプレーンのようなものです。今日のAIの状況を、メインフレームからPCへの移行期に例えています。その分散化は、システム層で構築するスタートアップにとって何を意味しますか?私たちは今、AIのメインフレーム段階にいます。OpenAI、Anthropic、Googleからの大規模で集中化されたフロンティアモデルは、取り組みを集中させ、AIが何をできるかを示すために必要でした。その段階は機能しました。能力はよく理解されています。しかし、コンピューティングが集中化されたままではなかったように、AIもそうはなりません。私たちはPC時代に入りつつあります。つまり、より小さな専門モデルが仕事の近くで実行される分散型エコシステムです。支出データはすでにこれを反映しています。企業のAI投資は現在、インフラとアプリケーションでほぼ均等に分かれており、アプリケーションのシェアの方がより速く成長しています。拡大は垂直方向(より大きなモデルへ)ではなく、HR、法務、マーケティング、運用、財務など横方向に広がっています。システム層で構築するスタートアップにとって、これは一世代に一度の機会です。集中化された世界では、モデルプロバイダーが価値の大部分を獲得します。分散化された世界では、価値は、異種モデルエコシステムを大規模に導入するという運用上の課題、つまりオーケストレーション、ルーティング、評価、特殊化を解決する企業に移行します。私の予測では、AI推論の約25%はフロンティアモデルを必要とするでしょう。それらの企業は問題ありません。それは数兆ドルのTAMです。しかし、75%はオープンソースと小さな専門タスクモデルで実行されるでしょう。私たちは、特定のCRMタスクでフロンティアモデルを上回る40億パラメータのモデルをトレーニングしましたが、実行コストはほぼ無料に近いほど安価です。それが未来です。そしてそれを管理するには、全く新しいシステム層が必要です。この類推は最後まで成り立ちます:メインフレームベンダーはうまくいきましたが、真の富の創造はPCエコシステムで起こりました。AIでも同じことが真実となるでしょう。5年後を見据えて、フロンティ


Conntourがステルス状態から脱し、General Catalyst、Y Combinator、SV Angel、Liquid 2 Venturesなどの投資家が支援する700万ドルのシードラウンドを完了しました。同社は、セキュリティチームがウェブを検索するのと同じくらい簡単に映像記録を検索できるようにするという、シンプルながら野心的なアイデアを中心に自社を位置づけています。このプラットフォームは、カメラネットワーク全体での自然言語クエリを導入し、ユーザーが事前定義されたフィルターやカテゴリに頼るのではなく、探しているものを記述できるようにします。受動的なカメラから検索可能なインテリジェンスへ従来の映像監視システムは、厳格なルールに基づいて構築されています。オペレーターは、検出する対象(特定の物体、動き、行動)を事前に定義する必要があります。このアプローチでは、予期しない事象が発生した際に、見落としが発生したり、何時間にも及ぶ手動でのレビューが必要になったりすることがよくあります。Conntourは、そのモデルをより柔軟なインターフェースに置き換えます。事前にアラートを設定する代わりに、「放置されたバッグを残していく人物」や「昨日のローディングドック付近のバン」などのクエリを入力すると、システムが関連する映像を検索します。これは、監視から問い合わせへの転換を示しています。映像はもはや「見る」ものではなく、必要に応じて探索し、問い合わせることができるものになります。現実世界の複雑さに対応して構築監視における中核的な課題の一つは、現実世界の状況がきれいなカテゴリに収まることがほとんどないことです。不審な行動は、単一の検出可能な物体ではなく、一連の行動を含む文脈的なものであることが多いのです。Conntourのシステムは、この曖昧さを処理できるように設計されています。ライブフィードと過去の映像記録の両方で動作し、リアルタイムアラートと迅速な事後調査を可能にします。このプラットフォームは既存のカメラインフラでも動作し、データが安全なネットワーク外に出ることができない環境にとって重要な、完全なオンプレミス展開も可能です。インターフェースは使いやすさを考慮して構築されており、非技術的なオペレーターでも、検出ルールを設定したり、基盤となるモデルを理解したりすることなく、複雑なシステムと対話できます。ハイリスク環境での早期導入同社は既にシンガポールの国土安全保障作戦に導入されており、正確性と速度が重要な環境での早期採用が示唆されています。創業チームのインテリジェンスとハイテクシステムに関するバックグラウンドは、特に運用効率に焦点を当てた製品設計に影響を与えているようです。このプラットフォームは、単一のオペレーターが数千台のカメラを監視しながら、事件調査に必要な時間を劇的に削減できると主張しています。従来の映像分析システムと比較して、このプラットフォームは以下のような大幅な運用改善を報告しています: 手動映像レビュー時間の最大90%削減 見逃し事象の最大80%削減 誤報の最大70%削減 1人のオペレーターによる数千台のカメラ監視の実現 これらの向上は、ルールベースのワークフローを、文脈や意図をより動的に解釈するシステムに置き換えることによってもたらされます。この技術が導く未来Conntourが構築しているものは、映像データの解釈方法におけるより広範な転換、つまり単なる高速な分析ではなく、根本的に異なるインタラクションモデルへの転換を示しています。事前定義された検出ルールを中心にシステムを設計するのではなく、自然言語で表現された意図を理解することに重点が移行します。この転換は、セキュリティ以外にも影響を及ぼします。システムが「誰かが物体を置き去りにした」や「入口付近の異常な動き」などのオープンエンドなクエリを確実に解釈できるならば、個々の物体だけでなく、文脈、関係性、一連の流れが重要となる、意味論的な映像理解への移行を示唆しています。大規模に展開されれば、これは組織が映像アーカイブをどのように利用するかを再定義する可能性があります。映像記録は、受動的に保存されるものから、動的にクエリ可能なインデックス付きデータセットになります。交通ハブ、物流ネットワーク、公共インフラなどの環境では、これにより事件の再構築、監査、そして潜在的に予測の方法が変わる可能性があります。内部構造:検出から理解へ従来のシステムは、人物や車両などの特定のカテゴリを認識するように訓練された物体検出モデルに依存しています。制御されたシナリオでは効果的ですが、これらのモデルは、クエリが事前定義されたラベルの範囲外になると苦戦します。Conntourのアプローチは、物体だけでなく属性、関係性、時間経過に伴う変化も捉える、埋め込み(embeddings)と呼ばれるより豊富な視覚的表現を構築することを含む可能性が高いです。自然言語クエリは、その後、同じ表現空間にマッピングされ、システムが意図と視覚データを照合できるようにします。もう一つの重要な課題は時間的推論(temporal reasoning)です。多くの現実世界のクエリは、単一のフレームではなく、一連の事象を含みます。これをサポートするには、時間を超えてエンティティを追跡し、物体を単独で識別するだけでなく、相互作用を理解する必要があります。制約とトレードオフ潜在的可能性にもかかわらず、この種のシステムは新たな課題を導入します。高度なモデルで大量の映像を処理することは計算集約的であり、特にリソースが制約されるオンプレミス展開では顕著です。正確性ももう一つの考慮事項です。オープンエンドなクエリは曖昧さを導入し、システムは誤検知や見逃しを避けるために、柔軟性と精度のバランスを取らなければなりません。ルールベースのシステムとは異なり、自然言語駆動型システムは、モデルがエッジケースにどれだけうまく一般化するかに大きく依存します。ガバナンス上の影響もあります。非常に特定の属性や行動を検索する能力は、特に敏感な環境や公共環境において、監視、アクセス制御、適切な使用に関する疑問を提起します。Conntourのローンチは、厳格でルールベースの監視から、意図と文脈をリアルタイムで解釈できるシステムへの転換を浮き彫りにしています。このモデルが信頼性を証明すれば、組織が映像データと対話する方法を再定義する可能性があります。つまり、受動的な監視から、動的でクエリ駆動型のインテリジェンスへの移行です。


Mark Nicholsonは、Deloitteの米国サイバー近代化リーダーであり、サイバーセキュリティ、人工知能、企業リスクの交差点において20年以上の経験を持つDeloitteのプリンシパルです。彼は、サイバーAIイニシアチブとDeloitteのサイバー実務における商業戦略を率い、大規模組織がセキュリティフレームワークを近代化し、サイバー投資を進化するリスク環境に適合させることを支援しています。Deloitte以前には、脅威インテリジェンスと悪意のあるイベント監視に焦点を当てた情報セキュリティコンサルティング会社であるVigilant, Inc.を共同設立し、最高執行責任者(COO)を務めました。複数のテクノロジー企業における営業および事業開発の初期キャリアは、サイバーセキュリティの技術的および商業的側面の両方において強固な基盤を提供しました。Deloitteは、世界最大級のプロフェッショナルサービスファームの一つであり、ほぼすべての業界にわたる組織に監査、コンサルティング、税務、アドバイザリーサービスを提供しています。そのサイバーセキュリティ実務は、企業がますます複雑化する脅威環境をナビゲートするとともに、人工知能などのテクノロジーを通じてデジタルトランスフォーメーションを可能にすることを重点としています。同社は、サイバー戦略、レジリエンス、リスク管理、企業セキュリティにわたるサービスを提供し、サイバーセキュリティを保護機能であると同時に、イノベーションと成長の戦略的推進要因として位置付けています。これは、2025年に公開された以前のインタビューに続くものです。あなたは、Vigilantの共同設立や初期のセキュリティ情報イベント管理(SIEM)および脅威インテリジェンス機能の市場投入を含む、現代的な脅威監視の初期の頃からサイバーセキュリティに関わってきました。それらの初期の監視システムから今日のAI駆動型サイバー防御プラットフォームへの進化は、組織の脅威検知と対応の方法をどのように変えましたか?SIEMの初期に監視プラットフォームを構築し始めた頃、中核的な課題はデータを一箇所に集め、それを理解することでした。アナリストが毎朝ファイアウォールログを印刷し、手動で確認して異常を見つけようとしていた時代を覚えています。SIEMが成熟しても、スケールの問題がありました。人間の速度は、検出される膨大な数のイベントには敵いませんでした。自動化が使用されていたにもかかわらず、サイバー防御側には依然としてデータ相関と分析の問題があり、監視の失敗に対応して新しいルールを起草するために常に労力を費やしていました。期待の一つは、AIがその力学を根本的に変えることです。レベル1のセキュリティ運用を自動化するエージェント機能を展開することを超えて、AIは、監視アルゴリズムの動的な機械調整を活用することで、検知と対応を「事後」から「発生中」に近づけることを約束します。場合によっては、サイバー組織はAIに修復アクションを開始させることにも慣れていくでしょう。しかし、難しい部分はなくなるのではなく、移行します。システムがより自律的かつ複雑になるにつれて、信頼性と可観測性が戦場となります:システムは何をしているのか、なぜそれをしているのか、そして操作されていないことをどうやって知るのか?AIによる機会は膨大ですが、環境が機械速度で動作する場合には、その賭け金も高くなります。あなたは、AIが敵対者に偵察の自動化、エクスプロイトの生成、攻撃サイクルの加速を可能にしていると指摘しています。実際的な観点から、AIは脆弱性の発見から悪用までの時間をどれだけ圧縮しましたか?歴史的に、脆弱性の発見と悪用の間にはしばしば時間的余裕がありました。確かに緊急性はありましたが、一般的には、ゼロデイ攻撃に遭わない限り、攻撃者が大規模にエクスプロイトを展開する前に、脅威を理解し、パッチを適用し、緩和策を講じる時間がありました。AIはその余裕をほぼ消し去りました。敵対者は偵察を自動化し、継続的に露出をスキャンし、AI対応ツールを使用してエクスプロイト開発とターゲティングの一部を高速化できます。多くの場合、かつては数週間かかっていたことが、今では数時間に圧縮され、高度に自動化されたシナリオでは、ほとんどのセキュリティプログラムが対応できるよりも速くなり得ます。結論は単純です:セキュリティチームは、ペースを維持したいのであれば、防御側での自動化とAI、そして強力なコントロールを組み合わせる必要があります。セキュリティチームは、「人間がループ内」から「人間がループ上」の監視モデルへと移行しつつあります。その移行は、現代的なセキュリティオペレーションセンター(SOC)内で運用的にはどのように見え、AIがより自律的なタスクを引き受けるにつれて、組織はアナリストの役割をどのように再考すべきですか?従来のSOCでは、アナリストがすべての意思決定ポイントの中心にいます。アラートが入ると、アナリストがそれらをトリアージし、調査し、どのようなアクションを取るべきかを判断します。そのアプローチは、アラートの量と攻撃のペースが管理可能であった時代には機能しました。しかし、今日の環境では、活動の規模が単純に大きすぎて、人間があらゆる決定の門番として行動することはできません。人間がループ上への移行は、AIシステムがアナリストが以前に扱っていたアラートのトリアージ、コンテキストの収集、データの相関付け、特定の修復アクションの実行などの日常的なタスクの多くを実行できることを意味します。人間の役割は、手動での実行ではなく、監督と検証のものになります。運用的には、それはアナリストの時間を「アラート処理」から、脅威ハンティング、検知エンジニアリング、敵対者シミュレーション、防御アーキテクチャの改善などのより付加価値の高い作業へと移行させます。人間は依然として不可欠ですが、その役割は、セキュリティデータの主要なプロセッサとして行動することではなく、監督、判断、戦略に向けて進化します。「設計による安全なAI(Secure AI by Design)」について多く耳にします。あなたの観点から、なぜその概念はモデルの安全性を超えて、アイデンティティシステム、権限アーキテクチャ、オーケストレーションレイヤーにまで拡張する必要があるのですか?安全なAIに関する多くの議論は、トレーニングデータの保護、モデル汚染の防止、プロンプトインジェクション攻撃への防御など、モデル自体に重点を置いています。それらは確かに現実の問題ですが、リスクの一部に過ぎません。実際には、AIシステムははるかに大規模なデジタルエコシステムの一部として動作します。それらはデータにアクセスし、APIと対話し、ワークフローをトリガーし、ますますある程度の自律性を持って行動できるエージェントを通じて動作します。それが起こるとき、アイデンティティと権限がコントロールプレーンになります。AIエージェントは、事実上、企業内の新しいデジタルアイデンティティです。 それらのアイデンティティが適切に管理されない場合、重大なリスクをもたらす可能性があります。したがって、設計による安全なAIは、アイデンティティガバナンス、アクセス制御、オーケストレーションレイヤー、およびそれらのエージェントが何をしているかを追跡する監視システムにまで拡張する必要があります。組織は、AIエージェントを、定義された権限、監査、監督を持つ人間のユーザーと同様に扱う必要があります。そうしないと、攻撃対象領域は急速に拡大します。多くの企業は、人間の速度のために設計されたレガシーセキュリティワークフローの上にAIツールを重ねています。サイバー防御においてAIを実際に活用するために、組織が行う必要がある最大のアーキテクチャ上の変更は何ですか?一般的なパターンは、人間主導の運用のために設計されたレガシープロセスとワークフローにAIをボルトオンすることです。これは悪い最初のアプローチではありません。特に、コンピュータビジョンが現実のものとなった今ではそうです。例えば、Deloitteは、既存の目的特化型ソフトウェアソリューション(廃止することが難しいもの)を廃棄することなく、アイデンティティガバナンスと管理プロセスにおいて人間に取って代わるように訓練できるエージェントを作成しました。これは劇的なコスト削減をもたらすことができます。しかし、将来の利点は、企業がセキュリティワークフローをエンドツーエンドで再考し始める可能性が高いことです:セキュリティツールが高品質で構造化されたテレメトリに確実にアクセスできるようにデータ基盤を近代化する。検知、対応、アイデンティティ機能が連携したシステムとして動作するようにオーケストレーションを構築し、断絶したツールにしない。アイデンティティは、最も重要なコントロールの一つとして存続します。より多くの自動化とAIエージェントが導入されるにつれて、非人間アイデンティティの数が大幅に増加します。それらのアイデンティティを効果的に管理することは、コントロールを維持するために不可欠になります。AIネイティブなセキュリティは、最終的には、より優れたデータ、より優れたオーケストレーション、そして人間と機械の両方のアクターを考慮したガバナンスの組み合わせです。AIシステムがより自律的になるにつれて、攻撃対象領域はエージェントオーケストレーション、APIチェーン、自動化された意思決定パイプラインなどの領域に拡大します。これらの新興する対象領域の中で、最も懸念されるのはどれですか?もし一つだけ即座に注意を払うべき領域を選ぶとすれば、それはエージェント駆動型システム内のアイデンティティとデータアクセス権限です。組織がより多くのエージェント型AIを導入するにつれて、企業内で動作する自律的なアクターの増加する集団を作り出しています。それらのエージェントは、非常に強力なデータ、API、ワークフローにアクセスできる可能性があり、権限が厳密に設計、監視、監査されていない場合、攻撃者にとって魅力的な経路となります。すべてのエージェントを新しい従業員のように扱うことが重要です:名前を付け、範囲を定め、監視し、必要に応じて素早く切断できるようにします。APIチェーンと自動化された意思決定パイプラインもリスクをもたらしますが、アイデンティティガバナンスはしばしば基礎的なコントロールです。エージェントが誰であるか、何に触れることができるか、何をしたかを明確に答えられないのであれば、それを本当にコントロールしているとは言えません。取締役会の観点から、経営幹部や取締役は現在、AI駆動型のサイバーリスクについてどのように考えており、技術的現実と取締役会レベルの理解の間で最大のギャップはどこにあるとお考えですか?取締役会は、AIが膨大な機会をもたらす一方で、重要なリスクをもたらす可能性もあることをますます認識しています。ほとんどの取締役は、AIがビジネストランスフォーメーションを形作ることを理解しており、ガバナンス、セキュリティ、レジリエンスについて質問し始めています。ギャップが現れるのは、しばしば速度と複雑さにおいてです。多くの取締役会の議論は依然として従来のサイバーフレームワークに依存しがちです(それらは重要ですが)、AI駆動型の脅威がどれだけ速く進化し拡大するかを必ずしも反映していません。もう一つの断絶は、「私たちのAIは安全ですか?」という質問が単一の質問のように聞こえるが、その答えはデータガバナンス、モデルの完全性、アイデンティティ管理、複数システムにわたるオーケストレーションにまたがっていることです。ギャップを埋めつつある取締役会は、それらの動く部分を可視化しテスト可能にするコントロールベースの報告を推進し、監督がテクノロジーに追いつくように取締役の理解度を高めるために時間を投資しています。AIは戦場の両側でますます使用されています。私たちは永続的なAI対AIのサイバーセキュリティ軍拡競争に入っているのでしょうか?もしそうなら、防御側が持つ、攻撃側が再現するのに苦労する可能性のある利点は何ですか? 私たちは明らかに、攻撃側と防御側の両方によってAIが使用されている時代にいます。敵対者はすでに、偵察の加速、脆弱性の特定、攻撃ライフサイクルの一部の自動化にAIを適用しています。しかし、防御側は、それらを使用することを選択すれば、依然として真の利点を持っています。防御側は自らの環境を可視化でき、内部テレメトリにアクセスでき、攻撃者がナビゲートしなければならない階層化されたアーキテクチャを構築する能力を持っています。AIは、防御側がネットワーク、エンドポイント、アイデンティティにわたる膨大な量のデータを分析するのを助け、異常な行動をはるかに早期に検知する可能性を与えます。問題は導入です。防御側が手動ワークフローに留まり続け、攻撃側が自動化するならば、その非対称性は残酷なものになります。軍拡競争は現実であり、勝者はAIを強力なガバナンスとともに展開する側であり、パイロットのみを行う側ではありません。大企業への助言業務において、組織がサイバーセキュリティ戦略にAIを統合しようとする際に最もよくある間違いは何ですか?私たちが最もよく目にする間違いの一つは、AIをアーキテクチャのシフトではなく、スタンドアロンのツールとして扱うことです。チームは、影響を持続させるために必要なデータ基盤、ガバナンスモデル、運用プロセスをアップグレードすることなく、孤立した実験を実行し、結果が頭打ちになります。もう一つの間違いは、新しいリスク(新しいアイデンティティ、新しいデータフロー、攻撃対象領域を拡大する自動化された意思決定経路)を完全に考慮せずにAI機能を展開することです。それらが適切なコントロールなしにボルトオンされた場合、AIはレジリエンスではなく脆弱性を追加する可能性があります。最後に、多くの組織は、従業員の関与の重要性を過小評価しています。毎日セキュリティ運用を実行する実務者は、摩擦がどこにあるか、「良い」状態がどのようなものかを知っています。最も強力な変革は、テクノロジーが彼らの判断を増幅するように、これらのチームを早期に関与させます。今後3年から5年先を見据えて、AIネイティブなセキュリティオペレーションセンターは、今日のSOC環境と比べてどのように見えるでしょうか?そうですね、おそらく多くの点で予測できないほど大きく異なる見た目になるでしょう。将来のSOCは、人間とデジタルのハイブリッドな労働力として運営される可能性が高いです。AIシステムは、データ処理、相関付け、初期対応活動の多くを処理します。エージェントシステムは、脆弱性管理、アイデンティティガバナンス、インシデント


Rocketlaneは、6,000万ドルのシリーズC資金調達を、Insight Partnersをリード投資家として確保しました。これは、同社がエンタープライズソフトウェアにおける大きな変革の中心に自らを位置づける中での出来事です。その変革とは、AIのパイロットプロジェクトから、実際の測定可能な成果への移行です。今回の調達により、総調達額は1億500万ドルに達し、これは同社が収益を倍増以上させ、エンタープライズ分野での存在感を大幅に拡大した1年に続くものです。このタイミングは注目に値します。業界を超えて、企業はAIの導入自体が難しいのではなく、それを運用化することが難しいと気付き始めています。その責任は、ソフトウェアを具体的なビジネス成果に変える任務を負ったプロフェッショナルサービスチームにますます委ねられています。エンタープライズAIにおける「成果の時代」の台頭長年にわたり、企業はAIツールに多額の投資を行ってきましたが、多くの導入は概念実証段階で停滞していました。今、台頭しつつあるのは、Rocketlaneが「成果の時代」と表現するものであり、AIはその可能性ではなく、完了した作業とROIによって評価されるようになります。この変革は、計画から実行を結びつけるインフラストラクチャへの需要を駆り立てています。プロフェッショナルサービスチーム——導入スペシャリスト、コンサルタント、前線配置エンジニア——は、この新しいモデルにおける重要なオペレーターとなりつつあります。この機会の規模は膨大です。世界のITサービス支出は1.9兆ドルに近づくと予測されており、組織が複雑なシステムを導入・管理するためにサービスチームにどれほど依存しているかを反映しています。サービスチームは支援機能であることから、価値創造の核心的な推進力へと変わりつつあります。プロジェクト追跡からAI駆動の実行へRocketlaneの戦略の中心にあるのは、新たにローンチされたエージェント型実行プラットフォーム「Nitro」です。計画と報告に焦点を当てる従来のプロフェッショナルサービスオートメーション(PSA)ツールとは異なり、Nitroは積極的に作業を実行するように設計されています。このプラットフォームはAIエージェントを納品ワークフローに直接組み込み、システム移行、設定、ドキュメンテーション、テスト、検証などのタスクを自動化できるようにします。これは、従来のツールからの意味のある転換を表しています。事後的に進捗を追跡する代わりに、Nitroは活動を継続的に監視し、早期にリスクを特定し、リアルタイムでリソースを調整します。また、作業範囲書の生成から本番移行プロセスの実行まで、納品ライフサイクルの大部分を自動化し、タイムラインを効果的に圧縮し、手動による間接費を削減します。初期の兆候は、このアプローチがサービスチームの運営方法を大きく変え、一貫性と予測可能性を高めながら納品作業量を削減する可能性があることを示唆しています。なぜPSAはAIファーストの世界に向けて再構築されているのかRocketlaneのポジショニングを理解するには、より広範なPSAカテゴリーを見ることが役立ちます。伝統的に、PSAプラットフォームは調整レイヤーとして機能してきました——プロジェクト管理、リソース計画、請求、クライアントコラボレーションを結びつけるものです。それらは、「予定通りか?利益は出ているか?」といった質問に答えるように設計されていました。しかし、それらが実際の作業自体に触れることはほとんどありませんでした。そのギャップはますます問題となっています。サービス組織が拡大するにつれ、実際の納品作業の多くは、依然として分断されたシステムにまたがる手動プロセスに依存しています。これは非効率、遅延、マージンと顧客成果の両方に影響を与え得る見逃されたシグナルを生み出します。Rocketlaneのアプローチは、PSAを追跡レイヤーではなく実行レイヤーとして再定義します。AIエージェントをワークフローに直接組み込むことで、このプラットフォームは計画と納品の間の断絶を解消することを目指しています。サービス納品ワークフローを中心に構築されたプラットフォームRocketlaneのより広範なプラットフォームは、プロジェクト管理、リソース計画、財務追跡、顧客コラボレーションを、サービス組織向けに特別に設計された統合システムにまとめています。これを差別化しているのは、AIがこれらのワークフローにどれほど深く統合されているかです。Nitroは、顧客との会話、プロジェクトデータ、運用上のシグナルを継続的に分析し、リスクがエスカレートする前に表面化させます。また、ドキュメントの自動生成、納品プロセスの標準化、プロジェクト間の一貫性の確保も行えます。実際的には、これはツールの調整に費やす時間を減らし、成果の納品に集中する時間を増やすことを意味します——これは歴史的に、分断されたシステムを横断して運営するサービスチームにとって困難なことでした。大局的な視点:ボトルネックとして、そして機会としてのサービスRocketlaneの成長は、エンタープライズソフトウェアにおけるより広範な構造的変化を反映しています。企業がAIからデータプラットフォームまで、ますます複雑なテクノロジーを採用するにつれ、ボトルネックはもはやツールへのアクセスではなく、それらを効果的に導入し運用化する能力となっています。ここに、サービス主導の成長が勢いを増している理由があります。製品主導の採用のみに依存する代わりに、企業はオンボーディング、統合、長期的な価値実現を推進できるサービスチームに投資しています。Rocketlaneのようなプラットフォームは、この新しいモデルのためのオペレーティングシステムとして台頭しつつあります。AI駆動のサービス納品の今後その影響はプロフェッショナルサービスを超えて広がります。もしAIエージェントが複雑なワークフロー内で繰り返し可能なタスクを確実に実行できるなら、エンタープライズソフトウェアの性質は変わり始めます。かつては大規模なチームを必要とした設定、維持、運用が、ますます自律的になる可能性があります。この変化には2つの主要な結果があります:第一に、サービスの経済性を変えます。チームは人員を増やさずにアウトプットを拡大でき、納品品質を維持しながらマージンを改善できます。第二に、企業がAI投資を評価する方法を再形成します。成功は、機能ではなく成果——価値がどれだけ迅速に提供されるか、リスクがどのように軽減されるか、運用がどれだけ効率的に実行されるか——によってより多く測定されるようになります。Rocketlaneの最新の資金調達ラウンドは、この移行がすでに進行中であるという投資家の自信を示しています。次の段階では、エージェント型実行プラットフォームがその約束を大規模に実現できるかどうか、そしてそれらがAIファーストの世界におけるエンタープライズ運用の新しい基盤となるかどうかが試されるでしょう。


Kraneがステルスモードから脱し、900万ドルのシードラウンドを完了した。これにより、建設業界で最も根強い課題の一つであるサプライチェーンの混乱の中心に自らを位置づけた。この資金調達は、Link VenturesとGlasswing Venturesが共同で主導し、データセンターからエネルギーシステムに至る大規模プロジェクトが、より迅速かつ予測可能な納入を迫られる中、AI駆動のインフラツールに対する投資家の信頼が高まっていることを示している。Kraneが取り組んでいる中核的な問題は、13兆ドル規模の建設業界を数十年にわたり静かに悩ませてきたものだ。プロジェクトの遅延は、単一の大きな失敗によるものではなく、調達、調整、納品における数百もの小さな支障によって引き起こされることが多い。これらの非効率性は、スプレッドシート、メール、そして断片化されたソフトウェアシステムにまたがるワークフローによって増幅されている。断片化を単一の信頼できる情報源へと変革Kraneのプラットフォームは、この断片化を、調達、ロジスティクス、プロジェクトデータをリアルタイムで接続する、中央集権的なAI駆動システムに置き換えるように設計されている。手動による調整に頼る代わりに、チームは資材、タイムライン、サプライヤー活動について統一されたビューを得る。同社プラットフォームの詳細によると、Kraneは建設サプライチェーンの「コントロールタワー」として機能し、提出物、納品、調達ワークフローを、リアルタイムの可視性と予測的洞察を備えた単一の環境に統合する。この転換は重要だ。今日の建設チームは、平均して10以上もの断片化されたシステムをまたいで資材を管理することが多く、遅延、手戻り、そしてコストのかかる誤った伝達を生み出している。これらのワークフローを統合することで、Kraneはタイムラインや予算に影響を与える前にリスクを軽減することを目指している。建設運用クルーとして活躍するAIエージェントKraneの特徴は、デジタル運用チームのように振る舞う専門的なAIエージェントの活用にある。これらのエージェントは、通常、毎週何時間もの手作業を要する反復的で調整の多いタスクを引き継ぐように設計されている。図面の解析や調達ログの生成から、納品の追跡、サプライヤーへのフォローアップまで、このシステムはプロジェクトを遅らせる絶え間ないやり取りを自動化する。このプラットフォームのより広範なAIエージェントエコシステムは、資材のライフサイクル全体にわたるリアルタイム追跡、予測アラート、ワークフロー自動化を提供するために構築されている。このアプローチは、業界全体で起きているより広範な変化を反映している。AIはもはや分析のための単なるツールではなく、運用ワークフローにおける能動的な参加者となっているのだ。タイミングが重要な理由:データセンターとインフラ需要Kraneのタイミングは偶然ではない。AI、クラウドコンピューティング、デジタルインフラによって推進されるデータセンター建設の急増は、サプライチェーン効率に関する新たなレベルの緊急性を生み出した。大規模プロジェクトは遅延に対してますます敏感になっている。たった一つの納品遅れが、マイルストーンの未達、労働力の遊休、そして増大するコストへと連鎖する可能性がある。大規模な建設プロジェクトでは、遅延によって1日あたり数百万ドルのコストがかかる場合もある。Kraneはすでに、医療、教育、データセンターなどの分野を含む、総額数十億ドル規模のプロジェクトで導入されている。これらの環境は特にサプライチェーンの混乱に対して脆弱であり、機器のリードタイムと調整の複雑さが極めて重要となる。既存ツールを置き換えるのではなく、その上に構築Kraneは、企業にテックスタックの全面的な見直しを強いるのではなく、AutodeskやProcoreなどの広く使用されている建設プラットフォームと統合する。これにより、チームは既存のワークフローを完全に置き換えるのではなく、その上にAI駆動の調整機能を重ねることができる。この戦略は決定的となる可能性がある。建設業界は歴史的に新しいソフトウェアの導入が遅いが、その主な理由はプロジェクトの途中でシステムを変更するリスクと複雑さにある。確立されたツールと連携して動作することで、Kraneは導入の障壁を下げながらも、意味のある効率向上をもたらす。大局的な視点:インフラの知性としてのAIKraneの資金調達は、より広範なトレンドを浮き彫りにしている。AIが物理的な経済のより深部へと進出しているのだ。AIに関する注目の多くはデジタルアプリケーションに集中してきたが、Kraneのような企業は、現実世界のシステム—建設現場、ロジスティクスネットワーク、サプライチェーン—に知性を埋め込んでいる。長期的な影響は大きい。Kraneのようなプラットフォームが成功すれば、建設業界は反応的なプロジェクト管理から予測的な実行へと移行する可能性がある。遅延が発生した後に対応するのではなく、チームは混乱を予測し、事前に調達戦略を調整し、コストとタイムラインをより厳密に管理できるようになる。そのような未来では、人間のチームの役割も変化する。エンジニアやプロジェクトマネージャーは、更新情報を追いかける時間を減らし、運用上の負担を処理するAIシステムに支えられながら、より戦略的な意思決定に時間を費やすようになる。Kraneの900万ドルの資金調達は、その変化の初期の兆候である。現在の本当の疑問は、長年にわたり手動プロセスによって定義されてきた建設業界が、AIがプロジェクトの計画、実行、納品方法の中核となるモデルをどれほど迅速に採用するかということだ。


Husnain Bajwaは、SEONの製品担当上級副社長として、同社のリスクおよび不正防止ソリューションの製品戦略を統括し、ネットワーキング、サイバーセキュリティ、エンタープライズテクノロジーにおける20年以上の経験を持っています。オースティンを拠点とし、以前はBeyond Identityで製品戦略担当副社長およびグローバルセールスエンジニアリング担当副社長を務め、さらにさかのぼるとAruba Networksで7年間ディスティングイッシュドエンジニアとして活躍しました。Bajwaはまた、EricssonとBelAir Networksでリーダーシップ職を歴任し、CardioAssureを共同設立しています。彼のキャリアは、通信、セキュリティ、デジタルインフラストラクチャーにわたる深い技術的専門知識と製品リーダーシップを組み合わせたものです。SEONは、企業が顧客ライフサイクル全体でデジタル詐欺を検出し阻止することを支援する、不正防止および反マネーロンダリングプラットフォームです。同社のテクノロジーは、メール、デバイス、IP、行動パターンを含む数百のデータシグナルを分析し、疑わしい活動をリアルタイムで特定します。そのプラットフォームは、機械学習によるリスクスコアリングとカスタマイズ可能なルールを組み合わせ、フィンテック、eコマース、オンラインゲームなどの業界にわたる組織が不正を削減し、コンプライアンスプロセスを自動化し、正当なユーザーを保護することを支援します。ここ12か月間で、アクセス可能な生成AIはロマンスおよびデートアプリ詐欺をどのように変化させましたか?生成AIは、詐欺のための力の増幅装置となりました。それは、高度なロマンス詐欺への参入障壁を劇的に低下させ、攻撃者に正規事業者が使用するのと同じ高性能ツールへのアクセスを与えています。SEONの2026年不正&AMLリーダーレポートによると、現在98%の組織が不正およびコンプライアンスのワークフローでAIを利用しています。同じ現実が犯罪者にも当てはまります。AIはもはや実験的なものではありません。今や基本要件となっています。かつては忍耐力、ソーシャルエンジニアリングのスキル、言語の流暢さを必要としたものが、今では自動化できます。詐欺師たちは、古参のメールアカウント、信憑性のある写真、もっともらしい人生の物語、裏付けとなるデジタルシグナルを備えた、完全に合成されたアイデンティティを一から構築しています。各シグナルは単独では正当に見えるかもしれませんが、それらが一緒になることで、明らかに欺瞞のために設計されたアイデンティティを形成します。言語はもはや信頼できる手がかりではなくなり、AIは文法の誤りやトーンの不一致を排除します。それは、被害者の反応に動的に適応する、感情的につながりのある会話を可能にします。一人の行為者が、今では数百のペルソナを同時に管理できます。その結果、最初から最後まで正当に見える詐欺が生まれています。ロマンス詐欺は、孤立した悪質な行為者から、機械の速度で継続的に実行される、調整されたAI支援作戦へと移行しました。AI生成プロファイルが示す3つの微妙な危険信号は何ですか?最初の危険信号は、デジタルフットプリントの不均衡と呼べるものです。プロフィールの物語は豊かで詳細ですが、長期的なデジタルの痕跡はその深さと一致しません。AIは物語を瞬時に生成できますが、何年にもわたる一貫したクロスチャネルの行動履歴を再現するのは困難です。2つ目の危険信号は、アカウントのグループを俯瞰して見たときに現れます。個々のアカウントは説得力があるように見えます。しかし、集合的に見ると、共有されたデバイスフィンガープリント、類似した登録タイミング、インフラストラクチャの重複などの統計的類似性が浮かび上がります。詐欺は、明らかな間違いではなく、パターンの類似性の中にますます隠れるようになっています。3つ目は、疑わしいほど完璧な行動です。人間の活動にはランダム性が含まれます。人々は不規則にログインし、会話の途中でトーンを変え、予測不可能に行動します。AI生成のペルソナは、均等なペースのメッセージング、最適化されたユーザー名、制御された活動の深さなど、機械的な正確さをしばしば導入します。今日の検出は、ずさんな誤りを見つけることよりも、有機的であるには一貫しすぎる行動を特定することに依存しています。本人確認を超えて、プラットフォームはどのようなシグナルを監視すべきですか?サインアップ時の静的な一度きりの確認は、もはや十分ではありません。詐欺師たちは基本的なチェックを日常的に通過し、その後はチェックされずに活動します。現代的な保護には、リスクが発生したときにそれに対応する、継続的で適応的な確認が必要です。それはつまり、ユーザーインタラクションの前と最中の両方で、デジタルフットプリントの深さ、デバイスインテリジェンス、行動テレメトリをリアルタイムで分析することを意味します。永続的なデバイスフィンガープリンティング、プロキシ検出、インフラストラクチャの再利用、自動化マーカーなどの技術的シグナルは重要です。しかし、同様に重要なのは行動シグナルです:会話のペース、急速な信頼の加速、プラットフォーム外へのやり取りの移動の試み、クロスアカウントのメッセージングパターンなどです。目標は、特に感情的投資が行われる前に、文脈を考慮した意思決定を行うことです。「このアイデンティティは存在するか?」と問う代わりに、プラットフォームは「この実体は、時間の経過とともに正当な人間のように振る舞っているか?」と問う必要があります。AI駆動の詐欺は従来のチームにどのような課題をもたらし、リアルタイムの軽減策はどのようなものですか?AI対応の詐欺は、拡張性、適応性、継続性を備えています。それは攻撃サイクルを圧縮し、手動レビューのキャパシティを圧倒します。戦術はエンゲージメントの途中で進化するため、静的なルールセットは時代遅れになります。従来のモデレーションモデルは反応的です。それらは被害が始まった後に事例をレビューします。しかし、スタックにリアルタイムの意思決定が組み込まれていない場合、被害が発生した後に守勢に立たされることになります。リアルタイムの軽減策とは、オンボーディングおよび最初のインタラクションにおいて、1秒未満でリスクをスコアリングすることを意味します。それは、グラフベースの分析を使用して、アカウントを孤立して評価するのではなく、調整されたネットワークを明らかにすることを意味します。それは、メッセージング権限が付与される前に、高リスククラスターを自動的に抑制することを意味します。詐欺は、同時に増加し、専門化しています。戦場は、明らかな悪用から、精密なアイデンティティ操作へと移行しました。防御は、反応的なモデレーションから、ライブでのオーケストレーションへと移行しなければなりません。ユーザーが持つ最大の誤解は何ですか?多くのユーザーは、プロフィールが存在すれば、それは徹底的に確認されていると想定しています。彼らは長期間存在することと正当性を、本物に見える写真と真正性を同一視します。現実には、確認は階層的で確率的です。プラットフォームはリスクを低減しますが、常に真正性を保証することはできません。ある瞬間にチェックを通過したからといって、継続的な正当性を意味するわけではありません。安全性は、保証されるものではなく、リスク管理されるものです。プロフィールの存在は、アカウントが特定の閾値を満たしたことを意味するのであって、それが完全に認証された人間のアイデンティティを無期限に表していることを意味するわけではありません。詐欺師に対する障壁を最も高める単一の製品機能は何ですか?最も影響力のある機能は、メッセージングが始まる前に、デバイス、メール、電話、ネットワークのシグナルにわたるエンティティレベルのリスクを評価できる、オンボーディングに直接組み込まれたリアルタイムの詐欺対策コマンドセンターでしょう。それは、被害者が被害を報告した後ではなく、クラスターレベルのパターンを早期に検出できます。それは、一律の確認の代わりに、段階的で文脈を考慮した摩擦を適用できます。最も効果的な保護は、最初のメッセージが送信される前に行われます。感情的関与が始まると、防御の負担は大幅に増加します。プラットフォームは、詐欺検出とユーザーエクスペリエンスをどのようにバランスさせることができますか?摩擦のない体験と安全の間のいわゆるトレードオフは、不変の法則ではなく、貧弱なシステム設計です。スマートな不正防止は、動的な摩擦を適用し、行動的または技術的シグナルがそれを正当化する場合にのみ、確認を段階的に強化します。低リスクユーザーはシームレスに進みます。高まったリスクは、より深い審査を引き起こします。プラットフォームが安全性とコンバージョンを一緒に測定するとき、不正防止はユーザーエクスペリエンスを向上させます。悪質な行為者を早期に排除することは、信頼を高め、ユーザーの離脱を引き起こす感情的および金銭的な余波を減らします。精密さが、一律の摩擦に取って代わります。外部の不正防止プラットフォームはどのような役割を果たすべきですか?単一のデートアプリプラットフォームが、脅威の全体像を把握することはありません。詐欺ネットワークは、業界、プラットフォーム、地理を越えて活動しています。SEONのレポートによると、85%の組織が2026年に不正対策ベンダーを追加または交換する計画です。これは、リーダーたちがより強力で統合されたインテリジェンスの必要性を認識していることを示しています。外部の不正防止プラットフォームは、業界横断的なシグナルの強化と、より広範なパターン認識を提供します。それらは、一つのエコシステム内では見えない可能性のある、インフラストラクチャの再利用、新興の敵対的AI戦術、調整されたネットワークを検出します。可視性が拡大すると、詐欺対策インテリジェンスは強化されます。攻撃者がAIを使って大規模に調整するにつれて、防御も同様にネットワーク化され、適応的にならなければなりません。詐欺師たちは今後12〜18か月でどのような新しいAI機能を活用するでしょうか?私たちは、敵対的AI、つまり他のAIシステムを欺くために特別に設計されたシステムの時代に移行しつつあります。SEONのレポートは、現在25%のリーダーが、犯罪者のAIおよび難読化技術の進歩を主要な外部脅威として挙げていると指摘しています。その懸念は十分な根拠があります。より多くのディープフェイクによるライブネスバイパスの試み、プラットフォーム外でのエスカレーションのためのリアルタイム音声クローニング、正当なユーザーデータで訓練されたAI駆動の行動模倣が予想されます。詐欺師たちは、時間の経過とともにペルソナを「熟成」させ、長期的な履歴をシミュレートし、活性化前に徐々に信頼を構築することをますます行うかもしれません。決定的な課題は、静的な資格情報ではなく、微妙な行動的、生体認証的、環境的シグナルを通じて人間性を証明することになるでしょう。AI支援の詐欺師を疑うユーザーにどのようなアドバイスをしますか?やりとりのペースを落としてください。AI支援の詐欺は、感情的加速と緊急性に依存しています。急速に進展する関係、特に金銭的困難の物語が現れた場合には懐疑的になりましょう。プラットフォーム外で決してお金を送らないでください。台本のないリアルタイムのビデオエンゲージメントを要求し、画像を逆検索で独立して確認してください。何かがおかしいと感じたら、すぐに報告してください。早期の報告により、プラットフォームはクラスターを検出し、より多くのユーザーが被害を受ける前に調整されたネットワークを解体できます。ロマンスは有機的に感じられるべきです。行動が作為的に感じられるとき、それは往々にして作為的です。素晴らしいインタビューをありがとうございました。さらに詳しく知りたい読者は、SEONを訪れてください。


NoTraffic は、大規模なインフラオーバーホールを実施することなく、老朽化した交通システムを近代化する方法を都市が模索する中、9,000万ドルのシリーズCラウンドの資金調達を確保しました。この資金調達は、PSG Equity が主導し、M&G Investments、Grove Ventures、LifeX、Meitav Investment House、Next Gear Ventures が参加しており、従来のツールでは都市のモビリティ課題の管理がますます困難になるタイミングで実現しました。すでに米国とカナダの数百の機関に導入されている同社は、交差点の運営方法における基盤層としての地位を確立しつつあります。それは、固定されたハードウェアというよりも、適応性のあるソフトウェア定義システムに近いものです。交差点をデジタルインフラへと変革NoTrafficのアプローチの中核は、静的な交通信号から、接続されたインテリジェントなネットワークへの転換にあります。同社のプラットフォームは、AIを搭載したセンサー、エッジデバイス、クラウドベースのソフトウェアを使用して交通状況をリアルタイムで監視・対応し、事実上交差点が「考え」、継続的に適応することを可能にします。事前にプログラムされたタイミングサイクルに依存するのではなく、このシステムは実際の需要に基づいて動的に調整します。それは、緊急車両を優先する、歩行者の待ち時間を短縮する、ラッシュアワーの渋滞を緩和する、といったことです。より広範な目標は、交差点を、都市全体の流れを最適化できる調整されたデジタルグリッドの一部へと変えることです。このモデルはまた、物理的なアップグレードではなくソフトウェア更新を通じて、都市が新しい交通戦略を展開することを可能にします。この違いは、予算が逼迫しインフラが老朽化するにつれて、より重要な意味を持つようになります。北米全域での導入拡大新たな資金は、主に北米全域での導入を加速させるために使用されます。同社はすでに40以上の州と州に相当する地域で事業を展開しています。自治体は、人員不足、予測不能な交通パターン、安全性と効率性に対する高まる市民の期待という複合的な課題にますます直面しています。NoTrafficが機関に対して訴える内容は比較的単純明快です:既存のインフラからより多くの価値を引き出すためにソフトウェアを使用する。同社のプラットフォームは、現在の交通システムを置き換えるのではなく統合するように設計されており、従来のアップグレードと比較して、より迅速な展開と低い初期コストを実現します。同社はまた、パフォーマンスを監視し、診断を実行し、無線による更新を展開する24時間365日のオペレーションセンターを運営しており、すでに手一杯の交通チームの能力を効果的に拡張しています。パイロットプロジェクトから中核インフラへこのカテゴリーの企業にとってより注目すべき変化の一つは、パイロットプログラムを超えて進むことです。多くのスマートシティ技術が拡大に苦労する中、NoTrafficは現在、より広範な採用に近づいており、2026年半ばまでに米国とカナダの交通機関の約10分の1に導入が及ぶ可能性があると予測されています。フェニックスのような都市では、渋滞の減少、通勤時間の短縮、歩行者の流れの改善など、測定可能な改善がすでに報告されています。これらの成果は、大規模な建設プロジェクトなしに、ソフトウェア主導の交通管理が具体的な運営上の利益をもたらし得るという証拠の蓄積の一部です。ソフトウェア定義交通システムが次に可能にすること交差点が固定資産ではなくプログラム可能なシステムになるにつれて、その影響は渋滞管理をはるかに超えて広がります。最も直接的な利点の一つは、都市が変化する状況にリアルタイムで対応できる能力です。それは、事故時の交通の迂回、大規模イベントのための信号調整、人手を介さずに緊急対応を優先する、といったことです。長期的には、この種のインフラは、より高度なモビリティエコシステムの基盤として機能する可能性があります。コネクテッドカー、自律輸送、スマートロジスティクスネットワークはすべて、動的に通信、適応、調整できるインフラに依存しています。ライブのデジタルネットワークの一部として機能する交差点は、従来の信号ベースの設定よりも、これらのシステムをより効果的にサポートできます。持続可能性の向上も潜在的にあります。交差点でのアイドル時間を減らし、交通の流れを滑らかにすることで、都市は大規模な物理的な再設計を必要とせずに排出量を削減できます。これは、渋滞関連の汚染を減らしながら全体的な効率を改善するという、より広範な都市の目標と一致します。運営面では、ソフトウェア定義インフラへの転換は、都市管理の異なるモデルを導入します。交通部門は、新しい戦略を迅速にテスト・展開し、データに基づいて反復し、成功したアプローチを地域全体に拡大することができます。これにより、長い計画サイクルへの依存が減り、より継続的な改善が可能になります。導入が拡大するにつれて、交通インフラの役割は、渋滞に反応する受動的なシステムから、人と物資が都市を移動する方法を継続的に最適化する都市のインテリジェンスの能動的な層へと進化する可能性が高いです。
Onit Securityは、Hetz VenturesとBrightmind Partnersが主導する1100万ドルのシードラウンドによりステルス状態から脱し、サイバーセキュリティにおける大きな転換点、すなわち検知から自律的な修復への移行の中心に自らを位置付けています。同社の創業ストーリーは、実世界での失敗に根ざしています。共同創業者Ofer Amitaiが以前率いていた企業は、既知の脆弱性がバックログに埋もれたまま放置された後に侵害を受けました。これは業界全体に広がる構造的な問題を浮き彫りにしています。今日、組織は数万件もの未解決の脆弱性に圧倒されている一方で、攻撃者はそれを悪用するのに数分しか必要としません。脆弱性管理が機能不全に陥る理由中核的な問題は、ツールの不足ではありません。リスクを特定することと、実際にそれを修正することとの間の、拡大し続けるギャップです。セキュリティプラットフォームは脆弱性を表面化させることに非常に効果的になりましたが、修復作業は依然として遅く、手動で、断片的です。チームは、多くの場合、分断されたシステムを通じて、所有権を決定し、ビジネスへの影響を評価し、部門を横断して調整しなければなりません。そのプロセスには数週間を要する一方で、攻撃者はほぼリアルタイムで活動します。この問題の規模は加速しています。脆弱性データベースのエントリー数は、今十年の終わりまでに100万件を超えると予想されており、すでに管理不能なバックログをさらに悪化させています。そこから生じるのは構造的な不均衡です。防御側は依然としてより遅い時代に設計されたワークフローで運用している一方で、攻撃側はますます自動化されているのです。チケットから自律的修復へOnit Securityは、エクスポージャー管理の仕組みを根本的なレベルで再考することで、そのギャップを埋めようとしています。チケットを生成し人間の調整に依存する代わりに、このプラットフォームはAIエージェントを使用して修復ライフサイクル全体の所有権を担います。目標は、反復的なトリアージと優先順位付けを、単一の人間が定義したアクションで数千の類似した問題を自動的に解決できる、意思決定ベースのモデルに置き換えることです。このアプローチは、いくつかの重要な転換をもたらします: ビジネスコンテキストに基づく優先順位付け: 脆弱性は、汎用的なスコアリングシステムではなく、実世界への影響に基づいてランク付けされます 自動化された所有権マッピング: プラットフォームは、断片化された内部データを分析することで、各資産の責任者を特定します オーケストレーションではなく実行: AIエージェントは、単にタスクを割り当てるのではなく、修復ステップを実行します 複利効果的な解決: 修正戦略が一度定義されると、それは将来にわたって類似のエクスポージャー全体で再利用されます その結果は、単に作業負荷を軽減するだけでなく、脆弱性管理の反復的な性質そのものを完全に排除することを目指すシステムです。エージェント型セキュリティの台頭Onit Securityは、システムが単にデータを分析するだけでなく、積極的に行動を起こすエージェント型AIへのより広範な動向の一部です。サイバーセキュリティにおいて、この転換は特に重要です。AIエージェントは、環境を継続的に監視し、脅威インテリジェンスを収集し、攻撃者の速度により近いスピードで修正を提案または実行できます。実際には、技術的および組織的な慎重さを反映して、ほとんどの導入では最終承認のために人間をループ内に留めています。変化しているのは、人間のオペレーターの役割です。個々のアラートを管理する代わりに、チームはAIシステムが大規模に施行するポリシーと意思決定を定義します。自己修復型セキュリティシステムの未来このモデルが効果的であると証明されれば、組織がサイバーセキュリティをどのように考えるかを根本的に再形成する可能性があります。脆弱性をトリアージすべき問題の絶えず増え続けるキューとして扱うのではなく、システムは通常の運用の一部としてエクスポージャーを継続的に解決できるようになるかもしれません。バックログそのものが消え始め、リスクが発見されるほぼ同じ速さで対処される動的な環境に置き換わる可能性があります。これは効率性を超えたより広範な意味合いを持ちます。セキュリティチームは、反応的な消火活動から戦略的な監視へと移行し、個々の問題を追いかけるのではなく、ポリシーの定義、エッジケースの評価、システムリスクの理解に集中できるようになります。同時に、組織は例外ではなく標準として、ほぼ即時の修復を期待し始めるかもしれません。複利効果もあります。AIシステムが各修復アクションから学習するにつれて、環境を横断して拡張される組織的知識を構築します。時間の経過とともに、これは、単に自己修復するだけでなく、人員の比例的な増加を必要とせずに、次第に回復力が高まるインフラストラクチャにつながる可能性があります。長期的な軌道は、検知、優先順位付け、修復が連続ループに緊密に統合された自律型セキュリティアーキテクチャを指し示しています。その世界では、最も多くを見られる組織ではなく、最も速く行動できる組織に優位性が移ります。実行を解決することなく可視性の向上に数十年を費やしてきた業界にとって、その転換はこれまでで最も重要な変化となるかもしれません。


Striveworksは、Washington Harbour Partnersが主導するシリーズB投資を獲得し、防衛および国家安全保障環境における運用AIの拡大に向けた同社の取り組みにおいて重要な一歩を踏み出しました。この資金は、製品開発の加速、エンジニアリングおよび研究開発チームの拡大、米国政府機関および同盟国における同社技術のより広範な展開の支援に使用されます。この資金調達は、地政学的競争が激化し運用タイムラインが圧縮される中、政府がミッションクリティカルなシステムへの人工知能の迅速な統合をますます優先している時期に実現しました。国家安全保障における運用AIへの移行防衛環境にAIを展開することは、単にモデルを構築するだけの問題ではありません。動的で高リスクな環境において確実に性能を発揮できるシステムが必要です。政府は二重の課題に直面しています。運用上の優位性を維持するために十分な速さで動きながら、システムが監査可能で信頼でき、厳格な安全要件に沿ったものであることを確保する必要があります。Striveworksは、この交差点に自らを位置付け、運用AI—管理された環境ではなく実世界の状況下で機械学習システムを展開、監視、継続的に適応させる能力—に焦点を当てています。この需要は政策レベルでも強化されており、AIの迅速な統合は、防衛および情報作戦における戦略的優位性を維持するために不可欠であるとますます見なされています。実世界での展開のために構築されたプラットフォームStriveworksの提供の中核をなすのは、そのChariotプラットフォームです。これは、監視と性能を維持しながらモデルを開発から本番環境へ迅速に移行するように設計されたAI運用(AIOps)システムです。このプラットフォームにより、組織は数ヶ月ではなく数時間でAIモデルを構築、展開、維持することが可能になり、クラウドインフラストラクチャ、エッジ環境、接続が断絶された帯域幅制約のある環境にまたがるワークフローをサポートします。これは、センサーフィード、衛星画像、リアルタイムの情報入力など、断片化されたデータソースにまたがってAIシステムが動作しなければならない防衛文脈において特に重要です。Chariotはガバナンスと追跡可能性も重視しており、組織がモデルのトレーニング方法、データのシステム内での流れ、出力の生成方法を理解できるようにします。これは規制されたミッションクリティカルな環境において極めて重要な機能です。複雑で競争の激しい環境で実証済みStriveworksの技術は、米陸軍の次世代指揮統制イニシアチブに関連する作業や、国境警備および自律海上システムを含む作戦など、複数の防衛プログラムですでに展開されています。これらの展開は、AIの活用方法におけるより広範な変化を反映しています。AIは分析や実験に限定されるのではなく、リアルタイムの意思決定を支援する運用ワークフローに直接組み込まれることが増えています。データ条件が急速に変化し、システムが継続的に適応しなければならない競争環境において性能を維持することに焦点を当てることは、同社のアプローチの特徴的な側面となっています。技術の内側:AIモデルと実世界の運用を橋渡しStriveworksのプラットフォームは、AIが実験段階から本番環境へ移行するにつれてますます顕在化してきた問題、すなわち、モデルはトレーニングでは失敗せず、展開時に失敗するという問題を中心に構築されています。同社のChariotプラットフォームは、モデルが構築された後に起こること、すなわち運用環境に焦点を当てています。運用環境では、データがクリーンで安定していることは稀です。入力は変化し、エッジ条件は信号品質を低下させ、ミッション要件はリアルタイムで進化します。これにより、管理された環境でのモデル性能と、現場でのシステムの振る舞いの間にギャップが生じます。Chariotは、AIシステムを静的な展開物ではなく、継続的に管理される資産として扱うことでこの問題に対処します。このプラットフォームは、モデル性能の継続的な監視、データと出力の両方におけるドリフトの検出、完全な再トレーニングサイクルを必要とせずに迅速な反復を可能にします。これは、遅延、信頼性、適応性が結果に直接影響する防衛環境において特に重要です。このアーキテクチャの重要な部分は、断片化され分散したデータ環境全体で動作する能力です。集中型インフラストラクチャに依存するのではなく、このプラットフォームはクラウド、オンプレミス、エッジシステムにまたがる展開をサポートします。これにより、モデルはセンサー、衛星フィード、リアルタイムの運用入力など、データが生成される場所に近い場所で実行でき、遅延を減らし応答性を向上させます。Chariotはまた、ガバナンスと追跡可能性を非常に重視しています。ハイステークス環境では、モデルがどのように決定に至ったかを理解することは、決定そのものと同じくらい重要です。このプラットフォームは、データの系譜、モデルの振る舞い、システム出力に対する可視性を提供し、組織が性能を検証し監視を維持できるようにします。この継続的評価、分散展開、組み込みガバナンスの組み合わせは、AIシステム設計におけるより広範な変化を反映しています。課題はもはや正確なモデルを構築することだけではなく、実世界の状況下で展開された後も、それらが信頼性が高く、適応性があり、説明責任を果たすことを確保することです。


AI駆動の「コンピュータ・エージェント」による財務ワークフローの自動化に注力するスタートアップ、Zalosが、360万ドルのシード資金を調達しました。このラウンドは14 Peaksがリードし、Cohen Circle、20VC、そして著名なエンジェル投資家グループが参加しました。この資金調達は、財務チームが業務の近代化を迫られながらも、深く組み込まれ、置き換えが困難なレガシーシステムに制約されている時期に行われました。財務自動化への異なるアプローチ現代の財務チームは、連携して動作するよう設計されていない、断片化されたERP、CRM、スプレッドシート、銀行プラットフォームのスタックを横断して業務を行っています。リソースが豊富な組織であっても、重要なワークフローは依然として、人がシステム間でデータを手動で移動させ、不一致を調整し、接続されていないツール間で正確性を確保することに依存しています。Zalosは異なるアプローチを取っています。これらのシステムを置き換えたり、脆弱な統合で接続しようとしたりするのではなく、同社はそれらを直接操作するソフトウェアを構築しています。そのコンピュータ・エージェントは、プラットフォームにログインし、インターフェースを操作し、データを入力し、人間と同じ方法でワークフローを完了します。この考え方はシンプルですが、その意味するところは重要です。それは、既存のインフラを再構築しようとするのではなく、その現実の中で機能する自動化です。ワークフローを自律的な実行に変えるZalosプラットフォームの中核にあるのは、記録されたワークフローを繰り返し可能な自動化に変換する方法です。財務チームは、例えば決算処理や口座照合などのプロセスを一度記録すれば、システムはその記録を、同じステップを継続的に実行可能なエージェントに変換します。このアプローチが魅力的なのは、自動化そのものだけでなく、その背後にある文脈理解です。これらのエージェントは、一連のアクション、必要なチェックとバランス、財務プロセスを支えるビジネスロジックを理解するように設計されています。すべてのアクションは記録され、財務チームの厳格な要件に沿った詳細で監査可能な記録が作成されます。脆弱なスクリプトや限定的なルールベースの自動化に依存する代わりに、このシステムは経験豊富なオペレーターが実際にツール内でどのように作業するかを模倣し、従来の自動化が実現に苦労してきたレベルの柔軟性をもたらします。財務がより高い基準を要求する理由財務における自動化は常に独特の課題に直面してきました。エラーの許容範囲が認められる可能性のある他の分野とは異なり、財務業務は精度、説明責任、透明性を要求します。入力漏れや誤った照合は、単なる不便さではなく、規制上および財務上の結果をもたらす可能性があります。ここが、Zalosが汎用AIエージェントとは異なる位置づけをしている点です。より広範なAIシステムはソフトウェアとの対話が可能になりつつありますが、財務には能力以上のもの、つまり信頼性、追跡可能性、監査基準への適合が求められます。Zalosは、これらの制約を中心にインフラを構築しており、自動化されたすべてのアクションがレビュー、検証、信頼できることを保証しています。エンタープライズシステムの現実に焦点を当てる創業者たち同社は、William FairbairnとHung Hoangによって設立されました。両者は異なる視点から同じ結論に達しました。財務チームとの長年の経験から、一貫したパターンが明らかになりました。組織はERPシステムに多額を投資しているにもかかわらず、それらを効果的に機能させるために依然として手作業に依存しているのです。これらのシステムを置き換えることは、めったに魅力的な選択肢ではありません。関与するコスト、時間、リスクは、潜在的な利益を上回ることが多く、特に何年にもわたってシステムを中心に構築されたプロセス全体がある場合にはそうです。Zalosは、変革には置き換えが必要ではなく、自動化を通じてそれらのシステムをより効果的に使用できるようにすることからもたらされうるという考えに基づいて構築されています。財務におけるコンピュータ・エージェントのより広範な意味合いもしZalosや同様のテクノロジーが成功すれば、財務業務への影響は大きいものとなるでしょう。最も即座に起こりうる変化の一つは、チーム内での仕事の配分方法です。反復的でプロセス駆動型のタスクに時間を費やす代わりに、財務の専門家は分析、戦略、意思決定により集中できるようになります。財務チームの役割は、ワークフローを実行することから、それらを監督し最適化することへと進化するでしょう。時間の経過とともに、これは組織がスケーリングについてどのように考えるかも変える可能性があります。伝統的に、取引量の増加には、それに見合う人員の増加が必要でした。信頼性の高いコンピュータ・エージェントがあれば、その関係は崩れ始めます。企業は、チームを同じペースで拡大することなく、大幅に多くの業務の複雑さを処理できるようになるかもしれません。ソフトウェア自体の設計方法にも意味合いがあります。エージェントがインターフェースを直接操作できるのであれば、特定の文脈においては、APIや深い統合の重要性が低下する可能性があります。密結合したシステムを構築する代わりに、企業はインテリジェントなエージェントがツール間のギャップを埋められることを知って、柔軟性を優先するかもしれません。より広いレベルでは、このテクノロジーはエンタープライズソフトウェアに新たな抽象化レイヤーを導入します。クラウドコンピューティングがインフラを抽象化し、SaaSがアプリケーション管理を抽象化したのと同じように、コンピュータ・エージェントは実行そのものを抽象化する可能性を秘めています。ワークフローは、手動で実行されるものではなく、記録、複製、継続的に改善できるものになります。しかし、課題は信頼です。財務チームは、これらのシステムがほぼ完璧な精度で動作し、すべてのアクションが監査され説明可能であることに自信を持てる必要があります。その信頼が確立されれば、この変化は財務チームの運営方法だけでなく、組織全体で自動化にどのように取り組むかをも再定義する可能性があります。


Vaidy Raghavanは、Xometryの最高製品・技術責任者であり、企業の買い手と製造サプライヤーを結びつけるAI駆動型マーケットプレイス機能の拡大に焦点を当て、同社の製品および技術戦略を率いる経験豊富なグローバル技術幹部兼エンジニアです。彼は、Wayfair、Microsoft、Grouponなどの企業で大規模なデジタルプラットフォームやマーケットプレイス技術を開発する上級管理職を歴任し、AI、サプライチェーン管理、SaaS、データ分析に関する深い専門知識を持っています。Xometryでは、効率性、回復力、グローバルサプライチェーンの接続性を向上させる、インテリジェントでデータ駆動型のシステムへと複雑な製造ワークフローを変革する責任を担っています。Xometryは、AIを活用したデジタルマーケットプレイスであり、企業がオンデマンドでカスタム製造部品を調達できるよう、買い手とCNC加工、3Dプリンティング、射出成形などの複数の生産方法にわたるグローバルな審査済みサプライヤーネットワークを結び付けます。2013年に設立され、メリーランド州ノースベセスダに本社を置く同社は、機械学習を活用して、アップロードされた設計ファイルに基づき、即時見積もり、リードタイムの推定、サプライヤーマッチングを提供し、従来複雑だった調達プロセスを合理化しています。世界中に数千のサプライヤーと数万の買い手を持つXometryは、サプライチェーンのデジタル化と、よりアジャイルで分散型の大規模生産を可能にすることで、製造業の近代化において中心的な役割を果たしています。Microsoft、Groupon、Wayfairと素晴らしいキャリアを歩まれてきました。技術への関心を形作った初期の経験(個人的または職業的)は何ですか?また、それがどのようにXometryやAI駆動型製造の世界へと導かれたのでしょうか?私の技術への関心は、キャリアの早い段階から始まりました。私は常に、困難な課題と、現実世界で実際に変化をもたらすソリューションを構築する機会に動機づけられてきました。私がキャリアを過ごしてきた急速に変化する業界では、アイデアを実現するために迅速に動きながら、同時に堅牢で効果的なシステムを構築するバランスを取らなければなりません。製造業はこれをよく体現しています。それは非常に物理的でアナログな産業ですが、同時に最も革新的なシステムのいくつかを支えています。 Xometryは、そのすべての交差点に位置しており、私たちは伝統的にアナログな産業を、次のステップを明確にした規律を持って現代的なものへと変革しています。私にとって、これはタイミングと目的が稀に一致したものであり、まさに私のキャリア全体を通じて構築してきた種類の挑戦です。製造業を最後の「アナログの牙城」と表現されています。現在、AIが製造業で解決している最大の課題は何ですか?私が製造業を最後の「アナログの牙城」と表現するのは、製造ライフサイクルが長く、多くの引き継ぎが存在するという構造的な複雑さがあるからです。例えば、製造工程では、設計と生産技術が、調達、調達先選定、品質、物流、納品後の組み立て、およびサプライチェーン全体での財務調整と並行して行われ、各段階が新たなリスクと潜在的な遅延を生み出します。中核的な課題は摩擦です。製造チェーンのあらゆるポイントで、異なる形式、システム、時には測定単位さえも存在します。アイデアは引き継ぎから引き継ぎへと渡され、それぞれが潜在的な失敗点となります。歴史的に、そのリスクを管理する唯一の方法は、手動による人間のレビューでした。AIは現在、その摩擦と戦うことで最大の価値を生み出しています。それは断片化されたシステムにおける調整役として機能します:不一致を検出し、部品を適切なサプライヤーにマッチングさせ、コストやリードタイムを動的にモデル化することさえあります。過去の生産データを使用して問題が発生する可能性のある箇所を予測し、時間と材料が無駄になる前に迅速にフラグを立てます。サプライヤーはより明確な意図を受け取り、予期せぬ事態が減るため、私たちはネットワークとの信頼を構築し、製造業者が必要なアイテムを生産するのを支援できます。Xometryは、サプライヤーと買い手がAI駆動のワークフローを採用するよう、どのように信頼を構築してきましたか?製造業では、リスクが高く、結果が不可逆的であり、廃棄された材料、期限の遅れ、品質不良は企業に経済的損失をもたらす可能性があるため、信頼を得ることは困難です。だからこそ、Xometryでは、信頼性と明確さを継続的に提供することで信頼を獲得しています。サプライヤーと買い手は、スピードと透明性を求めてXometryに依存しています。彼らは、CADファイルをアップロードすると、当社のAIが迅速に部品を分析し、価格と潜在的なリスクに関する見積もりを生成することを知っています。予測は実際の生産データに基づいており、それがさらに信頼性と可視性を構築します。価格は実際の市場状況を反映し、サプライヤーはプラットフォーム上でパフォーマンスを改善し、ビジネスを成長させる方法について継続的な洞察を受け取ります。システムはまた、不一致を検出するための独立したチェックも実行します。何かが一致しない場合、早期に表面化させ、チームに常に情報を提供し続けます。生成AIは、具体的にどのように製品アイデアを構築可能な部品に変換するのでしょうか?また、それは開発タイムラインにどのような影響を与えますか?製造業は常に、意図と構築可能性の間のギャップに悩まされてきました。初期の製品アイデアはしばしば不完全であり、それらを製造可能な設計に変換するには複数の引き継ぎが必要です。そのプロセスは遅く、しばしば手直しが発生しやすく、遅延や不足を生み出します。生成AIはそのループを圧縮します。実際には、部分的に構造化された入力を製造可能な特徴に変換します。潜在的なリスクを表面化させ、材料やプロセスを提案し、制約を早期にフラグ立てすることができます。AIは、通常生産を遅らせる摩擦を減らし、反復回数を減らし、廃棄部品や材料を少なくすることで、開発タイムラインを大幅に短縮しています。プロセスがより自律的になるにつれて、品質と管理を高いレベルに保つために、どのようにしていますか?重要な原則の一つは、品質チェックを生産プロセスの最も早い段階に移行させることです。AIは数百万の幾何学的データポイントを分析して、製造の実現可能性、コスト、最適なサプライヤーマッチングを判断するのに役立ちます。これにより、長らく品質管理プロセス中のリスクに対する唯一の防御策であった人間の注意深さだけに頼ることなく、精度と一貫性がもたらされます。とはいえ、これらの拡張されたプロセスには、人間をループ内に留めておくことが依然として必要です。私たちはAIを展開して問題や必要に応じた代替案を特定しますが、介入の最終決定権は、そのような判断を行う経験を持つ人間のオペレーターにあります。これは特に、航空宇宙や防衛などのミッションクリティカルな分野で顕著であり、人間をループ内に置くことが、品質管理を犠牲にすることなく大規模な自動化を可能にする唯一の方法です。変動する製造コストとサプライチェーンの複雑さを考えると、XometryにおけるAI駆動のダイナミックプライシングはどのように機能しますか?製造業の価格設定は本質的に変動します。なぜなら、すべての部品が異なり、材料、キャパシティ、関税などの外部要因、その他の制約に基づいてコストが絶えず変化するからです。静的な価格モデルはそのような環境では成り立ちません。Xometryでは、ダイナミックプライシングは学習システムです。私たちのモデルは数百万の過去の見積もりで訓練され、実際の生産結果で継続的に更新されます。そのフィードバックループにより、価格設定は現実に即したものに保たれます。エンジニアがCADファイルをアップロードすると、当社のインスタント見積もりエンジンは直ちにファイルを分析し、価格に影響を与える外部要因や制約に対してチェックを行い、数千のパートナーからなるネットワークから最適な製造業者を特定します。 そして、状況が変化すると、エンジンは自動的に再調整し、材料、キャパシティ、関税、その他のコスト要因の変動を反映して価格をリアルタイムで更新します。 エンジニアからサプライチェーンマネージャーまで多様な顧客を抱える中、XometryはAIとデータ分析を活用してどのように体験をカスタマイズしていますか? Xometryでは、AIがユーザーにとってはるかに tailored(個別に調整された)体験を作り出し、個々のニーズに基づいて生産プロセスを合理化します。エンジニアにとっては、材料や設計リスクに関する迅速なフィードバックのように見え、サプライチェーンマネージャーにとっては、コストのかかるエラーを減らし信頼を構築するための、物流上の滞りの迅速なフラグ立てを意味するかもしれません。 数十年にわたり、CADは多くの製造業者にとって参入障壁となってきました。しかし、プロセスにAIを統合することで、エンジニアが自然言語で必要なものを記述し、システムが摩擦なく製造可能な設計を作成できる、そのような tailored 体験を作り出すことができます。 今後を見据えて、今後3〜5年で製造業のエコシステムを再定義する可能性があるAIイノベーションは何だと思いますか? 製造業を再定義する可能性が最も高いAIイノベーションは、生産サイクル全体にわたる継続的な推論であると信じています。 先に述べたように、製造に関する意思決定はしばしば依然として断片化されています。製造業者は、設計、コスト、調達、製造可能性を別々に評価するため、問題はしばしば後期に発見され、より高価になることがあります。私が予測する変化は、それらの次元を並行して推論し、過去の生産結果から学習し、リアルタイムで適応する統合プログラムに収束するAIシステムへの移行です。 この初期バージョンは、DFM分析、調達、さらには価格設定などの分野ですでに存在しています。しかし、今後数年のうちに、それらの境界はさらに崩壊し、より速く、より予測可能で、より適応性の高い製造エコシステムを創り出すと私たちは見ています。 素晴らしいインタビューをありがとうございました。さらに詳しく知りたい読者は、Xometryをご覧ください。
エンタープライズAIエージェントはますます高度になっていますが、一つの大きな制限が依然としてその進歩を妨げています。それは、組織内で仕事がどのように行われているかを、AIが真に「記憶」していないことです。このギャップが、Interloomの最新の資金調達発表の中心にあります。ミュンヘンを拠点とするこのスタートアップは、DN Capitalがリードし、Bek VenturesとAir Street Capitalが参加したシードラウンドで1650万ドルを調達しました。同社は、チームが実際にどのように業務を行っているかを捕捉し、その知識をAIシステムが確実に利用できるものに変換するプラットフォームの構築に注力しています。企業がAIを中核的なワークフローに深く組み込むにつれ、課題はより明確になってきています。AIは指示に従い、情報を要約し、アウトプットを生成することはできますが、複雑で現実的な環境で一貫した意思決定を行うために必要な文脈をしばしば欠いています。その文脈の多くはどこにも文書化されておらず、過去の事例、内部での議論、経験豊富な従業員の判断の中に存在しています。エンタープライズAIに欠けているレイヤーほとんどの組織は、自社のプロセスが十分に文書化されていると考えていますが、実際にはその逆であることがよくあります。重要な業務知識は、メール、サポートチケット、内部ツール、非公式なワークフローに散在しています。文書が存在する場合でも、現実から遅れていたり、実際の意思決定方法を過度に単純化していたりする傾向があります。これは、AI導入における大きな問題を生み出します。この暗黙知にアクセスできないと、AIエージェントは狭く事前定義されたタスクを超えて進むことが困難になります。支援はできても、自信を持って独立して業務を遂行することはできません。Interloomは、永続的なメモリーレイヤーと表現されるものを導入することで、この問題の解決を試みています。静的な指示に依存する代わりに、このプラットフォームは、チームが実際の業務事例をどのように解決しているかから直接学習します。時間の経過とともに、組織全体で意思決定がどのように行われているかの継続的に進化するモデルを構築し、人間とAIシステムの両方が過去の結果をガイドとして参照できるようにします。静的な文書から生きたシステムへInterloomが提案する変化は、微妙ですが重要なものです。従来のエンタープライズシステムは、事前に定義された文書、ワークフロー、ルールに大きく依存しています。Interloomのアプローチは逆の方向に進み、実際の業務が行われる様子を観察することで、事後的に知識を捕捉します。これは、システムがチームが起こるべきと考えていることに限定されるのではなく、実際に起こっていることを反映することを意味します。プレッシャー下での意思決定、手動で処理される例外、時間をかけて開発された回避策などがすべて、成長する業務記憶の一部となります。実際には、これによりAIエージェントは、仮定ではなく前例に基づいて行動できるようになります。孤立して答えを生成するのではなく、すでに解決された類似の事例に基づいて行動を決定できるのです。従業員にとっては、過去の決定が即座にアクセス可能で再利用可能になるため、解決策を再発見する必要性も減少します。もう一つの意味合いは、組織的知識の保存です。経験豊富な従業員が退職すると、彼らの専門知識の多くは通常、彼らと共に失われてしまいます。Interloomは、そうした個人が複雑な状況をどのように処理したかを捕捉することで、その知識を保持し、将来のチームやシステムが利用できるようにすることを目指しています。複雑な業界での早期の採用まだライフサイクルの初期段階ではありますが、InterloomはすでにZurich InsuranceやVolkswagenなどの大企業と協業しています。これらの環境は、大量の複雑で文脈に依存した意思決定が関与するため、プラットフォームの明確なテストケースを提供します。保険、製造、金融サービスなどの分野では、プロセスが単純なルールセットに従うことはほとんどありません。各事例には、複数の変数、例外、システム間の依存関係が関与する可能性があります。これにより、従来のアプローチ(厳格なワークフローに依存するもの)を使用した自動化は困難になります。Interloomのプラットフォームは、何百万もの業務事例を処理することで、これらの意思決定がどのように行われるかのパターンを明らかにし、それらを使用して速度と一貫性の両方を改善するように設計されています。同社が新たに導入した「Chief of Staff」エージェントは、孤立したタスクを単に実行するのではなく、システム全体でワークフローを調整することを目指すことで、これをさらに発展させています。これがエンタープライズにおけるAIの未来に意味することInterloomのようなシステムの出現は、エンタープライズAIがどのように進化するかについて、より広範な変化を示しています。自動化の初期の波は、構造化されたプロセスと明確に定義されたタスクに焦点を当てていました。生成AIのより最近の進歩は、機械が理解し生成できるものを拡大しました。次の段階は、AIシステムが時間の経過とともに文脈をどれだけうまく組み込めるかによって定義されるかもしれません。もしAIエージェントが組織内でより多くの責任を担うようになるなら、彼らには組織的記憶に近い何かが必要になるでしょう。それがなければ、最も先進的なモデルでさえ、運用ではなく支援に限定されたままです。それがあれば、人間の意思決定と機械の実行の境界は曖昧になり始めます。これはまた、企業が内部知識をどのように管理し統治するかについての新たな疑問を提起します。決定を継続的に捕捉し再利用するシステムは、強力な競争優位性となる可能性がありますが、透明性、バイアス、コントロールに関する課題も導入します。AIシステムが過去の決定に基づいて訓練される場合、既存のパターン(良いものも悪いものも)を強化する可能性があります。同時に、業務知識を大規模にエンコードし再利用する能力は、組織が専門知識についてどのように考えるかを再形成する可能性があります。個人やチームに集中するのではなく、知識は時間とともに進化する共有資産となります。これは、特に判断と経験を必要とする分野など、歴史的に自動化に抵抗してきた領域での自動化への障壁を下げる可能性があります。Interloomのアプローチは、エンタープライズAIの未来が、より優れたモデルだけではなく、実世界の知識を捕捉し適用するためのより優れたシステムによって定義されるかもしれないことを示唆しています。そのビジョンがスケーラブルであるかどうかはまだ分かりませんが、方向性はますます明確になっています。AIが支援を超えて実行に移るためには、記憶は知性と同じくらい重要かもしれません。


Nikolaos Vasiloglouは、RelationalAIの機械学習研究担当副社長です。彼はキャリアを通じて、小売、オンライン広告、セキュリティ分野で機械学習ソフトウェアの構築とデータサイエンスプロジェクトの指揮に携わってきました。ICLR/ICML/NeurIPS/UAI/MLconf/KGC/IEEE S&Pコミュニティのメンバーとして、著者、査読者、ワークショップおよび本会議の組織委員を務めてきました。Nikolaosは現在、RelationalAIにおいて大規模言語モデルと知識グラフの交差点における研究と戦略的イニシアチブを率いています。RelationalAIは、企業がデータ分析を超えて自動化された高品質な意思決定へと移行するのを支援するために設計された意思決定インテリジェンスプラットフォームを構築するエンタープライズAI企業です。その技術はSnowflakeのようなデータ環境と直接統合し、リレーショナルデータベース、知識グラフ、高度な推論システムを組み合わせて、ビジネスの「セマンティックモデル」—本質的には企業の運営方法、関係性、ロジックをコード化したもの—を作成します。これにより、AIシステム(「Rel」のような意思決定エージェントを含む)が複雑で相互接続されたデータを推論し、予測的および処方的な洞察を生成することが可能になり、企業はセキュアなクラウド環境の外にデータを移動させることなく、より迅速で情報に基づいた意思決定を行えるようになります。あなたは、学術的な機械学習、大規模な産業界での導入、Symantec、Aisera、そして現在のRelationalAIといった企業でのリーダーシップ役職と、稀に見るキャリアパスを歩んできました。それらの経験は、今日の機械学習研究と実世界のシステムが出会う場所についてのあなたの視点をどのように形作ったのでしょうか?私は幸運にも、小売やセキュリティからオンライン広告に至るまで、様々なビジネス領域に関わることができました。それは、機械学習とAIが共通項としてどのように適合するかを理解するのに役立ちました。2000年代の初めから、ソフトウェアが世界を侵食し、データが意思決定インテリジェンスを侵食していることは分かっていましたが、Googleを含め、高度な機械学習アルゴリズムが最終的にはすべてを侵食すると信じている企業はほとんどありませんでした。2008年当時、NeurIPSの参加者は現実世界を理解しないオタクで夢想家、単におもちゃをいじるのが好きな人々と見なされていました。ある点まではそれは真実でしたが、私はこれが変化の軌道に乗っていると信じていました。他の人々とは異なり、私は学術研究から産業界への移行に積極的に関与することを諦めませんでした。あなたのNeurIPS 2025分析では、Claude Code、OpenAI Codex、NotebookLMなどのコーディングアシスタントを使用して会議全体を処理しました。AI研究そのものを分析するためにAIシステムを使用することについて、最も驚いたことは何ですか?データをスクレイピングし、機械で読み取り、セクションに分類し、さらに特に直感的な方法で要約し説明するソフトウェアを構築することが、驚くほど簡単でした。GenAIシステムは物語を語ることは素晴らしいですが、その物語(唯一の正解)を語ることはできません。NotebookLMは、あらゆるドメインを分析し、信じられないほどの結果を提供する点で最高です。しかし、物語、グラフィック、強調点をコントロールすることはできません。これらのツールはPowerPointスライドの作成にはあまり優れていないことを学んだので、HTMLを構築し、それをPDFに変換する方法に頼らざるを得ませんでした。最大の課題は図の作成でした—拡散生成は遅すぎる上に信頼性が低く、高価で、コントロールも効きませんでした。驚くべきことに、モデルはmatplotlib、plotly、その他のPythonライブラリを使ってプログラムでSVGを作成することにはかなり優れています。その技術は拡張可能でしたが、視覚化のエラーを修正するために数回の試行が必要でした。来年までにはモデルはさらに良くなるでしょう。あなたの分析で最も強いテーマの一つは、学習時のスケーリングから推論時の計算への移行です。なぜテスト時の計算が、モデル性能を改善するための強力なレバーとして浮上しているのでしょうか?スケーリング則は私たちの羅針盤です。モデルサイズと事前学習データを増やすことは、その容量に達しました。第一世代のスケーリング則は私たちをGPT-4まで導きました。それらはOpenAIがGenAI革命を始めるのを助けたものです。私たちはすぐに、モデルが答えにたどり着く前に多くのトークンを生成することを可能にする別の次元があることに気づきました。これはLLMの効率を改善するもう一つの方法です。モデルサイズと推論長は、しばしばシステム1とシステム2の思考モード(ダニエル・カーネマン)として表現されます。推論トレースはモデル容量を増加させる別の方法です。考えてみれば、人間によるブレークスルーは本能(高いIQ)から始まりましたが、成功は常に長く苦痛を伴う推論によるものでした。私たちはある種このパターンを見ています:長い思考ウィンドウを持つ小さなモデルが、100倍大きいモデルを凌駕するのです。つまり、LLMにおいてはIQよりも思考が重要だということです。あなたは、単一の巨大モデルから、出力を計画、実行、検証できるエージェント的システムへの移行を強調しています。エージェント的AIが研究プロトタイプではなく、信頼性の高い本番パラダイムになるまで、どれくらい近づいているのでしょうか?私たちはその方向に大きな進歩を遂げています。最大の問題は信頼性と安全性であり、それらが自律的であると信頼できるようにすることです。NeurIPSのコンテンツを注意深く見ると、研究を行い、数学の問題を解き、コーディングの問題を解く自律システムを見ることができますが、例えば、エージェント的な自動運転車は見られません。Moltbook(AIエージェントのためのソーシャルネットワーク)での最新の経験は、自律的エージェント的AIの問題点を浮き彫りにしました。しかし、エージェント的AIによる新薬や新材料の発見は巨大な成果ですので、今はそれを祝い、そこに焦点を当てましょう。効率性はイノベーションの主要な推進力のようで、より小さなモデルがアーキテクチャの改善とより賢い推論戦略を通じて競争力のある性能を達成しています。私たちは、効率性のブレークスルーが生のモデルサイズよりも重要になる時代に入りつつあるのでしょうか?AIが本番環境にスケールアウトするにつれて、エンジニアリングがより重要になります。フロンティアモデルに依存することは、単に持続可能ではありません。デモには素晴らしいですが、企業は大きなモデルの高コストを目の当たりにしたときに厳しい現実に直面します。初めて、より小さなモデルがはるかに実行可能な解決策になりました。業界の現状を変える静かな力があります。これまで、NVIDIAはGPUの独占を維持し、価格を高く保ってきました。AMDは高品質なチップで市場に参入しており、それは価格の下落を強いるでしょう。エネルギーは依然として問題ですが、市場にはいくつかの動きが見られます。フロンティアラボがより高価になるにつれて、レンタルGPU上のより小さなモデルという解決策がより実行可能になってきました。あなたのプレゼンテーションは、この分野が単一軸のスケーリング(パラメータ)から、パラメータ、データ、アーキテクチャ、推論を含む多次元スケーリングへと移行したことを示唆しています。研究者と実務家はこの新しいスケーリングパラダイムについてどのように考えるべきでしょうか?ほとんどの専門家にとって、アーキテクチャとパラメータは彼らのコントロールの範囲外です。必要な資本を持つモデルの生産者がイノベーションを牽引するでしょう。トークン推論長は、彼らの組織の資本支出によって決定されます。彼らのコントロール下に残るのはデータです。データ(ほとんどの場合、推論トレース)の作成、キュレーション、デバッグに焦点が当てられるようになるでしょう。これが日々の業務の焦点となるでしょう。もちろん、新しいアーキテクチャのトレンドに遅れないように、NeurIPSや他の大きな会議をフォローする必要があるでしょう。あなたのNeurIPS総説では、生物学から気候モデリングに至るまで、AI駆動の科学的発見に焦点を当てた研究の割合が増えていることを指摘しています。AI-for-scienceを機械学習研究の次の主要なフロンティアとお考えですか?それは学術研究を超えていると思います。私たちは次のゴールドラッシュを見ているのです。1849年、カリフォルニアのゴールドラッシュはピークに達しました。人々がしなければならなかったことは、金を見つけるために川の水を延々と濾過することだけでした。今では多くの人が金を見つけられなかったことを知っていますが、今日私たちが見ているものは非常に現実的です。言語モデルを使って新材料、新薬、製品コンポーネントを見つける、2〜3人のスタートアップの大きな波が見えます。最も賢い方法でトークンを消費することは、大きな収穫をもたらす可能性があります。Claude Code、OpenAI Codex、Google Antigravityのようなコーディングアシスタントは、SaaS企業の堀を取り除き、科学的研究において非常に有能なコンピュータ科学者の全世代を残すことができます。First PrinciplesやBio[hub]のような非営利団体で働いているなら、新しい物理法則や理論、または生物学における他の貢献を見つける機会があります。収益を生み出したいなら、製薬、材料、バッテリーなど、科学に基づいた新製品を発明する仕事に携わるでしょう。あなたの研究はまた、モデルが強力なベンチマークスコアを達成する一方で、単純な実世界のバリエーションでは失敗するという、拡大する検証ギャップを強調しています。このギャップは、大規模言語モデルの現在の限界について何を明らかにしていますか?それらは驚くべき記憶力を持ち、よく一般化できるようです。ベンチマークは研究の初期段階では有効です。一度閾値を超えると、問題ではなくベンチマークを学んでしまいます。私たちは長年にわたり、ベンチマークをリセットし、限界を押し広げるためにさらに難しくすることに非常に長けてきました。ベンチマークの問題は、ある時点で、私たちは過度に重点を置き始め、最終的には不正行為に及ぶことです。ここでの全体的な傾向は、競争相手をより誠実にすることです。私は個人的に、数回の飛躍的な進歩があった後は、ベンチマークにあまり注意を払いません。リーダーボードのトップ10に入っていなくても、優れた製品はあり得ます。また、ベンチマークでは優秀だが、品質の低い製品も多く見てきました。プレゼンテーションは、小さな言語モデルを推論スケーリングとエージェント的アーキテクチャと組み合わせることで、ハイパースケールデータセンターの外で動作する強力なAIシステムを可能にできると示唆しています。この分散化は、AIが業界全体にどのように展開されるかを再形成する可能性がありますか?エッジデプロイメントに大きな重点が置かれているのを見ました。私たちの周りによりスマートなデバイスが確実に登場するでしょう。Microsoftは何年も1ビットLLMに取り組んでおり、約30倍の圧縮を達成し、将来的には単一チップ上でフロンティアモデルさえも実行できるようにします。私たちはこの研究を何年も追跡しており、その進歩は驚くべきものです。特にウェアラブル分野では。昨年のNeurIPSで取り上げられたのは、弱いエッジモデルとフロンティアモデルを組み合わせるというアイデアです。これにより、帯域幅に基づいて連続スペクトルで推論能力を調整することができます。NeurIPSでの最初のTelcoワークショップは、セルタワーにGPUを配置する傾向を明らかにしました。これは興味深いことです。なぜなら、セルタワーはデータセンターでもエッジデバイスでもないからです。それはコンピュート階層に新しい層を導入します。LLMから逃れたもう一つのものは、分散モデル学習です(Googleが遠隔データセンターでGeminiを学習させることを意味するのではありません)。独立したエンティティが独自のモデルを学習し、ユーザーがそれらをレゴのように組み合わせてより大きく強力なモデルを構築するという、非常に興味深いトレンドが追いつきつつあります。これは非常に有望なモジュラーアーキテクチャです。これが大きなモデルが学習される方法です。異なるチームが専門的なモデルを構築し、最終的にそれらをレゴブロックのように接続します。何千ものNeurIPS論文を分析した後、AI研究コミュニティは進歩をどこまで正確に予測しているとお考えですか?また、最も重要な今後の変化を見逃している可能性はどこにあるでしょうか?研究コミュニティは予測を行いません。研究者には独自の動機、好奇心、資金、偶然性、そしてもちろん本能があります。彼らは常に興味深い方向性を見逃す可能性がありますが、ほぼ確実に誰かがそれを見つけ、将来のある時点で拾い上げるでしょう。それは予想されることであり、健全なことです。経営者、投資家、エンジニアは、適切な決定を下し、最も教育された賭けを行うために、新興のトレンドを特定する必要があります。私の5年間の分析ウィンドウでは、早期に拾い上げられたトレンドもあれば、見逃されたシグナルもありました。そのうちのいくつかについては、まだアルファ波に乗る時間があります。データマーケットは私が何年も注目してきたものですが、今年ようやく飛躍を遂げました。欠けていた要素は帰属でした。現在、LLM競争に貢献した学習データをその場で特定することができます。つまり、配当を支払うことができるということです。これは、フロンティアモデルと集団訴訟を起こしている出版社から見逃された機会でした。彼らの一部は単に一括ライセンス契約に屈服せざるを得ませんでしたが、私は彼らには帰属モデルからより持続的な収益を得る機会がある