Connect with us

インタビュー

Manuel Romero、Maisa共同創設者兼最高科学責任者 – インタビューシリーズ

mm

Manuel Romeroは、Maisaの共同創設者兼最高科学責任者であり、信頼性の高いエンタープライズグレードの人工知能システムの開発に焦点を当てたAI研究者兼エンジニアです。彼は2024年に、透明性と制御を備えた複雑なビジネスプロセスを実行可能な責任あるAIを構築するためにMaisaを共同設立しました。Maisa以前には、RomeroはClibrainやNarrativaなどの企業でシニアAIエンジニアリングおよび機械学習の役職を歴任し、自然言語処理と大規模AIシステムを専門としました。キャリアの初期には、フルスタックソフトウェアエンジニアおよびDevOpsスペシャリストとして働き、その後、高度なAI研究開発に転身し、オープンソースAIエコシステムへの積極的な貢献者となりました。 Maisa AIは、トレーサビリティ、ガバナンス、信頼性を維持しながら複雑なエンタープライズワークフローを自動化するように設計された自律型「デジタルワーカー」、AIエージェントを開発しています。このプラットフォームにより、組織は自然言語を使用してAIエージェントを構築および展開でき、大規模なコーディングなしに内部システムとデータソース全体で自動化を実現します。検証可能な推論と構造化された実行に焦点を当てることで、Maisaは生成AIシステムに関連する一般的な制限を克服し、企業が自律AIを安全に大規模に導入することを目指しています。 あなたはAIシステムの背後にあるより深い「理由」を理解することに焦点を当ててきました。技術的な観点から、2024年にMaisaを共同設立することを決意した理由は何ですか?また、エンタープライズAIアーキテクチャのどのギャップが対処されていないと考えましたか? Maisa設立の動機は、ほとんどのエンタープライズAIスタックがシステムではなくモデルを中心に構築されているという認識から生まれました。 生成AIブームの間、多くの企業は既存のワークフローへの大規模言語モデルの統合に焦点を当てました。しかし、これらのシステムはしばしば脆弱で、不透明であり、大規模に運用することが困難でした。それらには以下の要素が欠けていました:

  • 重要な部分での決定論的実行。
  • 強力な可観測性、トレーサビリティ
  • 再現性

私たちが見たギャップは、企業向けの真のAIインフラストラクチャの欠如でした。企業はLLM APIを中心にアプリケーションを構築していましたが、知識作業のためのコンピュータアーキテクチャに相当するものが欠けていました。 Maisaは、Knowledge Processing Unit(KPU)を中心としたアーキテクチャを設計することでそのギャップに対処するために創設されました。KPUは、AIが実際のエンタープライズワークフロー内で確実に動作することを可能にするシステムです。 Maisa設立以前に、高度な自然言語処理および生成システムに携わってきました。それらの経験は、プラットフォームの背後にあるアーキテクチャの選択にどのように影響しましたか? 私のNLPおよびNLG、特に言語モデルおよびその後大規模言語モデル(数百もの)のトレーニングと事前トレーニングに関する経験は、それらの上に実際のシステムを構築しようとする際に、あることを非常に明確にしました。トランスフォーマーアーキテクチャは非常に強力ですが、それを本番環境で確実に使用するためには対処しなければならない少なくとも3つの根本的な制限があります。 1つ目は幻覚(ハルシネーション)です。これらのモデルは確率的にテキストを生成し、正しく聞こえるが検証された情報に基づいていない出力を生成する可能性があります。 2つ目はコンテキストの制限です。より大きなコンテキストウィンドウがあっても、モデルは境界のあるトークン空間内で動作するため、大規模または複雑な知識体系にわたって推論することが困難です。 3つ目は最新の情報です。事前学習済みモデルは学習時点の知識のスナップショットを表しますが、エンタープライズ環境では、絶えず変化する情報にわたって推論できるシステムが必要です。 これらの制約を認識したことが、Maisaの背後にある多くのアーキテクチャ上の決定を形作りました。モデルだけに依存するのではなく、構造化された知識へのアクセス、検証メカニズム、制御された実行を提供するシステムの構築に焦点を当て、AIが実際のエンタープライズワークフローで確実に動作できるようにしました。 多くの企業は生成AIを実験しますが、パイロット段階を超えるのに苦労しています。システム設計の観点から、多くの組織でスケーリングが失敗する根本的な理由は何ですか? 多くの企業が生成AIのパイロットを超えられないのは、ほとんどの導入が堅牢なシステムとしてではなく、実験として構築されているためです。初期のプロトタイプは、プロンプトエンジニアリング、軽量なオーケストレーション、単純な検索パイプラインに依存することが多く、価値を示すことはできますが、本番環境に必要な信頼性、可観測性、または制御を提供しません。組織がこれらのシステムをスケールさせようとすると、一貫性のない出力、トレーサビリティの欠如、エンタープライズワークフローへの統合の難しさ、AIの動作に対する限定的なガバナンスなどの問題に直面します。根本的な問題は、大規模言語モデルが確率的な生成器であるのに対し、エンタープライズプロセスは予測可能で監査可能な動作を必要とすることです。推論、検証、実行、監視の周囲に構造を追加するアーキテクチャがなければ、生成AIシステムは孤立したユースケースを超えてスケールすることが困難なままです。 Maisaのデジタルワーカーは、純粋に確率的であるというよりは、監査可能で構造化されるように設計されています。これは、本番使用のためにAIを評価する企業にとって、実際には何を意味しますか? Maisaのデジタルワーカーが純粋に確率的というよりは監査可能で構造化されていると言うとき、それはAIがその行動と推論を追跡および管理できる制御されたシステム内で動作することを意味します。モデルが自由に出力と決定を生成することを許可するのではなく、システムはAIがデータ、ツール、ワークフローとどのように相互作用するかを構造化します。プロセスの各ステップは記録、検査、検証が可能であり、アクションはモデル出力から直接ではなく、定義されたインターフェースを通じて実行されます。企業にとって、これはAIシステムをより自信を持って監視、監査し、重要なプロセスに統合できることを意味します。これは、AIをブラックボックスのアシスタントから、その動作を理解、制御、信頼できるシステムへと移行させます。 Knowledge Processing Unitの設計者として、それは大規模言語モデルを中心に構築された典型的なオーケストレーション層やワークフローエンジンとどのように異なりますか? Knowledge Processing Unitは、単にプロンプトとモデル呼び出しを調整するのではなく、AI駆動の推論の完全なライフサイクルを管理するように設計されている点で、典型的なオーケストレーション層と異なります。ほとんどのオーケストレーションフレームワークは、検索、プロンプティング、ツール実行などのステップを連鎖させるワークフローマネージャーとして機能します。KPUは、知識へのアクセス方法、推論の実行方法、システム内でのアクションの実行方法を構造化することにより、より深いアーキテクチャレベルで動作します。それは知識処理を中核的な計算層として扱い、メモリ、検証、制御された実行を統合することで、AIが単に応答を生成するだけでなく、複雑なエンタープライズワークフロー内で確実に動作できるようにします。 規制産業では、リスク許容度は低くなります。AI出力が信頼性を維持し、複雑なワークフロー全体でエラーが伝播しないようにするために、どのような具体的な設計上の決定を行いましたか? 規制産業では、信頼性と制御が不可欠であるため、AI出力が信頼できるものであり続けるように、いくつかの安全策を組み込んでシステムを設計しました。重要な原則の1つは構造化された実行であり、AIは制御されたインターフェースを通過せずに重要なアクションを直接トリガーすることはできません。また、モデル出力が受け入れられる前に、スキーマ、ルール、または二次的なメカニズムに対してチェックする検証層を組み込んでいます。さらに、システムは完全な可観測性を維持し、推論ステップ、ツールの相互作用、決定を記録して追跡および監査できるようにします。これらの設計上の選択を組み合わせることで、ワークフローを通じてエラーが伝播するのを防ぎ、組織が規制環境で必要とされるレベルの信頼性とガバナンスでAIシステムを運用できるようにします。 デジタルワーカーが、ガイド付きアシスタンスから完全に動作するAI駆動の実行へと移行している最も説得力のある初期のユースケースは何ですか? 最も説得力のある初期のユースケースのいくつかは、プロセスが明確に定義されているが、依然として重要な分析と意思決定を必要とする知識集約型のワークフローに見られます。コンプライアンスレビュー、テクニカルサポート業務、内部ナレッジマネジメントなどの分野では、デジタルワーカーは単に人間を支援することを超えて、構造化されたタスクを最初から最後まで実行し始めることができます。それらは大量の内部情報を検索および分析し、定義された手順を適用し、制御されたツールを通じてエンタープライズシステムと相互作用し、運用ワークフローに直接フィードされる出力を生成できます。重要な変化は、AIが提案を生成するだけでなく、ガバナンスされたシステム内で定義されたアクションを確実に実行できるようになったときに起こり、組織は複雑な知識作業の一部を単に拡張するのではなく、自動化できるようになります。 AIに関する規制の監視が世界的に強化される中、イノベーションを制限することなくコンプライアンス要件を満たすために、コアAIインフラストラクチャがどのように進化すると考えますか? AIに関する規制の監視が強化されるにつれて、単にモデルプロバイダーのAPIを呼び出し、出力を盲目的に信頼するアーキテクチャから離れていくと考えています。企業と規制当局は、AIの動作が観察可能、監査可能、かつ管理可能なシステムをますます要求するようになるでしょう。ここでKnowledge Processing Unitのようなアーキテクチャが重要になります。この種のアーキテクチャにより、組織は制御を実施し、決定を追跡し、AI出力が実際のプロセスに影響を与える前に信頼できるものであることを保証できます。時間の経過とともに、この種のシステムが信頼できるAIインフラストラクチャの標準的な基盤になると予想しています。 あなたは技術的な仕事と並行して、倫理と説明責任についても語ってきました。それらの視点は、透明なAIシステムの構築にどのように影響しますか? 倫理と説明責任は、私にとって、システム設計の選択に直接変換されます。AIシステムが実際の運用ワークフローに参加するのであれば、その動作を検査または理解できない不透明なブラックボックスとして機能することはできません。その視点は、私がAIシステムを構築するアプローチに強く影響しています。透明性、トレーサビリティ、人間の監視は、最初からアーキテクチャに組み込まれる必要があります。これは、推論ステップを観察可能にし、決定を監査可能にし、アクションが制御されたメカニズムを通じて実行されることを保証することを意味します。これらの原則がインフラストラクチャレベルに組み込まれると、AIシステムはより信頼できるだけでなく、組織が責任を持って管理しやすくなります。 今後を見据えて、エージェント的AIインフラストラクチャは、前の10年間でクラウドインフラストラクチャがそうなったように基礎的になると信じますか?また、その変化が実現するために技術的に何が必要ですか? 私は、エージェント的AIインフラストラクチャが、過去10年間でクラウドインフラストラクチャがそうなったように基礎的になる可能性があると信じています。組織がますます複雑な知識作業の自動化を目指すにつれて、多くのタスクとデータソースにわたって推論、メモリ、実行を確実に調整できるシステムが必要になるでしょう。しかし、その変化が実現するためには、基盤となるアーキテクチャが単純なモデル統合を超えて成熟する必要があります。構造化された推論、エンタープライズ知識への確実なアクセス、強力な可観測性、アクションの制御された実行を提供するインフラストラクチャが必要です。これらの機能がコアシステムに組み込まれると、エージェント的AIは実験的なツールから、組織が重要な運用を実行するために依存する確実なインフラストラクチャへと進化することができます。 素晴らしいインタビューをありがとうございました。さらに詳しく知りたい読者は、Maisa AIをご覧ください。

//www.futurist.ai">未来学者として、彼はこれらの革新が私たちの世界をどのように形作るかを探求することに専念しています。さらに、彼は未来を再定義し、産業全体を変革する最先端技術への投資に焦点を当てたプラットフォーム、Securities.ioの創設者でもあります。