

新しいAIフレームワークは、革命的な飛躍に向かって進化しています。人間の洞察が不要な、自己改善するマシンです。これまで、最も高度なAIモデルでも、静的なエンジンに留まり、トレーニングデータを変更できないまま、応答を予測していました。しかし、今日、AIの次の章を定義するのは、モデルのサイズではなく、モデルの自己進化能力です。最近、MITの研究者は、Self-Adapting LLMs (SEAL)という新しいAIフレームワークを発表しました。このアプローチにより、大規模な言語モデル(LLM)が自己改善を実現でき、AIが自身の限界を診断し、内部のフィードバックループを通じて自己のニューラルウェイトを永続的に更新することができます。研究者がエラーを特定したり、新しいプロンプトを書いたり、追加の例を提供したりする必要はありません。モデルの進化は完全に自己管理されます。“大規模な言語モデル(LLM)は強力ですが静的であり、新しいタスク、知識、または例に対して重みを適応させるメカニズムが欠けている”と、MITの研究者はブログ投稿で書いています。“知識の統合と少数ショットの一般化に関する実験では、SEALは、新しいデータに対して自己指向の適応を実現できる言語モデルへの有望なステップであることを示しています。”初期のテストでは、この自己編集ループにより、モデルは複雑な抽象的推論パズルで完全な失敗から成功に移行し、GPT-4.1などのより大きなモデルを上回り、72.5パーセントの成功率を達成しました。また、SEALは人間の管理を85パーセント削減しながら、精度と適応性を高めることが報告されています。自己教師AIフレームワークの台頭SEALは、自律的な機械知能へのより広範な傾向の一部です。Sakana AIの研究者は、Darwin-Gödel Machineを導入しました。これは、オープンエンドの進化戦略を使用して自身のコードを書き換えるAIエージェントです。“これにより、パッチの検証ステップ、ファイルの表示の改善、編集ツールの強化、複数のソリューションを生成して最適なものを選択する、 以前の試行の履歴を追加する(そしてなぜ失敗したか)などの自己改善が実現します。”と、Sakana AIはブログ投稿で書いています。同様に、AnthropicのAIエージェント、Claude 4によって動作するAIエージェントは、コードベースとビジネストゥール全体でワークフローを自律的に調整できます。“アセットの種類、環境、履歴に基づいて自己を再構成するシステムは、反応的な応答から継続的な予防戦略への移行を可能にします。”と、FracttalのCEO兼共同創設者であるChristian Struveは私に話しました。“重要なのは、モデルのサイズやパラメーターの数ではなく、自律性と有用性の向上です。”これらの取り組みを結びつけるのは、AIがより賢くなるために大きくなる必要はないという共通の信念です。AIはより適応性を身に付ける必要があります。“スケーリングは大きな成果をもたらしてきましたが、サイズだけでは達成できる限界に近づいています。SEALのような自己適応型の学習モデルは、システムが時間の経過とともに成長し改善することを可能にする、次の重要なステップを提供しています。”と、Datacoの創設者兼CEOであるJorge Rieraは私に話しました。“自己進化型モデルは、静的なベンチマークから適応性、学習効率、安全な長期的な改善の尺度への進歩を評価することを可能にします。モデルの知識をデプロイメント時にテストするのではなく、モデルの学習、保持、進化を時間の経過とともに評価することができます。”AIエコシステムと自律性への世界的な競争への影響このレベルの自律性は、AIの展開の経済学を書き換えます。新しい脅威に対して瞬時に自己を更新する不正検出システムを想像してみてください。あるいは、生徒の行動に基づいて教え方を変更するAIチューター。ロボティクスでは、自己適応フレームワークは、再プログラミング不要で新しい動きパターンを学習する自律マシンにつながる可能性があります。中東では、UAEやサウジアラビアなどの国が、適応性を目的とした基礎モデルを急速に構築しています。UAEのFalconやG42のJaisは、地域の関連性を念頭に置いて構築されたオープンソースのLLMです。一方、サウジアラビアのALLaMやAramco DigitalのMetabrainは、スマートシティ、ヘルスケア、ロジスティクス向けの自律AIエージェントの分野に進出しています。これらの取り組みはまだMITのSEALに匹敵する自己編集能力を持っていませんが、共通の軌道を反映しています。パッシブなAIシステムから、人間の指導が限られている、複雑さを航海することができる、進化するエージェントへの移行です。SEALと同様に、これらの取り組みは堅牢なガバナンスフレームワークによって裏付けられており、AIの自律性は責任とともにペアされる必要があるという認識が高まっています。“これは、人間の介入なしに自身のロジックを変更する自己管理システムへの第一歩です。”とStruveは述べています。“私认为、人工知能は知能を再定義するのではなく、我々が知能との関係を再考することを迫っています。重要なのは、モデルが進化することではなく、それが人間が定義する目標に沿った進化をすることです。”Gorilla LogicのCTOであるJeff Townesも、ガバナンスがAIの進化に追いつくことの重要性を強調しています。“問題は、AIが進化できるかどうかではなく、企業がAIとともに進化できるかどうかです。ガバナンスは、AIの各適応を明確な成果とKPIに結び付ける必要があります。そうすれば、イノベーションは自信を持ってリスクではなく拡大します。”自己書き換えAIに準備はできていますか?SEALが提起する最も挑発的な質問は技術的なものではなく、モデルが自身を教える方法を決定できる場合、我々はどのようにしてその価値観、優先順位、方向性を形作るのでしょうか?専門家は、自己適応AIシステムが自律性を獲得するにつれて、自己改善への急速な進歩は、倫理的なガードレールの確立を上回ってはならないと警告しています。“全てのAIシステムには、少なくとも3つの基本的な倫理原則を組み込む必要があります。”と、KryterionのCTOであるJacob Evansは述べています。“第一に、AIは自身がAIであることを特定する必要があります。第二に、AIは人間中心で、人間の判断を強化し、置き換えるべきではありません。第三に、AIは自身の限界と不確実性を認識し、深刻な損害を引き起こす可能性のある情報を提供することを拒否する必要があります。こうした安全対策がなければ、AIは操作の道具ではなく、信頼できるサポートになる可能性があります。”“生産環境でモデルを自己改善できるようにするには、静的なトレーニングではなく、ダイナミックなフィードバックループが必要です。強力な方法の1つは、‘デジタルツイン’または高度なサンドボックス環境を使用することです。ここで、AIは自身の自己生成された改善を安全にテストし、ユーザーに展開する前に検証できます。”と、AutomotusのコンピュータビジョンエンジニアであるGanesh Vanamaは共有しています。ガバナンスについて、Vanamaは、“人間がループ内にいる”監視は不可欠であると付け加えました。“モデルの適応を望むのですが、‘整合性のズレ’を検出するための継続的な監視が必要です。ここで、モデルは目的や安全性の制約から逸脱します。このシステムは、人間の監査員に、安全性またはパフォーマンスのレビューに失敗した場合に、自律的な更新を拒否または即座にロールバックする権限を与える必要があります。”しかし、他の専門家は、まだこれらの安全対策を開発する時間があると主張しています。真正に強力で一般的な自己改善AIを構築することは、依然として大きな課題であると述べています。“これらのモデルはまだ、信頼性を持ってリアルタイムで自身を再プログラミングする能力が欠けています。エラーの強化を防止すること、壊滅的な忘却を避けること、更新中に安定性を維持すること、内部の変更についての透明性を維持することなどの重要な課題が残っています。”とRieraは述べています。“これらが解決されるまで、完全な自己指向的な適応は、現実ではなく、フロンティアです。”MITの研究者は、SEALを必要な進化と見なしています。MITのリード科学者の一人は、このフレームワークは現在、人間の学習を過去にないほど正確に反映していると述べています。“これらのシステムは、静的で一回限りのモデルから、経験から学び、メモリを管理し、時間の経過とともに目標を追求することができる適応型アーキテクチャへの移行を示唆しています。方向性は明確です。モジュラーで、コンテキストに応じた知能が、継続的に自己を調整できるようになるというものです。”とRieraは私に話しました。“まだ実験段階ですが、このアプローチは、より自律的で堅牢なAIシステムへの有意義なステップを示しています。”これがより個別化されたシステムや、まったく新しいタイプの機械的代理人につながるかどうかは、まだ見えてきません。自己教師AIの時代が到来しました。自身のコードを書き換えるだけでなく、機械が何になるかというルールを書き換えています。


メディケイドは、共和党の議員が税制減税を支援するために深刻な削減を推進する、激しい政治的戦いの中心点となっています。ドナルド・トランプ大統領とGOPの指導者は、次の10年間でメディケイドの支出を880億ドル削減することを目指しています。これは、プログラムの予算の約10%に相当します。ただし、メディケイドは約8300万人の低所得アメリカ人、包括して高齢者や障害者に健康保険のカバーを提供しているため、結果は深刻になる可能性があります。メディケイドの将来を確保するために、人工知能(AI)は医療費の増加に対する潜在的な解決策として浮上しています。今日、AI駆動の予測分析により、医療提供者は緊急医療を必要とする前に高リスク患者を特定できます。「メディケイドは予算の制約に直面していますが、AIは品質を犠牲にすることなくコストを削減できます。」 グレイス・チャン、KintsugiのCEO兼創設者は私に語りました。 「運用上の非効率、たとえば診断の見逃しや患者へのフォローアップの不十分さは、目に見えにくいですが、非常に高価です。AIは、ERの過剰使用や薬の非順守などのリスクがある患者を特定できます。これらの領域は、適切なツールを使用しないと、システムから数十億ドルが流失します。」カリフォルニア州を拠点とするAIヘルスケアスタートアップKintsugiは、抑うつ患者に対する初期スクリーニングを自動化するために、ボイスバイオマーカーを使用しています。これにより、臨床医の評価時間が短縮されます。チャンは、ほとんどのヘルスケアシステムはすでに人員が不足しており、AIは、誰が最も必要なときに最も注意を必要とするかを優先するのに役立つと主張しています。創設者によると、ヘルスケアの最も厳しい問題を解決するためにAIを使用しないことの本当のリスクは、「それをケアの重要なギャップを埋めるために使用しないことです。」AIがメディケイドと医療費を一般的に削減する方法管理上の非効率性は、医療費の重要な部分を占めています。しかし、National Center for Biotechnology Information(NCBI)の研究によると、AIは、これらのプロセスを合理化することで、医療業界に年間最大1500億ドルを節約する可能性があります。同様に、National Bureau Of Economic Researchは、AIの自動化によって、医療費の削減が来年4年間で200〜3600億ドルになる可能性があると推定しています。今日、AIは、疾患の流行や人口動態の変化を予測することで、予防的な資源配分を可能にすることで、メディケイドと医療において重要な役割を果たしています。この技術は、患者結果を予測するための予測分析を強化することもできます。これにより、より効果的な治療戦略と改善された予防ケアが可能になります。さらに、AIは、個々の患者に合わせた治療を提供することで、個別化医療を進歩させることができます。最近のテクノロジー革新を活用して、複数のAI駆動のヘルスケアスタートアップは、診断を加速し、治療結果を改善するためにメディケイドでのAIの採用を促進する最前線に立っています。例えば、ボストンを拠点とするQuantivlyは、MRIとCTスキャナーの利用を最適化するためのAIベースのプラットフォームを通じて、放射線科の効率性を向上させています。AIは、画像処理のボトルネックを特定できます。これにより、患者の待ち時間が短縮され、スキャナーのスループットが向上し、病院の収益が増加します。「ヘルスシステム、特にメディケイド人口を対象とするシステムは、より少ないリソースでより多くのことを行うよう求められています。さらに、低い利益率を補うために、より多くのスキャンを実行する必要があります。」 ロバート・マクダグラル、Quantivlyの共同創設者は私に語りました。 「医療用画像処理における運用AIは、スタッフに負担を加えずにスループットを管理するのに役立ちます。スケジューリングなどの領域で、AIを展開できます。ここでの調整タスクは、誰かが手動で管理するには複雑すぎます。」マクダグラルによると、ほとんどのスケジューリングシステムは、スキャンの期間に影響を与える重要な要素、たとえばスキャナーハードウェア、プロトコルの複雑さ、患者の移動性、鎮静の必要性を無視しています。これらの変数をリアルタイムで管理することは、人間の能力を超えています。したがって、AIは、スケジューリングと効率性を最適化するための不可欠なツールとなっています。これは、病院の収益にも役立ちます。同様に、AI駆動の薬物管理プラットフォームArineは、薬物のレジメンを最適化し、不要な薬物を特定することで、処方ミスの削減に役立ちます。 「AIは、患者さんの薬物歴、SDOHデータ、臨床/医療文献などの多様なデータセットを迅速に接続して、各患者さんに合わせた推奨事項を出します。」 ヨナ・キム、ArineのCEO兼創設者は説明しました。彼女は、新しい薬が既存の状態に与える潜在的な悪影響を考慮せずに処方された場合、AIは問題をリアルタイムで特定できます。合併症がER訪問につながる前にそれを防ぐことができます。 「AIは繰り返しのタスク(たとえば、文書化、要約)を自動化できますが、患者のケアの場合、臨床医が管理する必要があります。」 とキムさんは述べました。AIが医療の効率性と結果を改善する可能性があることを考えると、法律制定者はその採用を優先するでしょうか、それとも予算の制約と財政政策がアクセスを影に落とすでしょうか。どのようにしてこの議論が展開されるかはまだ見えてきません。「運用AIの目的は、リソースの使用方法を改善することでアクセスを拡大することです。同じ機器でスタッフに負担を加えずにより多くの患者さんをスキャンできる場合、アクセスを改善しています。特に、リソースが不足している地域でです。鍵は生産性であり、制限ではありません。」 マクダグラルは強調しました。


セキュリティコミュニティは、2025年1月に大きな変化を目撃しました。競合他社がOpengrepを立ち上げたのです。Opengrepは、静的アプリケーションセキュリティテストツールであるSemgrepのフォークです。かつてはコミュニティ主導のオープンソースの精神で称賛されていたSemgrepですが、2024年12月にライセンスモデルを変更し、論争を巻き起こしました。このライセンスの変更により、商用製品での寄付ルールの使用が制限され、主要機能が有料化されました。Semgrepは、複数のプログラミング言語での脆弱性を検出する能力により、世界中の開発者の必須ツールとなりました。しかし、会社の決定は、現代のサイバーセキュリティに不可欠な分野でのイノベーションを抑制する可能性があります。この論争の中、DevSecOpsスタートアップのDeepSourceは、新しいオープンソースツールキットGlobstarを立ち上げました。Globstarは、スクラッチから構築され、MITライセンスの下でリリースされており、コードへの商用および全パブリックアクセスを制限なく提供することを目指しています。「Globstarを通じて、私たちはカスタム静的分析に新しいアプローチを提供しています。セキュリティチームのニーズに応じて設計されています。これは、内部で開発していた脅威検出フレームワークから生まれたものです。Semgrepはすでに有能なチームの手にあり、私たちの目標は異なる道を歩むことでした。私たちは、代替ではなく、新しい視点をもたらす代替案であると考えています。」と、Sanket Saurav、DeepSourceの共同創設者兼CEOは私に話しました。同社は、総額7.7Mドルの資金を調達し、現在はY-Combinatorの投資家によって支援されています。Goプログラミング言語を使用して開発され、Tree-sitterと統合されたGlobstarは、20以上のプログラミング言語をサポートしています。ツールキットには、カスタムセキュリティチェッカーを作成するための直感的なYAMLインターフェイスと、複雑なクロスファイル分析のための高度なGoインターフェイスが含まれています。「プロジェクトがフォークされると、別の軌道を辿ることが多いですが、既存の製品の上に構築することによって、イノベーションが制限される可能性があります。」とSanketは述べました。「カスタムコードチェッカーを書くプロセスを簡素化するシステムを作成しました。」ビジネス上の必要性対オープンソースの保存2024年12月13日、Semgrepはライセンスモデルを変更し、第三者による寄付ルールの商用製品での使用を制限しました。また、同社はオープンソースバージョンを「Semgrep CE」(コミュニティエディション)にリブランドしました。Semgrepは、ライセンスの変更は知的財産を保護し、持続可能な収益を確保するために必要であると主張しています。同社は、商用使用の制限により、無許可の再パッケージ化を防ぎ、長期的なイノベーションを支援するという見解を示しています。「エンジニアが問題を解決するためにコードを書くとき、静的分析はコードを実行せずにパターンや潜在的な問題を検出します。Semgrepはこの分野の尊敬されるプレーヤーであり、私は彼らを高く評価しています。」とSanketは述べました。「しかし、彼らの商用ユーザー向けのライセンス変更は、より広い現実を反映しています。VCバックの会社は、オープンソースの原則と持続可能なビジネスモデルとのバランスを取らなければなりません。」彼は、変更がエンドユーザーに直接影響しなかったものの、オープンソースが完全に制限なく残るべきか、長期的な実現可能性を確保するために進化すべきかという、継続的な議論を引き起こしていることを指摘しています。2025年1月、10のDevSec会社(Aikido Security、Arnica、Amplify Security、Endor Labs、Jit、Kodem、Legit Security、Mobb、Orca Security)がOpengrepを立ち上げるためにコンソーシアムを結成しました。伝統的に熾烈な競争相手であったこの新しいコンソーシアムは、Semgrepの決定に直接対抗し、商業的な利益のために機能を制限しようとしています。Endor Labsはブログ投稿で、静的コード分析は「制限されるにはあまりに重要」であると述べています。しかし、Opengrepがレガシーコードを単に再パッケージ化しているだけで、完全に新しいソリューションを提供していない可能性があることはまだ明らかではありません。オープンソースの代替案の台頭DeepSourceは、開発者がレガシーの制約を受け継がないツールを必要としていることを認識しました。「企業顧客は複数のツールを扱いたくない、それは統合の課題を生み出し、ワンストップソリューションの需要を生み出します。」とSanketは説明しました。「静的分析はコードアーキテクチャを理解する上で重要な役割を果たすため、私たちは統合プラットフォームとして ourselves を位置付けました。」DeepSourceのGlobstarは唯一の選択肢ではありません。Semgrepのライセンス論争の後、静的コード分析の代替案が注目を集めています。たとえば、SonarQubeは、静的コード分析、統合サポート、メトリクストラッキングのための無料のコミュニティエディションと有料バージョンを提供するコード分析プラットフォームです。同様に、ShellCheckは、シェルスクリプトを分析するための別の代替案であり、開発者が後に重大なバグや非効率性につながる可能性のあるスクリプティングエラーを捕捉するのに役立ちます。ShellCheckは、コマンドラインから実行でき、CI/CDパイプラインに簡単に統合できるため、使いやすさにより人気の選択肢となっています。Opengrepがレガシーツールのオープンルーツを保存しようとしている一方で、SonarQube、Globstar、ShellCheckなどの代替案は、フレッシュで前向きなソリューションを提供しています。オープンソースの議論が展開するにつれて、開発者と企業は、コード分析の景観を再定義する可能性のある重要な選択に直面しています。
Anthropicの革新的なモデルコンテキストプロトコル(MCP)は、断片化されたデータに取り組み、AIパワードソリューションの効率を高めることを目的としています。コンテキストアウェアAI統合の標準になる可能性がありますか?現在、人工知能(AI)における最も重要な課題の1つは、大規模言語モデル(LLM)がリアルタイムデータから孤立していることです。この問題に対処するために、サンフランシスコを拠点とするAI研究および安全性会社のAnthropicは、最近、AIモデルがデータとどのようにやり取りするかを再定義するための独自の開発アーキテクチャを発表しました。同社の新しいモデルコンテキストプロトコル(MCP)は、オープンソースプロジェクトとして立ち上げられ、AIアプリケーションとリアルタイムの多様なデータソースとの「双方向通信」を通じて、AIの効率を高めることを目的としています。このアーキテクチャは、成長するフラストレーションに取り組むために構築されています。つまり、リアルタイムデータとの接続が不足しているために、古くなったAI出力が発生します。Anthropicは、統一されたプロトコルが、ビジネス向けのAI開発と機能を強化し、リアルタイムのコンテキスト認識を通じて、より人間のようなものにすることができると主張しています。同社によると、各新しいビジネスデータソースには、カスタムAI実装が必要であり、非効率性が生じます。MCPは、開発者が普遍的に採用できる標準化されたフレームワークを提供することで、この問題に対処しようとしています。「アーキテクチャは簡単です。開発者は、MCPサーバーを介してデータを公開するか、MCPクライアント(AIアプリケーション)を構築してこれらのサーバーに接続できます。各データソースに個別のコネクタを維持する代わりに、開発者は標準プロトコルに対して構築できます」と、Anthropicはブログ投稿で説明しています。「エコシステムが成熟するにつれて、AIシステムはさまざまなツールやデータセットの間を移動するときにコンテキストを維持し、今日の断片化された統合をより持続可能なアーキテクチャに置き換えます」AIモデル、特にAnthropicのフラグシップアシスタントClaudeを含む、Google Drive、Slack、GitHubなどのツールと統合できます。専門家は、MCPが、サービス指向アーキテクチャ(SOA)やその他のプロトコルがアプリケーションの相互運用性を革命的に変えたのと同様に、ビジネスAI統合を変革する可能性があると示唆しています。「LLMとデータソースの間のデータパイプラインのための業界標準プロトコルを持つことは、画期的です。ソフトウェア業界におけるRESTやSQLと同様に、MCPのような標準化プロトコルは、チームがGenAIアプリケーションをより迅速に、かつ信頼性の高いものにするのに役立ちます」と、AIモデル評価プラットフォームCometの共同創設者兼CEOであるGideon Mendelsは私に話しました。「これは、優れたLLMモデルだけでは十分ではないという市場の認識に続くものです。過去6ヶ月で」Anthropicは、BlockやApolloなどの初期のエンタープライズ採用者がすでにMCPをシステムに統合していることも明らかにしました。一方、開発ツールプロバイダーのZed、Replit、Codeium、Sourcegraphは、MCPと協力してプラットフォームを強化しています。このパートナーシップは、AIモデルとエージェントがリアルタイムデータを介してより関連性の高い情報を取得し、コンテキストをより効果的に把握し、コーディングなどのエンタープライズタスク用に、より効率的に繊細な出力を生成できるようにすることを目的としています。「より人間のような、自己認識を持つAIモデルは、テクノロジーを関連性のあるものにすることができ、より広範な採用につながる可能性があります。現在、AIに対する多くの恐怖があり、単なる機械と見なされているからです。AIモデルを人間化することで、これらの恐怖を和らげ、日常生活へのスムーズな統合を促進することができます」と、One Way VenturesのEntrepreneur in ResidenceであるMasha Levinは私に話しました。しかし、Levinは潜在的な欠点についても警告しています。「ビジネスがAIに過度に依存し、極端な方法で決定を下すようになる可能性があり、有害な結果につながる可能性があります」しかし、MCPの真のテストは、広範な採用を獲得し、競合他社を上回る能力です。Anthropic MCP vs. OpenAIとPerplexity:AIイノベーション標準の戦いAnthropic MCPのオープンソースアプローチは、AIイノベーションにおける著しい進歩を示していますが、OpenAIやPerplexityのようなテクノロジー大手が支配する競合市場に参入します。OpenAIの最近の「Work with Apps」機能は、ChatGPTの機能を示していますが、オープン標準よりも密接なパートナーシップを優先するプロプライエタリアプローチで実現されています。この機能により、ChatGPTは、他のアプリからのデータとコンテンツにアクセスして分析できますが、ユーザーの許可が必要です。開発者がデータを手動でコピーして貼り付ける必要性がなくなり、代わりにChatGPTはアプリから直接データを確認し、リアルタイムのインターネットデータとの統合により、コンテキスト認識のあるスマートな提案を提供できます。さらに、同社は10月にリアルタイムデータアーキテクチャを発表しました。呼ばれる「リアルタイムAPI」は、ボイスアシスタントがインターネットからの新しいコンテキストを取得することで、より効果的に応答できるようにします。たとえば、ボイスアシスタントはユーザーの代わりに注文を出すか、カスタマイズされた応答を提供するために関連する顧客情報を取得できます。「リアルタイムAPIとChat Completions APIのオーディオを使用して、開発者はこれらのエクスペリエンスを動作させるために複数のモデルを組み合わせる必要がなくなりました」と、OpenAIはブログ投稿で述べています。「内部的には、リアルタイムAPIは、GPT-4oとメッセージを交換するために、持続的なWebSocket接続を作成することを可能にします」同様に、PerplexityのAI用リアルタイムデータプロトコルは「pplx-api」と呼ばれ、開発者が大規模言語モデル(LLM)にアクセスできるようにします。このAPIを使用すると、アプリケーションは自然言語のクエリを送信し、Webから詳細なリアルタイム情報を受信できます。単一のAPIエンドポイントを通じて、最新のデータの取得とコンテキスト認識のある応答が可能になり、開発者は最新の情報と一致するアプリケーションを構築できます。「業界は通常、オープンソースソリューションを1つに標準化しますが、通常これには数年かかります。OpenAIがより多くのプロトコルを導入しようとする可能性は高いですが、MCPが最初の標準として広く採用されれば、テクニックやベストプラクティスがそれを中心に標準化し始める可能性があります」と、Mendelsは述べています。 Anthropic MCPはコンテキストアウェアAI統合の標準になる可能性がありますか? MCPには潜在的な可能性がありますが、重大な課題にも直面しています。セキュリティが主な懸念事項です。AIシステムが機密性の高いエンタープライズデータにアクセスできるようにすることで、システムが暴走した場合に漏洩のリスクが高まります。また、すでに確立されたエコシステムに根付いている開発者がMCPを採用することを説得することは難しい可能性があります。 IT開発会社Making Senseのデータサイエンス部門長であるJD Raimondiは、「Anthropicは大きなコンテキストを生み出す実験のリーダーですが、モデルは精度が大幅に低下します。時間の経過とともに改善される可能性はありますが、パフォーマンス的には、速度を許容できる範囲に保つための多くのテクニックがあります」と私に話しました。 Anthropicは、MCPがAIのデータの取得とコンテキスト化を改善することを主張していますが、これらの主張を裏付ける具体的なベンチマークが不足している可能性があり、採用が妨げられる可能性があります。「AIツールの開発者、既存のデータを活用しようとするエンタープライズ、またはコンテキストアウェアAIの最前線を探索する初期採用者であっても、私たちと一緒にコンテキストアウェアAIの未来を築いてください」と、Anthropicは述べています。 開発者がMCPの機能をテストするにつれて、業界はこのオープン標準がコンテキストアウェアAI統合のベンチマークになるために必要なトラクションを獲得できるかどうかを見守ることになります。Mendelsは、標準化はAnthropicにとって賢い動きになる可能性があり、相互運用性を高め、チームがさまざまなツールの組み合わせを試して、ニーズに最も適したものを判断できるようにする可能性があると示唆しています。「現在、AIエコシステムの多くのプロセスが標準化されているとは感じられません。イノベーションが非常に速いことから、今日のベストプラクティスは来週には古くなっている可能性があります。MCPのようなプロトコルがコンテキストデータの取得を標準化できるかどうかは、時間が示してくれるでしょう」
感覚を持つロボットは、数十年間、科学フィクションの定番であり、魅力的で倫理的な疑問を提起し、人工知能の創造における技術的な障壁を照らしている。 テクノロジー界が現在達成している人工知能(AI)の多くは、最近のディープラーニングの進歩に感謝している。これにより、機械はトレーニング中に自動的に学習することができる。 このブレークスルーは、手間のかかる手動での特徴量エンジニアリングの必要性を排除する。これがディープラーニングがAIとテクノロジー革新において変革的な力として際立っている理由である。 この勢いを駆り立てて、Meta(Facebook、WhatsApp、Instagramの所有者)は、先進的な「タクタイルAI」テクノロジーで新しい領域に飛び込んでいる。 同社は最近、3つの新しいAI搭載ツールSparsh、Digit 360、Digit Plexusを導入した。これらは、人間の知覚に近いタッチ感覚をロボットに与えるように設計されている。 目標は、タスクを単に模倣するのではなく、人間が世界と交流するように、ロボットが周囲と積極的に交流できるようにすることである。 「タッチ」のサンスクリット語で「Sparsh」と命名されたSparshは、ロボットがリアルタイムで感覚的な合図を解釈し、反応できる一般的なエージェントAIモデルである。 同様に、Digit 360センサーは、ロボットのための人工指先で、針の突きや圧力の変化などの小さなタッチや物理的な感覚を知覚するのに役立つ。 Digit Plexusは、タクタイルセンサーをさまざまなロボット設計に統合するための標準化されたフレームワークを提供するブリッジとして機能し、タッチデータを取得して分析することを容易にする。 Metaは、これらのAI搭載ツールが、特に感度と精度が重要な医療などの分野で、人間のようなタッチが必要な複雑なタスクにロボットが取り組むことを可能にするだろうと考える。 しかし、感覚ロボットの導入は、より大きな疑問を提起する: このテクノロジーは、新しいレベルのコラボレーションを解放するか、または社会が対処できない複雑さをもたらすだろうか。 「ロボットが新しい感覚を解放し、高度な知能と自律性を獲得するにつれて、我々は社会における彼らの役割を考慮し始めなければならない」と、Ali Ahmed、Robomartの共同創設者兼CEOは私に語った。人間とロボットの調和のためのフレームワーク、将来?タクタイルAIの進歩とともに、Metaはまた、PARTNRベンチマークを発表した。これは、人間とロボットのコラボレーションを大規模に評価するための標準化されたフレームワークである。 計画、推論、コラボレーション実行を必要とする相互作用をテストするように設計されたPARTNRは、ロボットが構造化された環境と構造化されていない環境の両方で人間と一緒にナビゲートすることを可能にする。 これらの相互作用を導くための大規模言語モデル(LLM)を統合することで、PARTNRは、調整とタスク追跡などの重要な要素でロボットを評価し、単なる「エージェント」から人間のカウンターパートと一緒にスムーズに作業できる「パートナー」に移行することができる。 「現在の論文はベンチマーキングのために非常に限られている。また、自然言語処理(NLP)においても、LLMが現実世界で完成するまでに相当な時間がかかった。8.2億人の人口と限られたラボ環境で一般化することは大きな課題になるだろう」と、Ram Palaniappan、TEKsystemsのCTOは私に語った。 これらのタクタイルAIの進歩を市場に導入するために、MetaはGelSight Inc.とWonik Roboticsと提携した。GelSightは、来年発売予定のDigit 360センサーを製造することが予定されており、研究コミュニティに先進的なタクタイル機能へのアクセスを提供する。...
人工知能(AI)が進化するにつれて、そのエネルギー需要はデータセンターを限界まで追い込んでいます。次世代のAI技術であるジェネレーティブAI(genAI)のみならず、業界を変革しているのです。そのエネルギー消費は、CPUやメモリ、アクセラレータやネットワークなどのほぼすべてのデータサーバーコンポーネントに影響を及ぼしています。GenAIアプリケーション、たとえばMicrosoftのCopilotやOpenAIのChatGPTは、以前よりも多くのエネルギーを必要とします。2027年までに、これらのAIシステムのトレーニングとメンテナンスだけで、1年間で小さな国を動かすのに十分な電力を消費することになります。而且、この傾向は減速する兆しを見せていないことです。過去10年間で、CPUやメモリ、ネットワークなどのコンポーネントの電力需要は、2030年までに160%増加するというゴールドマン・サックスのレポートによるといます。大規模言語モデルを使用することもエネルギーを消費します。たとえば、ChatGPTのクエリは約10倍の電力を消費します。AIの巨大な電力需要を考えると、業界の急速な進歩は持続可能に管理できるのでしょうか。あるいは、さらに世界のエネルギー消費に貢献するのでしょうか。McKinseyの最近の調査によると、データセンター市場の需要の約70%は、先進的なAIワークロードを処理できる施設に向けられているようです。この変化は、データセンターが構築され、運営される方法を根本的に変え、ハイパワーのgenAIタスクのユニークな要件に適応させています。「従来のデータセンターは、老朽化したエネルギー消費の大きい機器や固定された容量で運営され、変動するワークロードに適応するのに苦労し、結果として大量のエネルギーが浪費される」と、分散クラウドコンピューティングプラットフォームAethirの最高戦略責任者兼共同創設者であるMark Rydonは私に話しました。「集中運用は、リソースの可用性と消費のニーズの間にバランスをとることができないため、業界は重要な局面に立たされている。AIの需要が増えるにつれて、進歩が環境目標を損なう可能性がある」業界のリーダーたちは今、この課題に直面しています。データセンターのためのよりグリーンな設計やエネルギー効率の高いアーキテクチャへの投資をしています。取り組みは、再生可能エネルギー源の採用から、genAIワークロードによって生成される大量の熱を相殺できる効率的な冷却システムの作成まで多岐にわたります。よりグリーンな未来のためのデータセンターの革命Lenovoは最近、データセンターの液体冷却技術における大きな進歩であるThinkSystem N1380 Neptuneを導入しました。同社は、この革新がすでに、組織がgenAIワークロード用の高パワーコンピューティングを、データセンターで最大40%少ない電力で展開できるようにしていることを主張しています。N1380 Neptuneは、NVIDIAの最新ハードウェア、BlackwellとGB200 GPUを活用し、コンパクトなセットアップで1兆パラメータのAIモデルを処理できるようにしています。Lenovoは、専用の空調なしで100KW以上のサーバーラックを動かすことができるデータセンターの道を切り開くことを目指しています。「現在の顧客から大きな要望がありました。データセンターはAIワークロードを処理する際に、旧来の冷却アーキテクチャや伝統的な構造フレームワークのために多くの電力を消費している」と、LenovoのAIグローバルディレクターであるRobert Daigleさんは私に話しました。「これをよりよく理解するために、私たちは高性能コンピューティング(HPC)の顧客と協力して、彼らの電力消費を分析し、40%のエネルギー使用量を削減できるという結論に達しました」。ファン電力や冷却ユニットの電力消費を、Lenovoのデータセンター評価サービスを通じて提供される標準システムと比較し、NVIDIAと共同で新しいデータセンター・アーキテクチャを開発したと彼は追加しました。イギリスを拠点とする情報技術コンサルティング会社AVEVAは、予測分析を使用して、データセンターのコンプレッサ、モーター、HVAC機器、エアハンドラーなどでの問題を特定しています。「ジェネレーティブAIの事前トレーニングで大量の電力が消費されることがわかりました」と、AVEVAのAIおよび高度分析責任者であるJim Chappellさんは私に話しました。「私たちの予測AI駆動システムを通じて、SCADAまたは制御システムが問題を検知する前に問題点を見つけることを目指しています。さらに、コントロールシステムとネイティブに統合されたビジョンAIアシスタントを提供し、熱画像カメラと組み合わせて使用することで、温度のホットスポットなどの他の種類の異常も検出できます」一方で、クラウド上のGPUを使用したAIトレーニングと開発のための分散コンピューティングが、代替手段として登場しています。AethirのRydon氏は、計算タスクをより広範で適応性の高いネットワークに分散することで、エネルギー使用を最適化でき、リソースの需要と可用性のバランスをとることができ、無駄を大幅に削減できることを説明しました。「大規模な集中型データセンターに頼るのではなく、計算タスクをデータソースに近いノードに分散することで、データ転送のエネルギー負荷と待ち時間を大幅に削減できます」とRydon氏は述べました。「Aethir Edgeネットワークは、ワークロードを単一の場所に集中させるのではなく、さまざまな環境に分散することで、常に高電力の冷却が必要となる集中型データセンターの需要を最小限に抑えることができます」同様に、AmazonやGoogleを含む企業は、データセンターの電力需要を管理するために、再生可能エネルギー源の実験をしています。Microsoftは、データセンターのエネルギー消費を削減するために、再生可能エネルギー源や効率性を高める技術に大量に投資しています。Googleも、データセンターでの電力使用を最小限に抑える冷却システムの探求や、カーボンフリーのエネルギーへの移行に取り組んでいます。「核エネルギーは、カーボンフリーのデータセンターへの最も迅速な道であると思われます。Microsoft、Amazon、Googleなどの主要なデータセンター提供者は、将来のためにこの種の発電に大量に投資しています。小型モジュラー・リアクター(SMR)では、柔軟性と生産までの時間が、ネット・ゼロを達成するためのより実行可能な選択肢となっています」と、AVEVAのChappell氏は述べました。AIとデータセンターの持続可能性は共存できるか?AIインフラストラクチャプラットフォームMinIOのCTOであるUgur Tigliさんは、AIが進化するにつれてエネルギー消費が大幅に増加する未来を望まないが、それが短期的には現実的ではないと述べています。「長期的な影響は予測が難しいですが、仕事の変化が起こり、AIがエネルギー消費の改善に役立つことになるでしょう」と彼は私に話しました。Tigli氏は、エネルギー効率が市場の優先事項になると、コンピューティングの成長と他の分野でのエネルギー使用の減少が見られるだろうと考えています。特に、他の分野がより効率的になるにつれてです。また、グリーンなAIソリューションに対する消費者の関心が高まっていることも指摘しました。「90%の効率で動作するAIアプリケーションが、半分の電力しか使用しないとしたら、それは本当に飛躍的な進歩となるでしょう」と彼は追加しました。AIの未来は、革新だけではなく、データセンターの持続可能性についても話し合う必要があることは明らかです。ハードウェアの効率性を高めたり、リソースの使用方法を賢くしたりすることで、AIのエネルギー消費をどのように管理するかが、データセンターの設計と運用に大きな影響を与えるでしょう。Rydon氏は、持続可能なデータセンター設計、エネルギー効率の高いAIワークロード、オープンなリソース共有に焦点を当てた業界全体の取り組みの重要性を強調しました。「これらは、よりグリーンな運用への重要なステップです」と彼は述べました。「AIを使用する企業は、環境への影響を減らすソリューションを作成するために、テクノロジー企業と提携する必要があります。協力して、AIをより持続可能な未来に向けて導くことができます」
LenovoのTech World 2024では、LenovoとMotorolaの両社が、消費者テクノロジーにおけるハイパーパーソナライゼーションの境界を押し広げることを目指して、画期的な人工知能(AI)イノベーションを発表しました。Lenovoは、AI Now」を発表しました。これは、MetaのLlama 3.1 AIモデルを基に構築されたジェネレーティブ人工知能(genAI)システムで、PCをスマート化し、パーソナライズされたデジタルアシスタントに変えることを約束しています。注目すべき機能は、ユーザーのプライバシーを損なうことなくハイパーパーソナライゼーションを実現することです。クラウドコンピューティングに依存するほとんどのAIシステムとは異なり、AI Nowはデバイス上にインタラクションを保存します。さらに、PC上で実行されるgenAIアシスタントは、システムハードウェアとローカル・ラージ・ランゲージ・モデル(Local LLM)によって動作します。これは、クラウドとのAIのやり取りを制限するだけでなく、インターネット接続なしでユーザーの問い合わせに応答を提供できる、一意のイノベーションです。同様に、Motorola(Lenovoの会社)は、「Moto AI」と呼ばれるgenAIアシスタントをプレビューしました。これは、スマートフォンをハンズフリーで操作できるように設計されています。ユーザーはボイスコマンドでデバイスを管理でき、」Catch Me Up」や」Pay Attention」などの機能により、個人的なコミュニケーションを要約したり、会話を書き留めたりできます。」Remember This」機能を使用すると、ユーザーはボイスとジェスチャーコマンドでライブの瞬間や画面上の情報をキャプチャできます。「私たちのエージェントAIパワードシステムは、ユーザーのコンテキストとメモリを保持しているため、情報を再度提示する必要なく、より自然で継続的なやり取りが可能になります。複数の従来の大規模AIモデルを7億パラメータの自律システムに圧縮することで、LenovoとMotorolaのエコシステム全体でハイパフォーマンスAIを提供しながらアクセシビリティを維持することを目指しています」と、楊元慶、LenovoグループCEOは私に話しました。」私たちの目標は、消費者デバイス内にユーザーごとにカスタマイズされた独自の知識ベースを開発することであり、操作するには技術的な専門知識は不要です」両社は、次世代のAIパワード消費者テクノロジーを推進するために、genAIに賭けています。しかし、これらのAIの進歩は、ユーザーのプライバシーを損なうことなく約束を果たすことができますか?新時代のアシスタント:機密データをAIに信頼できるか?LenovoのAI Nowは、ハイパーパーソナライズされたAI機能を提供し、ユーザーデータをユーザーのシステムハードウェア内にローカルに保存します。AIは、ドキュメントの要約、会議の書き留め、自然言語入力に基づくデバイス設定の調整など、インターネット接続なしで実行できます。このイノベーションは、CPU、GPU、NPUを組み合わせてAIシステムとユーザーのやり取りをローカルに動作させる独自のアーキテクチャによって推進されており、デバイス上に完全に保存されたパーソナル・ナレッジ・ベース(PKB)を作成します。AI Nowは、タスクを実行するだけでなく、コンテキストとメモリを保持するため、ユーザーは好みを再度提示する必要がありません。これにより、より自然で継続的なやり取りが可能になります。Lenovoは、ローカルLLMアーキテクチャは、」業界初のイノベーション」であると主張しており、データのプライバシーを保護しながら、パーソナライズされた消費者体験を提供できます。「AIの未来は、パーソナライズされたもの、プロアクティブなもの、予測可能なものです。AI Nowは、消費者向けのエージェントAIシステムを開発するための私たちの第一歩です。つまり、ユーザーの好みを知り、ユーザー独自の認知行動を理解し、自動的にユーザーに代わって作業する、強化された知能です」と、トルガ・クルトグル、LenovoのCTOは私に話しました。」これは、静的なチャットボット駆動のユースケースを超え、ユーザーの日常活動やPCとのやり取りデータに深く関与し、それらの洞察を処理し、消費者の生産性を高めるための実行可能な成果に変換します」MotorolaのMoto AIも、ローカルLLMとLAMテクノロジーの力を利用して、スマートフォンの日常タスクをストリームライン化しています。たとえば、写真を撮影すると、Moto AIはバックグラウンドで動作し、画像に関する重要な詳細やコンテキストを抽出します。単純なボイスコマンドで、いつでもその思い出を振り返ることができます。デモの際、Motorolaは、Moto AIがタッチスクリーン操作を必要とせずに人間のようなやり取りを模倣できることを実証しました。ユーザーは、」Uberを予約する」や」お気に入りのレストランで夕食を予約する」などのコマンドを話すだけで、AIがタスクを実行するのを目の前で見ることができます。インターフェースは、人間のスマートフォン操作を滑らかに模倣しています。Motorolaの革新的なアプローチでは、OpenAI、Stability AIなどの複数のAIモデルを統合して、AIが特定のタスクで優れたパフォーマンスを発揮できるようにしています。同社は、Moto AIを、AppleのSiriやGoogleのGeminiなどのAIアシスタントのトップレベルと競争できるように位置付けようとしています。ただし、Moto AIの注目すべき側面は、内部で通知、電子メール、メッセージを継続的に記録していることです。したがって、Moto AIは本当に消費者に安全ですか?プライバシー対便利性:これらのAIシステムはどれくらい安全ですか?これらのAIアシスタントの便利性は明らかですが、プライバシーの問題は依然として大きな懸念事項です。これは、電話のAIアシスタントがユーザーの個人的な生活について、ユーザーよりも多くのことを知っている可能性があることを示唆しています。消費者データのプライバシーに関する懸念に対応して、ジェフ・スノウ、MotorolaのAIおよびソフトウェアエクスペリエンス担当は、AIアシスタントがユーザーの機密データを電話自体に集中させていることを強調しました。「私たちは、AIパワードの電話が、ユーザーにとって強力な生産性ツールとなることを信じています。AIはアプリのデータに触れませんが、ユーザーの好みを記録することで、人間のアクションを操ります」とスノーは私に話しました。」私たちのAIへのアプローチは異なります。ユーザーが創造的であるのではなく、ユーザーがAIとどのように共同作業できるかについて、AIからユーザーに提案を提供できるようにします。現在、ベータ版であり、機能を介してユーザーの課題を解決することを計画しています」LenovoとMotorolaは、現在、AIパワードの便利性とプライバシー保護のバランスをとることに焦点を当てています。デバイス上のAIシステムは、強化されたパーソナライゼーションを提供しますが、AIアシスタントに対する公衆の信頼は、ユーザーがデータのセキュリティに自信を持ちているかどうかにかかっています。ユーザーは、完全に確実ではない自分の個人データが安全であるという保証なしに、便利性を受け入れるでしょうか。 この質問への答えは、AI駆動の消費者テクノロジーの未来を形作る可能性があります。