Connect with us

人工知能

自己を教えるAIはもう科学小説ではない

mm

新しいAIフレームワークは、革命的な飛躍に向かって進化しています。人間の洞察が不要な、自己改善するマシンです。

これまで、最も高度なAIモデルは、パッシブなエンジンのまま、トレーニングデータに基づいて応答を予測していました。しかし、今日、AIの次の章を定義するのは、モデルのサイズではなく、モデルの自己進化能力です。

最近、MITの研究者は、Self-Adapting LLMs (SEAL)という新しいAIフレームワークを発表しました。このアプローチにより、大規模な言語モデル(LLM)は、自己改善を実現し、AIは自身の限界を診断し、内部のフィードバックループを使用して、自己のニューラルウェイトを永続的に更新できます。研究者がエラーを特定したり、新しいプロンプトを書いたり、追加の例を提供したりする必要はありません。モデルの進化は完全に自己管理されています。

“大規模な言語モデル(LLM)は強力ですが、静的です。新しいタスク、知識、または例に応じて、自身の重みを適応させるメカニズムが欠けている”と、MITの研究者はブログ投稿で書いています。“知識の統合と少数샷の一般化に関する実験では、SEALは、新しいデータに応じて自己指向の適応が可能な言語モデルへの有望なステップであることを示しています。”

初期のテストでは、この自己編集ループにより、モデルの完全な失敗から複雑な抽象的な推論パズルへの成功に移行し、GPT-4.1などの大規模モデルを上回り、72.5パーセントの成功率を達成しました。さらに、SEALは人間の監視を85パーセント削減しながら、精度と適応性を向上させました。

自己教師型AIフレームワークの台頭

SEALは、自律的な機械知能へのより広範な傾向の一部です。Sakana AIの研究者は、Darwin-Gödel Machineを導入しました。これは、オープンエンドの進化戦略を使用して自身のコードを書き換えるAIエージェントです。

“これにより、さまざまな自己改善が可能になります。パッチの検証ステップ、ファイルの表示の改善、編集ツールの強化、複数のソリューションを生成して最適なものを選択する、 以前試したことのあるものの履歴を追加する(そしてなぜ失敗したのか)”と、Sakana AIはブログ投稿で書いています。

同様に、AnthropicのAIエージェントは、Claude 4によって動作し、コードベースとビジネスツール全体でワークフローを自律的にオーケストレーションできます。

“アセットの種類、環境、履歴に基づいて自己を再構成するシステムにより、反応的な対応から継続的な予防戦略への移行が可能になります”と、FracttalのCEO兼共同創設者であるChristian Struveは私に話しました。“重要なのは、モデルのサイズではなく、自律性と有用性です。”

これらの取り組みを結びつけるのは、AIがより賢くなるために大きくなる必要はないという共通の信念です。適応性を高める必要があります。

“スケーリングは大きな利益をもたらしてきましたが、サイズだけでは達成できる限界に近づいています。SEALのような自己適応型の学習モデルは、システムが時間の経過とともに成長し改善できるようにする、次の重要なステップを提供します”と、Datacoの創設者兼CEOであるJorge Rieraは私に話しました。“自己進化型モデルは、静的なベンチマークから適応性、学習効率、安全な長期的な改善の尺度への進歩を示します。モデルの知識をテストするのではなく、モデルの学習、保持、進化を時間の経過とともに評価できます。”

AIエコシステムと自律性への世界的な競争への影響

このレベルの自律性は、AIの展開の経済学を書き換えます。新しい脅威に対して瞬時に自己を更新する不正検出システムや、生徒の行動に基づいて教え方を変更するAIチューターを想像してみてください。ロボティクスでは、自己適応フレームワークにより、再プログラミング不要で新しい動き方を学習できる自律マシンが実現します。

中東では、UAEやサウジアラビアなどの国が、適応性を目的とした基礎モデルを急速に構築しています。UAEのFalconG42のJaisは、地域の関連性を念頭に置いて構築されたオープンソースのLLMです。一方、サウジアラビアのALLaMやAramco DigitalのMetabrainは、スマートシティ、ヘルスケア、物流などの分野で自律的なAIエージェントを推進しています。

これらの取り組みはまだ、MITのSEALの自己編集機能に相当するものではありませんが、共通の軌道を反映しています。パッシブなAIシステムから、人間の指導が限られた、複雑さをナビゲートできる自己進化型エージェントへの移行です。SEALと同様に、これらの取り組みは、強力なガバナンスフレームワークによって裏付けられており、AIの自律性は責任とともにペアされるべきであるという認識が高まっています。

“これは、自己管理システムが、常に介入することなく、自身のロジックを変更できる最初のステップです”とStruveは話しています。“私は、人工知能が知能を再定義するのではなく、我々がそれとの関係を再考えることを強いられるのです。重要なのは、モデルの進化ではなく、我々が定めた目標に沿った進化であることです。”

Gorilla LogicのCTOであるJeff Townesも、AIの進化に合わせてガバナンスを進めることの重要性を強調しています。“AIが進化するかどうかという問題ではなく、企業がそれに合わせて進化できるかどうかです。ガバナンスは、AIの適応を明確な成果とKPIに結び付け、リーダーが測定して信頼できるようにしなければなりません。そうすれば、イノベーションは自信を持ってリスクではなく進むことができます。”

自己書き換えAIに備えているか

SEALが提起する最も挑発的な質問は、技術的なものではなく、モデルの自己教師型能力がどのようにしてその価値観、優先順位、方向性を形作るのかというものです。

専門家は、自己適応型AIシステムが自律性を獲得するにつれて、自己改善への急速な進歩が、倫理的なガイドラインの確立を上回ってはならないと警告しています。“全てのAIシステムには、少なくとも3つの基本的な倫理原則を組み込まなければならない”と、KryterionのCTOであるJacob Evansは話しています。

“第一に、AIは自身がAIであることを特定できなければなりません。第二に、AIは人間中心でなければなりません。人間の判断を補完し、置き換えるものではありません。第三に、自身の限界と不確実性を認識し、重大な損害をもたらす可能性のある情報を提供しなければなりません。こうした安全対策がなければ、AIは操作のツールではなく、信頼できるサポートになる可能性があります。”

“生産環境でモデルを自己改善できるようにするには、静的なトレーニングではなく、ダイナミックなフィードバックループが必要です。強力な方法の1つは、‘デジタルツイン’または高度なサンドボックス環境を使用することです。ここで、AIは、ユーザーに展開される前に、自身の自己生成された改善を安全にテストおよび検証できます”と、AutomotusのコンピュータビジョンエンジニアであるGanesh Vanamaは話しています。

ガバナンスについて、Vanamaは、“人間がループ内にいる”監視は不可欠であると付け加えました。“自己適応型モデルを望むのですが、‘整合性のズレ’を検出するために、継続的な監視が必要です。ここで、モデルは目標や安全性の制約から逸脱します。このシステムは、人間の監査員に、安全性またはパフォーマンスのレビューに失敗したあらゆる自律的な更新を拒否または即座にロールバックできる力を与える必要があります。”

しかし、他の専門家は、まだこれらの安全対策を開発する時間があると主張し、真正な、汎用的な、自己改善型AIを構築することは依然として大きな課題であると述べています。

“これらのモデルはまだ、信頼性を持ってリアルタイムで自身を再プログラミングする能力が欠けています。エラーの強化を防ぐこと、カタストロフィックな忘却を避けること、更新時の安定性を確保すること、内部の変更についての透明性を維持することが、依然として重要な課題です”とRieraは話しています。“これらが解決されるまで、完全な自己指向型適応は、現実ではなく、フロンティアです。”

MITの研究者は、SEALを必要な進化と見なしています。MITのリード科学者は、このフレームワークは現在、人間の学習を過去にないほど正確に反映しているという見解を示しています。

“これらのシステムは、静的で一回限りのモデルから、経験から学び、メモリを管理し、時間の経過とともに目標を追求できる適応型アーキテクチャへの移行を示唆しています。方向性は明確です。モジュラーで、コンテキストに応じた知能が、継続的に自己を調整できるものへの移行です”とRieraは私に話しました。“まだ実験段階ですが、このアプローチは、より自律的で堅牢なAIシステムへの有意義なステップを示しています。”

これがより個別化されたシステムや、まったく新しいタイプのマシンエージェンシーにつながるかは、まだ見ていく必要があります。自己教師型AIの時代が到来しました。それは、自身のコードだけではなく、機械が何になるかというルールを書き換えています。

Victor Deyは、エンタープライズ分野におけるA.I.、暗号化、データサイエンス、メタバース、サイバーセキュリティを扱うテクノロジー編集者およびライターです。彼は、VentureBeat、Metaverse Post、Observerなどの有名メディアで5年以上のメディアおよびAIの経験を持っています。Victorは、オックスフォード大学や南カリフォルニア大学などのトップ大学のアクセラレータープログラムで学生起業家を指導しており、データサイエンスおよび分析の修士号を保持しています。