

イノベーションは、孤立して生まれることは稀だ。多くの場合、技術がどこに向かっているのかを理解しようとするエンジニア、創業者、研究者、投資家たちの対話の中から生まれる。私は1年の間に、世界中で数十のカンファレンスに参加した。出張は時に数ヶ月に及び、パートナーやクライアントとのミーティングはアジアから北米まで及ぶ。しかし、最近のスイスへの出張は、そこで出会った人々と交わされた会話のため、特に興味深いものとなった。チューリッヒは、ロボティクスとPhysical AIの未来が今日、活発に議論されている場所の一つであることが証明された。そして、これらの議論が深まるほど、ロボティクスにおける真の競争がデータを巡って展開されていることが、より明らかになる。ヨーロッパのシリコンバレーチューリッヒは伝統的に金融セクターと結びつけられてきたが、近年では「ヨーロッパのシリコンバレー」と呼ばれることが増えている。この評判の多くは、ヨーロッパで最も尊敬される工科大学の一つであるETH Zurichに結びついている。同大学は世界中から研究者、博士課程の学生、起業家、エンジニアを惹きつけている。その結果、大学を中心に強力な技術エコシステムが形成され、研究、スタートアップ、産業プロジェクトがほぼ同時並行で進化している。私の出張の理由の一つは、2025年初頭から活況を呈しているロボティクス市場に対してIntrospectorが何を提供できるかをより深く理解することだった。これは、幅広いスタートアップが参入を試みている一方で、大手テック企業の技術的ブレークスルーが積極的に再構築している業界である。しかし、このような勢いにもかかわらず、この分野は未だに答えよりも多くの疑問を投げかけている。チューリッヒには、私たちのパートナーであるLightlyも拠点を置いており、彼らはロボティクス、コンピュータービジョン、AIの交差点で働く仲間を紹介してくれた。この地の技術エコシステムの重要な側面として強調したいのは、ここにいる人々が非常にオープンで歓迎的だということだ。彼らは自分のアイデアや仮説、解決しようとしている課題、実行している実験について話すことを恐れない。その結果、市場の真の文脈と業界の方向性をはるかに早く理解し始めることができる。ちなみに、ヨーロッパの「シリコンバレー」がアメリカのものとどう違うかと聞かれると、その答えはしばしば人々を驚かせる。チューリッヒでは、仕事と生活のバランスがはるかに強く感じられる。朝にスポーツをし、日中は落ち着きながらも生産的なリズムで集中して仕事をし、夜は家族と山で過ごしたり、単にリラックスしたりする。サンフランシスコでは、常に自分が他の誰よりも懸命に働いていることを証明する必要があるような感覚がしばしばある。チューリッヒでは、ペースが異なる――より持続可能なのだ。しかし、ここでの技術的野心のレベルは決して低くない。より良いロボットの前に、より良いデータこの出張からの主な気づきの一つは、かなり単純な観察だった。今日、多くの人々がロボティクス分野で働きたいと考えている。しかし、業界への膨大な関心にもかかわらず、多くのチームはまだ探求段階にあり、ロボティクスとPhysical AIの新たな波の中で自分たちがどのような役割を果たせるのか、どのような貢献ができるのかを理解しようとしている。多くの会話は最終的に同じトピックに収束する。データだ。今日、業界は器用さを要するタスク、すなわち微細運動技能に関するデータを欠いている。この分野では、ロボットの能力は依然として極めて限られている。人間が手を使ってほとんど自動的に行うこと――物を拾い上げる、回す、注意深くどこかに置く、あるいは小さな操作を実行する――は、ロボットにとって最も困難なタスクの一つであり続けている。ここでの進歩の鍵は、主に大規模で適切に収集されたデータセットにある。今日、人々はしばしば、一人称視点から記録されたエゴセントリック(自己中心)データセットについて話す。これは、システムが人間の行動を、あたかも自分自身が実行しているかのように捉えるものだ。しかし、実際には、「エゴセントリックデータセット」という概念そのものが非常に異なる意味を持ち、多くの技術的疑問を提起することが判明している。カメラはどこに設置すべきか?額、胸、それとも目の高さか?ビデオ録画に伴うべきセンサーは何か?手の動きを捉える場合、オペレーターは特別な手袋を使用すべきか?もしそうなら、その手袋には触覚センサー、ジャイロスコープ、その他のモーション・トラッキング・システムを含めるべきか?さらに複雑な疑問が生じる。動きの深さを適切に捉える方法だ。結局のところ、手の位置を二次元平面で理解するだけでなく、それが三次元空間をどのように動くか――前後、上下――を理解することが重要だからだ。これまでのところ、業界は統一された答えに達していない。そのため、今日多くのチームが、異なるセンサー構成、記録方法、データセット形式を実験している。マルチモーダル・システムロボティクスのためのデータ収集の話題になると、すぐに別のトピックが浮上する――追加のセンサーとマルチモーダリティだ。これらは、身体の動き、手の動作、物体との相互作用をより高い精度で捉えることを可能にし、データセット収集時のエラーを減らすのにも役立つ。人が自分の行動をカメラで記録する場合、素材の一部が使用不能になるリスクが常にある。カメラがわずかにずれる、撮影角度が不適切、オペレーターが誤って間違った方向を向く、あるいはオペレーターが動きを速すぎる速度で実行する可能性がある。その結果、記録された素材のかなりの部分が破棄される。簡単な例:1時間の真に使用可能な映像を得るために、オペレーターはしばしば約2時間の生の映像を記録する必要がある。追加のセンサーは、これらの問題の一部を補うのに役立つ。カメラがわずかにずれても、センサーデータによって手の動きや身体の空間内での位置を再構築することが可能になる場合がある。その結果、2時間の記録の代わりに、同じ量の使用可能なデータを得るのに約1時間20分かかるかもしれない。これはデータセット収集の効率を大幅に高め、作成コストを削減する。したがって、多くのチームがマルチモーダル・データ・アノテーションへの関心の高まりにも気づいているのは偶然ではない。これは、ロボティクスとエンボディードAIの発展に直接結びついた、より目に見えるトレンドの一つとなっている。次のポイントは、そのようなデータセットのラベリングだ。Keymakrでは、ロボティクス案件のクライアントデータセットを扱う際に、同様の疑問に直面した。実際には、そのようなアノテーションはどのようなものになるべきか?骨格的なものか?二次元か三次元か?パイプラインに強化学習の要素を組み込むべきか?そのような疑問は数十ある。エンジニア自身が、どの特定のデータ構成が最終的に真の技術的ブレークスルーにつながるかを、まだ誰も確信を持って言えないことを認めている。これらの懸念は理解できる。複雑なデータセットを構築するのは高価なプロセスだ。データ構造のあらゆる間違いが、数千、場合によっては数百万ドルのコストになり得る。「間違った」データセットを収集したり、現実世界で再現が難しい条件下で記録したりすることで、最終的にプロジェクト全体を損なう可能性がある。まさにそのため、今日、モデル自体と、それらのモデルが学習するデータの品質とアーキテクチャの両方に、ますます注目が集まっている。市場が必要とするロボットとは?自動車の組立ラインで何十年も稼働してきた従来型の産業用ロボットは、実際にはコンピュータービジョンや複雑なAIモデルをほとんど必要としない。彼らのタスクは極めて特化的だ。厳密に反復的な動き――左、右、上、下――を高い精度と一貫性で実行すること。この分野では、彼らはとっくに人間を凌駕している。全く異なるカテゴリーがヒューマノイドロボットだ。これらのシステムには「頭脳」が必要となる。空間をナビゲートし、周囲の環境を知覚し、状況の文脈を理解し、事前にプログラムされた軌道ではなく、現実世界に適応してマニピュレーターを制御する能力だ。現代の工場現場の自動化レベルが高いにもかかわらず、多くのタスクは依然として人間によって実行されている。物体を動かす、箱を拾う、部品を仕分ける、部品を固定する、材料を整理する――これらは柔軟性と協調性を必要とする小さな動作だ。この領域は、自動化が最も難しい分野の一つであり続けており、まさにここでヒューマノイドシステムがその役割を見いだすかもしれない。私が話をした多くのチームは、似たようなビジネスモデルを使用している。彼らは工場にアプローチし、特定の生産ケースを解決することを提案する。例えば、作業員が一日中、倉庫のゾーン間で箱を移動しているかもしれない。エンジニアは比較的単純な実験を提案する。作業員にカメラと一連のセンサーを装備させ、何千時間もの彼らの行動を記録し、このデータを使ってヒューマノイドロボットを制御するモデルを訓練する。このようにして、ロボットは人間の作業員が実行するタスクを正確に実行することを学ぶ。本質的に、企業はヒューマノイドプラットフォームを購入し、開発チームは特定のオペレーターの行動を再現するカスタムモデルを構築する。これは、あらゆるタスクを解決できる汎用知能ではない。むしろ、特定のシナリオまたは生産タスクのグループのために訓練された一連のスキルだ。今日、多くのエンジニアにとって、このアプローチの方がはるかに現実的に見える。すぐに汎用ロボットを作ろうとする代わりに、チームは狭いが経済的に実行可能な自動化シナリオに焦点を当てる。ビジネスの側面もし未来がカスタムモデルにあるなら、経済的な観点から見て、これはかなり長い開発の道のりであることを理解することが重要だ。各業界は本質的に独自の世界である。あらゆる生産環境には、独自のプロセス、ワークフロー、例外がある。自動車工場で動作するように訓練されたロボットを、食品製造や倉庫物流に単純に移すことはできない。それぞれの場合において、システムは一から再訓練されなければならない。これは次の論理的な疑問につながる。そのような技術の最初の顧客は誰になるのか?この段階では、主な採用者はおそらく大企業になるだろう――予算を持ち、自動化が意味のある経済的効果を生み出すことができる企業だ。今日、ヒューマノイドロボットのハードウェアだけでも、およそ6万ドルから9万ドルのコストがかかる。これは基本構成に過ぎない。その上に、メンテナンスコスト、バッテリー、充電ステーション、インフラ、ソフトウェアが加わる。その結果、そのようなシステムを実験できる能力が最も高いのは、大規模組織、自動車メーカー、食品企業、主要な産業企業となる。もちろん、より小規模なセクターでも、一部の早期採用者が現れるかもしれない。一部の企業は、特定のタスクのために1、2台のロボットを購入する可能性がある。しかし、ほとんどの場合、これらの企業は、非常に特化した運用シナリオのためにシステムを訓練するために必要なカスタムデータセットの収集とアノテーションに数十万ユーロを投資する準備が単にできていない。彼らにとって、人的労働は依然としてより安価な選択肢である。ロボティクス・イノベーションの長期的なゲーム私たちは最終的に、根本的な経済的疑問にたどり着く。人間とロボット、どちらがより効率的か?今日の経済を見れば、答えは明らかだ。人的労働はより安価で、新しい条件により迅速に適応し、複雑なインフラを必要としない。では、なぜ業界は今日もロボティクスに投資し続けるのか?その答えは、主に戦略的なものだ。多くの企業は、一種の技術的リーダーシップを巡る競争が進行中であることを理解している。彼らは、ロボティクスの経済性が変化したときに先んじるために、高コストにもかかわらず、すでにソリューションを開発している。電子機器が進歩し、部品コストが低下し、計算効率が向上するにつれて、ロボティクスは必然的に手頃な価格になっていく。そして、その時が来れば、すでにモデルを構築し、データを蓄積し、必要な技術インフラを確立している企業が優位に立つ。例えば、製造業でのヒューマノイドロボットの大規模使用を可能にする新たな規制が登場したと想像してみよう。あるいは、政府が産業のロボット化に補助金を出し始めたとしよう。そのようなシナリオでは、市場はわずか数年で劇的に成長する可能性がある。そして、事前に準備をし、既存のモデル、研究、データセット、そして準備の整った技術スタックを持っている者が、最も利益を得ることになる。だからこそ、ビジネスの経済性がまだ理想的に見えないにもかかわらず、開発は今も続いているのだ。多くの企業にとって、それは未来への投資である――技術がよりアクセスしやすくなり、需要が急増する瞬間への投資だ。そして、この競争においては、多くの技術革命と同様に、一つの要因がしばしば決定的であることが証明される。誰がより早く始めたか。この意味で、今日のロボティクスは、人工知能の初期段階に強く似ている。当時も、答えよりも多くの疑問があった。しかし、最終的に業界全体の方向性を形作ったのは、他よりも早くデータとインフラに取り組み始めたチームだった。


物理AIは、印象的なデモンストレーションから工学的現実へと急速に移行しつつある。かつてその能力に主に注目が集まっていたならば、今日ではスケーラビリティの問題がますます緊急性を帯びている。つまり、何がこれらのシステムの真に広範かつ信頼性の高い普及を阻んでいるのだろうか。物理AIとヒューマノイドロボティクスは現在、工学的、認知的、投資関連という3つの主要な課題の交差点に立っている。物理世界で動作する知能は、ソフトウェアベースのAIとは根本的に異なる要件を課す。ここでは、ミスが高くつき、環境は予測不可能なままである。だからこそ、会話は「わあ」という驚きの効果から、具体的な技術的、市場的、規制的障壁へと移行しているのだ。考えることを学ばなければならないメカニズム最初の課題は微細運動技能である。我々は非常に精密な微小動作を実行可能なモーターやサーボを有している。しかし、小さな物体を扱う際の人間の感度、柔軟性、瞬時の適応能力を再現することは並外れて難しい。人間の手は、力、角度、速度、軌道を無意識に調節する。すべてが一瞬のうちに行われ、わずかな変化にも常に調整される。第二の課題は、バランスと力の制御である。ロボットは、異なる形状、重量、質感の物体(リンゴ、グラス、宝石、金属部品、濡れたものや滑りやすいもの)と相互作用しなければならない。ロボットは大きな物理的強度を持つかもしれないが、その強度を正しく計算し適用できなければならない。これには触覚センサー、つまり圧力、抵抗、表面接触を「感じる」ことを可能にするシステムが必要である。同様に重要なのは、力を検出するだけでなく、特定の行動の文脈内でそれを適切に解釈することだ。これは物体の物理的特性(材料の抵抗、弾性、摩擦、その他のパラメータ)を理解する問題となる。もう一つの深刻な課題は、空間的定位、いわゆる6D表現である。これはSF的な意味での「6次元世界」を指すのではなく、3つの位置座標(高さ、幅、奥行き)に加え、3つの方向座標(各軸に沿った回転角度)を指す。例えば、チューブやグラスは3次元物体である。しかしロボットにとって、その座標を知るだけでは不十分だ。物体の向き、重力に対する相対的な位置、そしてマニピュレータが回転する際にその位置がどのように変化するかを理解しなければならない。ロボットがグラスを持ち上げ、そこから水を注ぎたい場合、単に「物体を傾ける」だけでは済まない。内部の液体、その慣性、重力を考慮しながら、正確な軌道、角度、回転速度を計算する必要がある。これらすべてには、洗練された空間モデリングと行動の結果の予測が要求される。市場が依然として慎重である理由ヒューマノイドロボティクスの文脈で物理AIを考える際には、依然として顕著な懐疑主義のレベルを認識することが重要である。この懐疑主義の一部は心理的なものである。不気味の谷効果(何かがほとんど人間のように見えるが、十分に現実的ではないときに生じる)は、不快感と不安を生み出す。不自然な表情、わずかに硬直したまたは「ぎこちない」動き、機械的なイントネーション、これらすべてが感情的な抵抗を生む。そして、不安を引き起こす技術は、採用がより遅くなる傾向がある。しかし、主要な障壁は経済的なものである。投資家は、企業が何十年にもわたって印象的なプロトタイプを披露してきたにもかかわらず、スケーラブルな商業モデルは限られたままであることを見ている。技術的進歩は明らかだが、持続可能な大衆市場はまだ完全には出現していない。Boston Dynamicsのようなプレイヤーは工学的傑作を構築するが、その応用は依然としてニッチで高価である。Teslaは独自のヒューマノイドプロジェクトを開発中だ。Figure AIのような新興企業は、製造、物流、介護産業向けのロボットを約束し、多額の投資を集めている。製造業は、この文脈において明らかな方向性である。ロボット化は、「もしも」ではなく、展開の「速度とコスト」の問題だ。さらに明確な例は、物流と倉庫管理である。物流ロボットは、今日のロボティクスの中で最も収益性が高く、広く採用されているセグメントの一つとなっている。私は、Keymakrで、多くの物流会社がそのような技術を導入しながらアノテーションサービスを求めて我々に接触し、さらにそれを拡大する野心的な計画を持っていたことを覚えている。世界のEコマースの規模は、膨大な量の商品を高速かつ高精度で移動させることを要求する。人間は物理的にそのペースで作業することはできない。その結果、倉庫の自動化は「ホット」な話題となり、自律プラットフォームが経路を移動し、仕分け、輸送、荷物を配布するという産業全体が生まれた。それにもかかわらず、業界の多くはパイロット段階に留まっており、野心的な約束をしている。企業は依然として、予測可能な収益化をもたらす説得力のあるユースケースを模索している。投資家は、その見返りとして、投資回収までの時間、技術的リスク、工学的課題の規模を評価する。だからこそ、市場は漸進的に発展しているのだ。この分野の資本には、ビジョンだけでなく、実証済みの経済性が求められる。リスクがアーキテクチャの一部となる別の議論の層は、規制とサイバーセキュリティに関するものである。物理AIの包括的な規制枠組みは、まだ完全には形成されていない。業界はまだ形成段階にある。成熟した標準はなく、日常環境での広範な普及はなく、確立された認証プロトコルもない。規制は必然的に出現するだろうが、他の技術サイクルと同様に、それはスケーリングの結果となるだろう。今、さらに重要なのは別の質問である。物理的自律性を獲得するシステムへの信頼だ。家庭、倉庫、または重要インフラ施設内のロボットは、センサー、カメラ、マイク、通信チャネルを備えたネットワークノードである。その動作はソフトウェアとアップデートによって決定される。そして、たとえロボットが当初、安全な行動のみを実行するようにプログラムされていたとしても、サイバー脅威の可能性は残る。保護が不十分であれば、悪意のある行為者が理論的にはデバイスのネットワークにアクセスを獲得し、それを有害な目的に使用しようと試みる可能性がある。自律走行車やロボットネットワークのハッキングを含むシナリオは、すでに想定されている。それらは、かつて銀行システム、インターネット、クラウドサービスで起こったことと同様に、リスク評価の一部として扱われている。しかし、歴史が示すように、技術的進歩は脅威のために止まることはほとんどない。代わりに、業界は標準を確立し、監視を実施し、多層的なセキュリティシステムを構築することで保護を強化する。物理AIも同じ道をたどるだろう。問題は、リスクが生じるかどうかではなく、セキュリティがいかに迅速にエコシステム全体に組み込まれるかである。その周りに産業が築かれつつある前述したすべての課題、技術的、市場的、規制的なものは、一つの重要な特徴を共有している。それらはどれも、孤立して解決することはできないということだ。物理AIは、単独の製品として、あるいは単一の技術としてさえ見なすことはできない。我々が目撃しているのは、ハードウェア、コンピューティング、エネルギー、データ、材料が同期して進化する、インフラ全体の形成である。そしてまさにここで明らかになる。これは新しい産業エコシステムの出現なのだ。ロボットは自律的で移動可能である。これは、クラウドのみに依存できないことを意味する。サーバークラスターで動作するLLMとは異なり、物理的知能はローカルで、リアルタイムに意思決定を行わなければならない。これはチップの要件を根本的に変える。それらは強力で、エネルギー効率が高く、エッジデバイスでの推論に最適化されていなければならない。これは、次に、幅広い新たな開発分野を生み出す。ロボティクス向けの高エネルギー効率チップ、エッジ展開向けのコンパクトで最適化されたAIモデル、そのようなモデルを訓練するためのプラットフォーム、データアノテーションシステム、そしてIntrospectorで我々が行っているような専門的なデータセットの準備、さらにバッテリーと自律電源システムの進歩。ロボットが自身のバッテリーを交換するというコンセプトは、すでに議論されている。消耗したモジュールを取り外し、充電器に置き、システムを完全にシャットダウンすることなく充電済みのものを接続する。これだけでも、独立した市場となり得る。物理AIの周りには、包括的な産業が徐々に形を成しつつある。コンピューティングとエネルギー以外に、材料科学も進化する必要があるだろう。皮膚を模倣した合成コーティング、柔軟なセンサー表面、人間との相互作用のための安全で触感の良い材料。ロボットが人間と共に動作するならば、その外観と物理的特性は、ユーザーの知覚と技術への信頼の一部となる。この意味で、物理AIとは、チップやバッテリーからセンサー、ソフトウェア、材料、人間の知覚要因に至るまでの、技術スタック全体に関するものだ。この複雑さの中に、未来の産業の真の規模が横たわっている。


今日、AI業界に関わる誰もがPhysical AIについて語っています。この用語は、ニッチな議論から急速に主流の議題へと移行しました。例示すると、NVIDIAはその戦略の中心にPhysical AIを据えています——新しいロボティクスモデルやシミュレーションフレームワークから、自律機械専用に設計されたエッジコンピューティングハードウェアに至るまで。兆ドル規模のインフラ企業が自社の製品ロードマップをある概念を中心に再編成し始めるとき、それは一つの方向性となります。では、Physical AIとは一体何なのでしょうか——新しい技術なのか、それともパラダイムなのか?そして、この二語の背後には正確に何が潜んでいるのでしょうか?古くて新しいもの世界的に考えてみると、Physical AIは常に存在してきました。ロボティクスや自律システムに関わるすべては、本質的にこの定義に含まれます。1960年代には、人工知能の要素を用いて制御される車両が既に登場していました。今日の基準からすれば、それは極めて原始的なコンピュータビジョンシステムでしたが、その車両は「見た」ものに基づいて動きを調整できました。それがPhysical AIの最初の現れの一つでした。自律性と環境知覚を組み合わせたあらゆるロボティクスシステムは、Physical AIです。簡単に言えば、物理世界を分析・理解し、その後、意思決定と行動を起こすための人工知能の応用です。だからこそ、根本的に新しい技術について話しているわけではありません。自律機械は長い間存在してきました。さらに、火星探査車を含む宇宙船も、同じ基本原理で動作しています:コンピュータビジョンシステムを搭載し、空間を航行し、地表を移動し、サンプルを収集します。これらすべてがPhysical AIの形態を表しています。2026年に変わったのは、注目の焦点です。用語そのものが人気を博しました。市場は、議論と投資関心を形成できる概念である、新しい「ヒーロー」を常に必要とするように構成されています。かつては、その焦点は暗号通貨でした。その後、スマートコントラクトが登場しました。本質的には同じアイデアの発展形ですが、より投資家に好まれる新しい名前の下で。それは既存技術を再パッケージ化し、新たな関心の波を引き起こす方法でした。Physical AIでも同様のことが起きています。用語自体は新しいものではありませんが、今日、新たな関連性、新たな輪郭、そして発展のベクトルを得ました。私たちはコンピュータに話すこと、テキストを生成すること、さらには推論を模倣することを教えてきました。自律走行車は何年もドライバーなしで走行しています:TeslaのFull Self-Drivingシステム、Waymo、Zooxが乗客を輸送し、自律トラックは実環境でテストされ、運用されています。この分野の多くの課題は既に解決されているか、高度に成熟しています。一方で、ロボットは依然として、衣服をきれいに畳んだり、食器洗い機に食器を詰めたりするような、単純な日常作業を確実に実行できません。そして、市場は新たな成長点——未解決の問題が残り、まだスケールの余地がある領域——を探し始めます。この文脈において、Physical AIという用語は、知性が画面を超え、現実の物理世界で行動し始める技術発展の次の段階を記述するための便利な枠組みとして機能します。テックジャイアンツの論理マクロな視点で見ると、Physical AIへの注目が高まっているのは偶然ではないことが明らかになります。NVIDIAの歴史はその好例です。同社はゲーム用のグラフィックスプロセッサから始まりました。後に、そのチップは暗号通貨ブーム時のマイニングの基盤となりました。その後、同じ計算能力が深層ニューラルネットワークの学習に不可欠であることが証明されました。それぞれの新しい技術サイクルが、ハードウェアへの需要を強化してきました。しかし、ニュアンスがあります。技術が最適化され始めると、過剰な計算能力への需要は次第に減少します。LLMはより効率的になっています。中国企業は、強力なモデルを大幅に低コストで学習できることを実証しています。インフラメーカーにとって、これは警告信号です。もしモデルがよりコンパクトで安価になり、推論がエッジデバイスに移行し、学習がより最適化されるなら、市場はもはやサーバー容量の指数関数的な成長を必要としません。つまり、新しいドライバーが必要だということです。Physical AIはこの役割に完璧に適合します。純粋にソフトウェアベースのモデルとは異なり、Physical AIはセンサーの統合、リアルタイム処理、データストリームの処理、シミュレーション、継続的な実験を必要とします。ロボットは「幻覚」を見ることはできません——テキストの誤りは無害ですが、マニピュレーターの動作の誤りは機器を損傷したり、人間に怪我を負わせたりする可能性があります。これは、信頼性要件と計算負荷の全く異なるレベルを表します。例えば、私たちはIntrospectorで、高品質なデータとエッジケースの重要性を十分に認識しつつ、これに大いに取り組んでいます。要約すると、ある技術サイクルが成熟に近づくと、資本は次なるサイクル——より複雑で、構造化されておらず、潜在的にスケーラブルなもの——を探し始めます。世界のテックジャイアンツは、この新たなサイクルに投資し、それを積極的に推進し、それに関するナラティブ、エコシステム、標準を形成するためのリソースを持っています。ロボティクスの未開拓フロンティア過去10年間の技術市場を注意深く見ると、ほぼすべての主要なAI領域で、支配的なプレイヤーの中核グループが既に出現していることが明らかになります。LLMでは、エコシステム全体を支える一握りのグローバルプラットフォームがあります。自律輸送では、限られた企業の輪がセンサー、地図、車両群、インフラに数百億ドルを投資しています。スマートフォンでは、それは本質的に閉鎖的なクラブです。スタートアップは本質的に、アーキテクチャがまだ固まっていない領域を探します。投資家は指数関数的成長の可能性がある市場を探します。そして、ある領域が成熟に近づくやいなや、注目は必然的に、確立された構造がなく、標準がまだ固定されておらず、ゲームのルールをまだ定義できる場所へと移行します。この意味で、ロボティクスは真の未開拓フロンティアのように見え、数百の潜在的な応用があります。家庭用アシスタント、小売業のサービスロボット、倉庫自動化、農業、建設、医療支援、高齢者介護。これは単一の市場ではなく、一つの広範な技術レイヤー内の数十の市場です。重要な違いは、まだ単一の支配的なアーキテクチャが存在しないことです。Physical AIのための普遍的な「オペレーティングシステム」はなく、標準化されたセンサー構成もなく、テンプレートを使って単に微調整してスケールできる確立されたモデルのセットもありません。各チームは、本質的に、知覚、ナビゲーション、操作、バランス、人間とのインタラクションといった根本的な問題を一から解決しています。そして、それがまさに魅力なのです。今日のロボティクスは、境界線がまだ引かれていない領域です。だからこそ、それは再び大きな市場となっているのです。すべてはB2Bから始まる今日、私がロボティクスについて話す多くの専門家は、次の発展の波はB2Bセグメントから始まると確信しています。産業界は常に新しい技術を最初にスケールさせてきました——経済性が明確で、プロセスは非常に繰り返し可能であり、結果は測定可能だからです。同時に、産業用ロボティクスは長い間存在してきたことを覚えておくことが重要です。私たちは皆、いわゆる「ダークファクトリー」、つまりほとんど人がおらず、したがって照明も必要ない施設を知っています。生産ラインは完全に自動化されています:ロボットマニピュレーターが組み立て、移動、溶接、包装を担当します。自動車産業は最も顕著な例の一つです。TeslaやToyotaのような企業は毎年何百万台もの車両を生産しています。そのような規模が深いロボット化なしには不可能であることは明らかです。コンベアベルトが車両部品を運びます。ロボットアームは降下し、物体をつかみ、持ち上げ、コンテナに置かなければなりません。固定された一連の動作を単にプログラムすることができます:降下、把持、上昇、移動、解放。物体がなくても、アームは事前に定義されたサイクルを実行します。それが自動化です。AIは、推論——不確実性の下での状況評価能力——が現れるところから始まります。例えば、自律走行車は道路脇に立つ人を見ます。それは速度、気象条件、その人が滑って突然車道に足を踏み入れる可能性を考慮します。これらの要因に基づいて、システムは事前に減速するかもしれません。それはもはや単なる信号への反応ではなく、予測とリスク評価です。Keymakrで、自動車会社が道路標示の複雑な3Dラベリングを管理するのを支援する高精度データソリューションを提供したことを覚えています。それはすべて、モデルに「考え」させるためでした。さて、産業用ロボットアームに戻りましょう。それには推論は必要ありません。すべてのパラメータは事前に定義されており、システムの課題は適応ではなく、反復性と精度です。だからこそ、生産ライン上の汎用ヒューマノイドロボットはしばしば過剰です。特定のタスクに最適化された専用マニピュレーターを使用する方がはるかに効率的です。しかし、タスクが厳密に定義されたシナリオを超えるやいなや、状況は変わります。ここに、今日のPhysical AIの中核的な課題があります——自動化から知的な適応性への移行です。現代の知的ロボティクスシステムは依然として高価です。柔軟性と適応性を必要とするタスクでは、まだ人間には及びません。区別することが重要です:古典的な自動化はしばしば人間を凌駕しますが、知的な要素は——少なくとも今のところ——そうではありません。工場の床にあるロボットアームは、文脈を解釈する必要がないからこそ完璧に動作します。それはプログラムされた一連の動作を高い精度と速度で繰り返します。この意味で、それは、単調な作業を品質の低下なく無限に実行できない人間を凌駕しています。しかし、環境が予測不可能になると、真の挑戦が始まります。そして、まさにそこに、今日、自動化と真の人工知能の境界線が引かれているのです。物質との対話そして、ここで核心的な考えに到達します。Physical AIは、ハードウェアやトレンドについてというよりも、むしろ、誤りが物理的な結果をもたらす環境への知性の移行についてです。人工知能の発展の次の段階は、現実世界で確実に動作する能力によって定義されるでしょう。この移行は以前のものよりも複雑で、センサー、ハードウェア、ローカルコンピューティング、新しいモデルアーキテクチャ、新しいデータセット、新しい安全基準の統合を必要とします。それは技術スタック全体の再構築です。この意味で、Physical AIは真に新時代のヒーローとなります。あらゆる技術サイクルは同様の段階をたどります:最初は研究所、次に実証、その後投資のピーク、そしてその後に初めて実際の産業化です。今日のPhysical AIは、実証と産業化の間のどこかに立っています。そして、ここで核心的な疑問が定義されます:誰が最初に、それをスケーラブルで、安全で、経済的に実行可能にするのか?それについては次回、議論しましょう。


2026年までに、AIは新たな段階に入ります。より挑戦的で、より実用的、そしてはるかに大規模なものへ。市場は幻想を捨て、資金はより慎重に計算され、企業は単純な疑問を投げかけています:ここに真のビジネス価値はあるのか?すべての主要トレンドは一点に収束します:AIはツールであることをやめ、インフラストラクチャになりつつあるのです。LLMからエージェントシステムへすでに今日の業界を形作りつつある主要トレンドの一つが、エージェンティックAIです。これは補助的なツールから、大企業によって広く使用される本格的なエンタープライズソリューションへと進化しています。これは、テキスト生成、分析、その他の標準的なタスクに使用される従来のLLMの次の段階です。歴史的に、このような技術は長い間大企業の内部に留まり、一般にはほとんど見えませんでした。GoogleやFacebookのような企業は、LLMという用語が一般的になるずっと前からそれらを使用していました。10年前、国際的なソフトウェア企業で働いていた当時、私たち自身もそのようなシステムを開発し使用していましたが、LLMではなくデータ処理AIと呼んでいました。転換点は、人工知能の民主化によってもたらされました。ChatGPT、Gemini、そして類似の製品の出現は、AIをマスマーケットのツールとし、関心と投資の急激な増加を引き起こしました。しかし、市場はすぐに限界に達しました:短期間のうちに、ほぼすべての明白なユースケースはすでに実装されていたのです。当時のスタートアップのほとんどは独自のモデルを構築せず、既存のLLMの上に構築されたいわゆるラッパー(インターフェース)を作成しました。これらのソリューションは急速に価値を失いました。なぜなら、基本モデルが個別のアプリケーションを必要とせずに、直接同じ機能を提供したからです。この時代は約1年続きました。何十億ドルもの資金がそのような製品に投資された後、期待が過大評価されていたことが明らかになりました。このような背景の中で、エージェントシステムへの移行が始まりました。AIエージェントはより複雑なアーキテクチャを表しており、いくつかの専門化されたモデルが互いに相互作用し、タスクを分散し、行動を調整します。このアプローチにより、旅行計画からビジネスプロセス管理に至る複雑なシナリオの処理が可能となり、AIの進化における次の段階を示しています。市場統合と、なぜ巨大企業だけが生き残るのか私たちはすでに、AIエージェント市場が事実上統合の段階を通過したことを目にしています。限られたグループの主要プレイヤー、およそ十数社が出現し、急速に支配的な地位を占めています。このプロセスは、最終的にMicrosoft、Google、Yahooの支配下に入ったメールサービス市場の歴史と大きく類似しています。同様の力学がエージェンティックAIでも展開されています:主要なソリューションは、Cohere、OpenAI、Googleなどの企業によって開発されています。彼らは、新規参入者だけでなく、以前はニッチセグメントを獲得していた小規模プレイヤーも着実に駆逐していくでしょう。今日、主要プロバイダーの焦点はエンタープライズセグメントに移行しています。2025年を通じて、彼らは大規模組織内でエージェントシステムを積極的に展開し、カスタマーサポート、内部ナレッジベース、従業員トレーニング、文書ワークフロー自動化などの応用タスクから始めました。典型的なシナリオは、企業資料の分析と、人間の専門家を必要とせずに複雑な質問に答えられるインテリジェントアシスタントの構築を含みます。例えば、Keylabsのようなプラットフォームのすべての技術資料が処理され、ボットがライブの専門家を必要とせずに技術的な質問に答えられるようになるかもしれません。スケーリングはこの道程の次のステップです。近い将来、エンタープライズクライアントには、会計や法的サポートから業務プロセス管理に至るまで、ますます包括的なパッケージが提供されるでしょう。人間の役割は監督と最終的な意思決定へと移行し、AIエージェントが日常業務を処理します。これは他の企業機能にも当てはまります。例えば、何千人もの従業員を抱える大規模な銀行では、AIエージェントが旅行の手配、チケット管理、旅程変更を引き継ぎ、外部サービスや請負業者に取って代わることができます。主要プロバイダーが、旅行代理店から金融・法的支援に至るまでの全範囲のサービスを単一の統合パッケージで提供し始めると、専門的なスタートアッププロバイダーは競争力を失うでしょう。大規模プレイヤーはゼロから市場を征服する必要はありません:彼らは水平的に拡大し、企業組織内部のますます多くのビジネスプロセスを徐々にカバーしていくでしょう。AIと自動化に最も敏感な業界はどこか技術全般について話すとき、デジタルツールとAIが法務分野のワークフローを再構築していることはすでに明らかです。多くの企業で、従来の法務サービスに対する需要が減少しています。主に日常業務の自動化が原因です。これは小規模組織にも大企業にも当てはまり、一方で金融セクター、特に銀行は、新しい技術をより保守的に採用し続けています。しかしながら、法律実務と司法制度を区別することが不可欠です。弁護士がクライアントの利益を代表し擁護する法廷手続きでは、人間の役割が不可欠なままです。司法実務におけるAIの使用実験にもかかわらず、少なくとも今後数十年間は、人間が法廷で決定を下し、法的議論を構築し続けるでしょう。企業法の状況は全く異なります。ほぼすべての事業運営には、NDAや基本契約からプロジェクト文書に至るまでの法的文書が関わります。以前は、これらの契約書の起草と承認には、相当な時間と双方の法務チームによる複数回のコメントが必要でした。今日、これらのプロセスはAIツールとLLMによってますます最適化されています。AIは、論争の的となる条項や機密条項を迅速に特定し、修正を提案し、文書が企業の内部要件に準拠していることを確認するのに役立ちます。その結果、承認サイクルは大幅に短縮され、弁護士の役割は監督、戦略的リスク評価、最終的な意思決定へと移行しています。同様の変化が金融セクターでも起こっています。厳格な規則や規制によって管理される税務・財務報告などのタスクでは、AIは特に効果的であることが証明されています。多くの企業がすでにそのようなソリューションを使用して、計算の自動化、報告書の作成、業務の正確性の向上を行っています。最終的に、技術は専門家を置き換えるというよりも、彼らの仕事の性質を変えています:日常業務は自動化され、焦点は人間の専門知識が依然として極めて重要な分析的、管理的、戦略的タスクへと移行します。私はこれを2025年にKeymakrのクライアントリクエストではっきりと観察しました:金融および法務業界におけるデータソリューションに関連する相当数の問い合わせが見られました。2026年を見据えると、すべての決定論的プロセスは徐々にエージェンティックAIシステムへと移行するでしょう。決定論的とは、厳格な規則:法律、規制、財務手順、コンプライアンスによって管理されるタスクを意味します。この文脈において、次の論理的な発展の方向性はサイバーセキュリティとなるでしょう。AI自動化の裏側としてのサイバーセキュリティ利用可能なデータの量が増加し、システム間でより活発に循環するにつれて、リスクのレベルは必然的に高まります。情報がローカルで隔離されて保存されている間は、比較的保護されています。しかし、データベース、AIモデル、エージェント間で継続的なデータ交換が始まると、攻撃対象領域は急激に拡大します。現代のAIシステムは、データへの継続的なアクセスを必要とします。エージェントシステムが動作し、言語モデルが情報を分析し決定を下すためには、データを内部リポジトリから定期的に抽出し、外部の計算環境に転送する必要があります。この時点で、重要な疑問が生じます:潜在的な脆弱性を悪用できるのは、一体誰なのか:企業自体なのか、それともそのインフラに依存している第三者のAIプロバイダーなのか?主要プロバイダーに脆弱性がある場合、攻撃者はそのシステムだけでなく、多数のクライアント企業のデータにもアクセスできる可能性があります。そのような外部依存がなければ、この攻撃ベクトルは存在しないかもしれません。したがって、AIの採用は、サイバーリスクの範囲を大幅に拡大します。これは、標的型攻撃だけでなく、悪意のある行為者からセキュリティ専門家、積極的防御チームまで、脆弱性を扱う幅広い関係者にとっての機会を生み出します。これらすべてのプロセスは相互に関連しています:AI自動化の成長は必然的にサイバーセキュリティ要件を高め、それが今度は新しいソリューションや企業の出現を刺激します。今日すでに、AIインフラストラクチャを保護し、データアクセスを管理し、リスクを監視するツールを開発するスタートアップの波を見ています。では、2026年にはどこへ向かうのか?大規模なAI/LLMプロバイダーの統合が、サイバーセキュリティに焦点を当て、エージェンティックな意思決定を行う能力を持つ、ますますアクセスしやすいシステムと組み合わさることで、一つの絵が描かれます。業界からは、誇大広告は減り、より実用的なソリューション、つまり日常業務の引き継ぎや企業意思決定の全セクターの自動化が期待されます。ルールはこうです:厳格な規則とベストプラクティスを理解し決定することが可能であれば、AIエージェントはそれを処理できるでしょう。この技術が実際に何に優れているかを理解した今、企業はますます異なる業種にわたってその有用性を最大化していくでしょう。


驚くべき進歩にもかかわらず、人工知能の能力は現実世界の期待と比較すると依然として限られています。私たちは複雑なモデルを構築し、ニューラルネットワークを実行し、アルゴリズムをテストしますが、進歩は時に最も予期しない場所で停滞します。問題は、多くの場合、アルゴリズムやデータにあるのではなく、モデルが必要な規模で学習し動作することを可能にするリソース、つまり計算パワーにあります。では、この障壁の背後には何があるのでしょうか?最も有望なAIプロジェクトでさえ研究室を超えて進められない、この重要なリソースについて考察してみましょう。計算リソース不足とその影響このテーマを理解するために、モバイル通信の歴史から始めましょう。3G、そして後に4Gネットワークが登場したとき、インターネットはすでにほぼグローバルになっていました。そして5Gが導入されたとき、多くの人々がごく当然の疑問を抱きました:「インターネットは速くなるだろうが、それがどうした?」実際には、インターネット速度の向上は、ユーザーの利便性だけに帰着するものではありません。それは技術的な景観全体を変革します。以前は不可能だったユースケースが出現します。5Gは4Gよりもはるかに高速であることが判明し、この飛躍は、1Gから2Gへのジャンプのような段階的なものではなく、指数関数的なものでした。その結果、新しいアプリケーション、デバイス、技術の全クラスが登場する可能性があります。信号機のカメラ、リアルタイム交通分析システム、自動化された交通規制メカニズム――これらすべては、新しい通信技術のおかげで可能になります。警察はデータを交換する新しい方法を手にし、宇宙では、望遠鏡や衛星が膨大な量の情報を地球に送信できます。基盤技術における質的飛躍は、エコシステム全体の発展を推進します。同じ原理が計算パワーにも当てはまります。仮想的な単位で、人類の総計算能力を想像してみてください。今日、私たちは例えば10単位を持っているかもしれません。それを使って、画像や動画を生成し、テキストを書き、マーケティング資料を作成できます… これはすでに相当なものですが、アプリケーションの範囲は主に限られています。さて、10単位ではなく、1000単位を持っていたと想像してみてください。突然、以前はコストが高すぎた技術が実現可能になり、計算コストが高いために見捨てられていたスタートアップが経済的に意味を持つようになります。例えば、ロボタクシーを考えてみましょう。今日、それらは主に車両に搭載された比較的弱いローカルコンピューターに依存しています。しかし、もしビデオフィードが膨大な計算リソースを持つクラウドに送信されれば、データはリアルタイムで処理され、返送される可能性があります。そしてこれが決定的です:時速100kmで移動する車は、ほんの一瞬のうちに判断を下さなければなりません――直進するか、曲がるか、ブレーキをかけるか、かけないか。そうなって初めて、今日見られるような単発のソリューションではなく、完全に機能するロボタクシー産業が可能になります。車に搭載されたあらゆるローカルコンピューターは、本質的に、接続されたシステムとは異なる方法で制限されています。それをスケールアップできる速度が速ければ速いほど、私たちを取り巻く世界は速く変化するでしょう。チップへのアクセスとAIにおける「黄金のチケット」計算パワーの文脈において、疑問が生じます:現代のチップへのアクセスは、AI市場に参入するための「黄金のチケット」になりつつあるのでしょうか?チップメーカーと契約を結ぶ、あるいは自社で生産する大規模なプレイヤーは、大企業とその他すべての企業との間に格差を生み出しているのでしょうか?そのような格差は、一つの場合にのみ生じます:ビジネスモデルが大規模クライアントへのチップ販売にのみ焦点を当てている場合です。実際には、NVIDIAのようなメーカーは、すべての人にクラウドソリューションを提供することを目指しています。彼らの最適化されたチップは、OpenAIにも独立系開発者にも、クラウドで利用可能です。Google、Anthropic、Microsoft、OpenAI、Amazon、NVIDIAといった企業間の戦略的提携でさえ、市場を閉鎖しようとする試みというよりも、主に共有リソース活用のためのパートナーシップです。このモデルは、計算パワーの効率的な配分を可能にし、それによって技術開発を加速させます。計算リソース使用の連鎖をたどると、それはエンドユーザーから始まります。例えば、あなたがビデオ通話やメッセージングにWhatsAppを使用するとき、同社はサービスが機能することを保証しなければなりません:データの保存と処理、ビデオクリーンアップのためのモデルの実行、エフェクトの追加、画質の向上。自社サーバーを維持するのは高価であり、それらは時代遅れになり、絶え間ない維持管理を必要とします。だからこそ、クラウドソリューション、「クラウド」が登場したのです。市場は3つのプレイヤーによって支配されています:Google Cloud、AWS、Microsoft Azure。他の企業はこのレベルでは競争できません:インフラの規模があまりにも巨大です。クラウドサービスは、冷却、電源供給、24時間体制のメンテナンスを備えた大規模なデータセンターです。そこには、NVIDIA、AMD、その他のメーカーからのサーバーや専用チップが収容されており、大規模な計算プロセスを可能にしています。ここで、私が以前のデータセンターに関するコラムで議論し、ここで続けたい重要な疑問に至ります:このシステムの主なボトルネックは何でしょうか?電力不足なのか、それとも気候が特に厳しい地域でのデータセンター冷却の難しさなのか?実際には、秘密はチップそのものにあります…聖杯なぜNVIDIAは今日、約5兆ドルの価値があり、世界で最も成功した上場企業の一つに数えられているのでしょうか?理由は単純です:NVIDIAは、AIモデルの学習と推論が実行されるチップを生産しています。これらのチップのそれぞれは、大規模モデルの学習や、絶えず増大するデータ量の処理時に、膨大な量の電力を消費します。しかし、そのエネルギーはどれだけ効率的に使用されているのでしょうか?ここで専用チップが活躍します;それらは特定のタスクを、汎用GPUよりもはるかに効率的に処理します。AIモデルは異なります。例えば、OpenAIには一つのモデルファミリーがあり、Anthropicには別のものがあります。概念は似ているかもしれませんが、数学的構造と計算プロセスは異なります。単一の汎用チップは、OpenAIモデル(ChatGPTなど)とAnthropicモデル(Claudeなど)を学習する際、「万能ツール」として機能し、例えば一つのモデルに10万時間、別のモデルに15万時間の計算を消費するかもしれません。効率は大きく異なり、最適であることは稀です。企業はこの問題を、専用チップを生産することで解決します。例えば、一つのチップはChatGPTのアーキテクチャに最適化され、それを例えば20分で学習でき、別のチップはAnthropicのアーキテクチャに合わせて調整され、やはり20分で学習を完了します。エネルギー消費と学習時間は、汎用チップと比較して数倍削減されます。これらのチップがGoogle、Amazon、Microsoft、Azureなどの大企業に販売されるとき、それらはスタンドアロン製品として提供されます。ユーザーは、例えばYOLOモデルに最適化されたチップや、Xenアーキテクチャ用のよりシンプルで安価なチップを選択できます。このようにして、企業は汎用GPUを購入するのではなく、自らのタスクに正確に合わせて調整された計算リソースにアクセスできるようになります。ユーザーが10の異なる機能を持っている場合、10の異なる専用チップを使用できます。トレンドは明らかです:専用チップは徐々に汎用チップに取って代わりつつあります。多くのスタートアップが現在、ASIC(特定用途向け集積回路)を扱っています。これは特定の計算タスクのために設計されたチップです。最初のASICはビットコインマイニング用に登場しました:当初、暗号通貨はNVIDIA GPUで採掘されていましたが、その後、ビットコイン専用にチップが作成され、他のタスクを実行できませんでした。私はこれを実際に見ています:同じハードウェア構成でも、タスクによって全く異なる結果を生み出すことがあります。私のスタートアップIntrospectorでは、実際のプロジェクトでこれらのプロセスを研究しており、Keymakrの戦略アドバイザーとして、クライアントが専用チップから効率性を得て、モデルをより速く実行できるようになるのを観察しています。以前は学習や推論中に停滞していたプロジェクトが、このアプローチで安定した結果に到達します。しかし、狭い専門化にはリスクが伴います。Anthropicのアーキテクチャに最適化されたチップは、OpenAIモデルの学習には機能せず、その逆もまた然りです。新しいアーキテクチャが登場するたびに、新しい世代のハードウェアが必要となり、大規模な「陳腐化」のリスクを生み出します。もしAnthropicが明日新しいアーキテクチャをリリースすれば、前世代のチップはすべて非効率的になったり役に立たなくなったりします。新しいチップの生産には数十億ドルの費用がかかり、数年を要する可能性があります。これはジレンマを生み出します:狭いシナリオで完璧に機能する専用チップを作るべきか、それとも、アーキテクチャが変わっても完全な交換を必要としない、すべてのタスクをそこそこにこなす汎用チップの生産を続けるべきか?この文脈における効率性は、主に3つのパラメータで測定されます:実行時間、電力消費、発熱です。これらの指標は直接関連しています:システムが長く実行されるほど、より多くのエネルギーを消費し、より多くの熱を発生させます。一つのパラメータを削減することは、自動的に他の二つを改善します。ここにAIパフォーマンスの「聖杯」があります:もし基本的な効率性指標の少なくとも一つを最適化できれば、他の指標もほぼ自動的に改善されるのです。持続可能なプロセス専用チップの使用が増えるにつれて、過剰生産のリスクの問題が差し迫ったものとなっています。現在、機器の余剰はすでに大きく、企業は既存リソースの再利用を含む様々な持続可能な方法でこの問題に対処しています。機器のリサイクルは、ハイテク産業における持続可能な開発の重要な要素となっています。チップには、貴金属や卑金属、金、銅、アルミニウム、パラジウム、レアアース材料、およびマイクロチップやトランジスタに使用される材料が大量に含まれています。機器が陳腐化した後、これらの貴重な資源を生産に戻すことができ、新部品のコストを削減すると同時に、産業の環境負荷を低減できます。一部の専門工場や企業は、陳腐化した部品からのリサイクルと貴金属の抽出に焦点を当てています。例えば、一部の施設では湿式冶金プロセスや高度な化学的方法を使用して、高純度の金や銅を抽出し、これらの材料を新しいチップで再利用できるようにしています。さらに、企業はクローズドループモデルを導入しており、古い機器がアップグレードされたり新しいソリューションに統合されたりすることで、一次資源の採掘の必要性を減らしています。このようなアプローチは、廃棄物を最小限に抑えるだけでなく、従来の採掘や金属加工には多大なエネルギーが必要なため、生産のカーボンフットプリントを低下させるのに役立ちます。チップと機器のライフサイクルの持続可能な管理は、技術的進歩が環境責任と調和する産業標準になる可能性があります。


数年前、データセンターは、純粋に技術的で目に見えないもの、つまり専門家の間以外ではほとんど議論されることのない、バックエンドの奥深くに隠されたインフラのように思えていました。しかし、AIの爆発的成長がその図式を完全に変えてしまいました。今日、データセンターはデジタル経済の新たな「油田」となっています。それは、何十億もの投資、政府政策、企業戦略が構築される戦略的資産なのです。最近のニュースがこれを裏付けています。Anthropicは、主要なエネルギー・メガプロジェクトの予算に匹敵する500億ドルを投じて、米国に独自のデータセンターを建設すると発表しました。ほぼ同時期に、X.AIとNvidiaは、サウジアラビアにおける同地域最大級のデータセンターの共同プロジェクトを明らかにしました。なぜデータセンターという話題はこれほどまでに世界的なものになったのでしょうか? なぜ主要プレイヤーは純粋なクラウドモデルから離れ、何百億もの資金を自社のキャパシティに投資しているのでしょうか? そして、この変化は、AIアーキテクチャ、エネルギーシステム、地政学、そして北極から宇宙ベースのデータセンターに至る代替モデルの台頭に、どのような影響を与えているのでしょうか?以下に掲載するコラムでは、この点を探っていきます。データセンター所有への世界的な関心の高まりコンピューティングリソースの消費が年間数百万ドル単位で計測される場合、クラウドサーバーのレンタルは確かにコスト効率が良いでしょう。企業は建物を建設・維持したり、電力と冷却の費用を支払ったり、機器を購入したり、定期的にアップグレードしたりする必要がありません。しかし、費用が数百億ドルに達すると、その論理は変わります。その時点で、独自のデータセンターを建設し、エンジニアを雇い、機器を購入し、自社の特定のニーズに合わせてインフラを最適化する方が、よりコスト効率が良くなるのです。企業はクラウドプロバイダーのマージンに対して過剰に支払うことをやめ、コンピューティングのコストと効率性に対してはるかに大きなコントロールを獲得します。これが、OpenAIやAnthropicのような巨大企業にとって、プライベートデータセンターを建設するトレンドが最も関連性が高い理由です。これらの企業のニーズは非常に大きく、もはやクラウドは経済的に正当化されないのです。同時に、「データセンター」という概念が多層的であることを理解することが重要です。一部の企業にとって、それは主にデータストレージ施設、ディスク、データベース、ユーザー情報です。他の企業にとっては、計算ハブでもあります。GPT、Claude、LLaMAのようなモデルを実行するサーバーは、データを保存すると同時に複雑な操作を実行します。本質的に、今日のデータセンターは、何千もの特殊なコンピューターを収容する巨大な技術的「倉庫」なのです。そして、AIキャパシティへの需要が高まるほど、この「倉庫」は戦略的かつ議論の的となり、そのためデータセンターは今やエンジニアだけでなく、投資家、政策立案者、トップエグゼクティブによっても議論されているのです。AIデータセンターの構築において重要なのは、速度か品質か?現実には、建設速度もデータセンターの形式的な「品質」も、主要な推進力ではありません。大企業が独自のインフラに投資するのは、コストを削減し、コンピューティングに対して最大限のコントロールを得るためです。モデル自体の品質は、トップレベルのプレイヤーにとって、考えられているほどには重要ではありません。その理由は単純です。市場リーダー間の品質格差は最小限です。自動車産業によく似ています。フォルクスワーゲン、トヨタ、ホンダ – それぞれ異なりますが、市場を独占するほどに大きく引き離すことはできません。それぞれが安定したシェアを維持しています。AI市場も同様の論理に従っています。先進的なユーザーはすでに複数のモデルを同時に使用しています。プログラミング用に一つ、テキスト生成用に別の一つ、分析や検索用に三つ目のモデルといった具合です。企業顧客も同じことをしています。例えば、Grammarlyのようなサービスは独自のモデルを全く持っていません。彼らは複数のプロバイダー、Anthropic、OpenAI、Metaからトークンを購入します。リクエストが入ると、システムは自動的にプロバイダーを選択します。現在より安価で、高速で、正確なプロバイダーです。テキストが英語ならGPTへ、ヒンディー語ならClaudeへ、LLaMAのレートが現在最も低ければそこへ送られます。これは本質的に、株式取引所スタイルの負荷分散モデルです。Keymakrの企業顧客との会話では、同じトレンドをますます目にします。大企業はとっくに「一つのモデル – 一つのプロバイダー」というアプローチを捨てています。彼らは、コスト、レイテンシ、言語の特性に応じてリクエストが異なるAIシステム間でルーティングされる、マルチモデルパイプラインを構築しています。しかし、このアーキテクチャは、データ、具体的にはその清浄さ、アノテーション、検証、一貫性に対して、はるかに高い要求を課します。この意味で、データインフラはデータセンター自体と同じくらい戦略的になります。高品質な入力がなければ、マルチモデルシステムは単純に機能しないのです。最終的に、このアーキテクチャでは、モデルの品質は多くのパラメータの一つに過ぎなくなります。鍵となるのは、速度、スケーラビリティ、そして膨大なコンピューティング負荷を処理する能力を維持することです。そして、まさにこれがプライベートデータセンターに戦略的価値をもたらします。それらは企業がコスト、スループット、安定性をコントロールすることを可能にし、最終的なモデルの品質にはほとんど影響を与えないのです。言い換えれば、今日、企業がデータセンターを構築するのは、速度や完璧な品質のためではなく、経済性とコントロールのためなのです。データの地理学「コントロール」とは、データの地理学を意味します。企業が政府機関と仕事をする場合、法律はしばしばデータが国外に出ることを禁じています。政府および準軍事的なアプリケーションは、諜報、防衛IT部門、自治体サービスにおいてAIを積極的に利用しています。しかし、データセンターが不確かな管轄区域や信頼性の低い地域にある場合、これらのシステムにモデルへのアクセスを与えることは不可能です。そのため、政府はコンピューティング能力が物理的に国内に所在することを要求するのです。大企業はこれを完全に理解しています。政府の入札に参加したり、契約を結んだり、機密データを処理したりしたいのであれば、特定の地域にインフラを持ち、セキュリティ基準への準拠を保証する能力が必要です。この地理的制約は、データセンターの構築と運用におけるもう一つの重要な要素、エネルギーにも大きな影響を与えます。AIデータセンターは莫大な電力を消費します。サーバーを稼働させるためにも、冷却するためにもです。冷却は、計算自体よりも多くの費用がかかることがよくあります。これにより厳格な制限が生まれます。一部の地域では、データセンターがグリッドから引き出せる電力の量が制限されています。他の地域では、環境への熱排出が厳しく規制されています。制限を超えると、罰金と高額なエンジニアリングアップグレードが課せられます。さらに、電力は主に国営エネルギー会社から購入され、それらは独自の料金体系を持っています。単に「好きなだけ買う」ことはできません。例えば、ある閾値まではある単価、それを超えると別の単価になります。データセンターがピーク時に許可された以上の電力を引き込むと、自動的に罰金が科せられます。このため、大企業はしばしば、自社の発電所の近くに独自のデータセンターを建設する方が経済的であると判断します。これは当然、太陽光発電所、ガス火力発電所、小水力発電所など、自家発電の開発という考えにつながります。しかし、これらの解決策にはすべて限界があります。ガスや石炭のプラントは排出物を出します。水力発電は河川の生態系を変えます。原子力は排出の点では最もクリーンですが、原子力発電所を建設できるのは政府だけです。そして、まさにこの時点で、新しいコンセプトが生まれ始めるのです…代替ソリューション最も明白な選択肢は、カナダ北部、スカンジナビアの北部地域、北極の遠隔地など、自然に寒冷な気候の地域にデータセンターを移転することです。そこでは、自然自体が冷却問題を解決し、運用コストを劇的に削減します。次のステップは「水中データセンター」です。計算は水中で行われ、冷たい海洋環境が自然冷却を提供します。しかし、このアプローチにも欠点があります。環境保護論者はすでに懸念を表明しています。例えば、メキシコ湾流が通過するアイスランド南部付近では、水中データセンターの大規模な展開が局所的な気候プロセスに影響を与え、海洋流の挙動さえも変える可能性があると示唆する人もいます。そのような偏差の初期観測はすでに記録されています。より未来的な選択肢もあります。最近、同僚と宇宙ベースのデータセンターのコンセプトについて議論しました。軌道上にコンピューティングインフラを打ち上げるというアイデアは長い間存在してきました。しかし、技術は今やそれを実用的な実現可能性の瀬戸際にまで引き上げ、準備の整った技術的基盤を提供しています。なぜ宇宙は魅力的に見えるのでしょうか? それは、冷却と電力という二つの主要な制約を即座に解決します。地球近傍宇宙の温度は極めて低く、放熱はほとんど無料です。電力も問題ありません。宇宙望遠鏡が鏡を展開するように、巨大なソーラーパネルを展開できます。宇宙には塵も天候も日陰もありません。パネルはメンテナンスをほとんど必要とせず、24時間安定した電力を供給します。地球との通信は別個の工学的課題ですが、完全に解決可能です。一つのアプローチは、Starlinkのような衛星システムを使用することですが、はるかに広いチャネルで行います。無線リンクは原理的にこれらの容量を処理でき、必要に応じて、膨大な帯域幅を持つ光ベースのチャネルである光リンクを使用できます。エンジニアはここで確実に解決策を見つけるでしょう。全体として、宇宙インフラは将来の発展の一分野ですが、特にコンピューティングへの需要が地球上の新規キャパシティよりもはるかに速く成長していることを考えると、それを議論することはもはやSFのようには思えません。最も最近のニュースに注目する価値があります。Googleは、AI軌道データセンターの創出を目指すSuncatcherプロジェクトを発表しました。計画によれば、TPUチップを搭載した衛星は太陽エネルギーで電力を供給され、光チャネルを通じてデータを送信します。Googleは、このソリューションが地上システムよりも最大8倍のエネルギー生産効率を提供できると主張しています。最初の衛星プロトタイプは2027年にも打ち上げられる予定です。規制の影響データセンターに影響を与える規制、その環境への影響、そして法的枠組みが実際にこの市場を宇宙や水中に「押し出す」可能性があるかどうかについては、疑問が残ります。各国はそれぞれ異なる行動を取り、長期的な計画に従って規制を実施しています。例えば、ヨーロッパにはより厳格な規則があり、それがAI開発を遅らせていることは公然の秘密です。一方、米国はより実用的なアプローチを取ります。通常、法律は革新と成長が継続できるように書かれます。Nvidia、Apple、Microsoft、Metaのような企業の本拠地であるカリフォルニアの強力な技術ロビーは、AIの全面禁止をありそうにないものにしています。つまり、テクノロジーは前進し続けるということです。私たちは、「枠にとらわれない思考」が西洋でもアジアでも育まれ、Elon MuskやSteve Jobsの例が野心的なプロジェクトに引き続きインスピレーションを与えている時代に生きています。ですから、おそらく宇宙でのコンピューティングは、結局のところ次の論理的なステップなのでしょう。


今日、技術的な断層線の端に立つ私たちは、LLMからエージェントへ、そして最終的にはエージェンティックAIとAGIへの旅路を目撃しています。それは単にモデルを大きくしたり、応答を速くしたりすることだけではありません。機械が受動的なアシスタントから能動的な協働者へ、そしておそらくいつの日か、独立した思考体へと移行することでもあります。この道筋をたどり、それが仕事、専門性、そして明日の知性を形作る人間の役割そのものにとって何を意味するのかを探ってみましょう。LLM、エージェントベースシステム、エージェンティックAIの違い違いをよりよく理解するために、例を挙げます。「シカゴからオースティンまで旅行したい。1日4時間以上運転せず、景色の良い場所に立ち寄りたい」といったことをLLMに尋ねた場合、通常のLLMは言語生成に基づいてテキスト形式の静的な応答を返します。おそらく、徹底的な分析を行わずにリクエストに応答するだけでしょう。エージェントはまず、リクエストを旅行関連として分類します。次に、必要なデータを決定します:マッピングサービスを使ったルート、天気情報、燃料費、ホテル、レストランなどです。その後、エージエントはリクエストをサブタスクに分解し、それらを専門のモジュールや関連する情報源で訓練されたLLMに振り分けます。これは、統一されたロジックの下で複数のモデルやツールを調整・統括するオーケストレーションです。今日、ChatGPTやAnthropicのClaudeのような主要なシステムのほとんどは、本質的にはすでにエージェントです。ユーザーには単一のモデルと対話しているように見えるかもしれませんが、その背景には多くのモデルやシステムを含む複雑なアーキテクチャがあります。それらはすでに複雑なクエリを処理できますが、その能力は主に情報を提供することに限定されており、まだ行動を起こす段階には至っていません。完全な自律エージェントは、情報を収集し、例えば、関連するAPIやユーザーデータへのアクセス権があれば、独立してホテルを予約したり、チケットを購入したり、支払いを開始したりできるシステムです。このようなエージェントは現在、初期開発段階にあります。現時点では、情報を処理することはできても、自律的な行動を実行するには至っていない、いわばセミエージェントのようなものです。研究コミュニティで議論されている興味深い分野がエージェンティックAIです。開発者がスクリプトで動作を記述する通常のエージェントとは異なり、エージェンティックAIは、どのタスクを実行するか、どのデータが必要か、さらには自身のトレーニングをどのように継続するかを独立して決定するシステムです。これは指示を実行することを超え、自律的な意思決定を含みます。しかし、エージェンティックAIは現段階では理論的なものであり、実際にはそのようなシステムはまだ存在しません。AGI – 新たな地平。しかしそれは実現可能か?Metaは3ヶ月前にScale AIに投資しました。その目的は、人間と同等かそれ以上のレベルであらゆるタスクを実行できる人工汎用知能(AGI)を構築する道筋で協力することでした。今日のAIが技術革命であるなら、AGIは真のメガ革命となるでしょう。私は時々、AIの「出エジプト」を意味する「エクソリューション」と呼んでいます。これを最初に達成した者は、世界的な戦略的優位性を得るでしょう。実際のAGIにどれほど近いかは、その定義の仕方に大きく依存します。私はIlya Sutskeverの見解に同意します:AGIとは、人間ができるあらゆる知的タスクを実行できるシステムです。単に質問に答えるだけでなく、領域を超えた推論、意思決定、一般化、解釈ができることです。真のAGIは普遍的であり、狭いタスクの境界に閉じ込められていません。現在のどのモデルもそのレベルには達していません。私たちはその方向に向かって進んでいますが、理論的な意味での真のAGIは、まだ存在しません。そしておそらく、それは良いことです。私たちはまだ近似の段階にあり、しばらくの間そこに留まる可能性が高いでしょう。AGIの基盤は、おそらくエージェントベースのシステムになるでしょう。それは必ずしも単一のLLMに依存するものではありません。なぜなら、どんなに優れた人間でもすべての知識とスキルの領域をマスターできないのと同様に、単一のLLMがAGIタスクの全範囲を単独で処理することはできないからです。私たちが必要とするのは、一種の「集合知」です:複数のモデルやコンポーネントを調整できるアーキテクチャです。AGIは、単に人間が設計したエージェントとしてではなく、メタエージェントとして出現する可能性が高いです。それは部分的に開発され、AI自身の助けを借りて進化するシステムになるでしょう。これは重要です。なぜなら、完全に人間によって設計されたシステムには、内在する限界があるかもしれないからです。設計プロセスにAIを関与させることで、これらの制約を克服し、システムをより適応的なものにできる可能性があります。AGIは、おそらく特定の一つの突破口から生まれるものではないでしょう。特に大きなLLMでも、賢いエージェントでも、全く新しいアーキテクチャでもなく、むしろこれら三つの総合から生まれるでしょう。最も可能性が高いのは、私たちが現在使用しているカテゴリーを超越する、根本的に新しい何かです。「人類最後の試験」とその他のAGIベンチマーク「人類最後の試験」(HLE)は、現在LLM、エージェント、AGIの文脈で議論されているより野心的なベンチマークの一つです。本質的に、数学、物理学、生物学、化学、工学、コンピューターサイエンス、さらにはチェスに至るまで、幅広い学問分野にわたる約2,500問のテストです。このアイデアは、AIシステムが真の人間の理解を反映するレベルで問題を解決できるかどうかを評価することです。現在の言語モデルはHLEで非常に低いパフォーマンスを示し、精度が5%未満であることが多いです。これは、モデルがはるかに高いスコアを達成するMMLUやGPQAなどの他のベンチマークとは対照的です。モデルがHLEで直面する困難は、彼らが真の汎用知能からどれほど遠いかを浮き彫りにしています。既知のデータセットや狭いデータセットを用いたベンチマークでの高いパフォーマンスが、必ずしも真の汎用知能の存在を示すわけではないことに注意することが重要です。モデルはファインチューニングされたり、「テスト向けに訓練」されたりする可能性があり、それが見かけ上の能力を誇張するかもしれません。したがって、HLEで完璧なスコアを取ったとしても、AGIに到達したことを意味するわけではなく、単に一つの特定のテストに合格したことを意味するだけです。AGIを動かすものAGIの中核をなす柱は、データ、計算リソース、人材であるという点に完全に同意します。計算リソースの状況は明らかです。Metaのような主要プレイヤーは独自のチップを生産しようと試み、自社のチップ開発プロセスに数十億ドルを投資しました。しかし、企業は依然としてNvidiaのような他のプレイヤーのチップと計算能力に大きく依存しています。Nvidiaは必要なハードウェアを供給するだけでなく、生産規模の拡大の重要性を理解しています。より多くの疑問は、データと人材についてです。インターネットは枯渇しました — 現時点でトレーニングに使用されていない、オープンソースからの人間が作成したテキストは存在しません。人類がこれまでに生み出した情報の総量は、驚くほど少ないことが判明しています。そのため、企業は高品質な人間のデータを生成できる者と積極的に提携し始めています。完全自動化か、人間の関与か?もう一つのポイントは、手動データアノテーションへの需要の減少です。数年前、業界は全速力でスケールしていました。AIパイプラインの飢えを満たすために、何千人ものアノテーターがオンボードされました。今日、その勢いの多くは自動化へと移行しています。モデルが成熟し、それらを取り巻くツールも成熟しました。顔認識を例にとりましょう。かつては画像アノテーション量の主要な推進力の一つでした。しかし、このカテゴリーは現在ほぼ解決されています。YOLO、SAM、Samuraiのようなモデルが、日常的な作業を急速に吸収しています。これらのシステムは、しばしば驚くべき精度で、数週間分の手作業を数分に圧縮します。私たちも自社プラットフォームKeylabsに多くのML支援ツールを実装しました。それは確かに日常的なワークフローを削減するのに役立ちます。しかし、これらのモデルはすべて一般化能力に限界があり、標準的で均一な操作の自動化に適しています。複雑なケースやユニークなケースは、依然として人間の注意を必要とします。私たちは、アノテーターが単に細部に注意を払い、物体や感情を認識できる人であるという古いパラダイムから離れつつあります。新しい現実では、専門家が必要とされています:医療画像をアノテーションする医師、コードを書くプログラマー、設計図を作成する建築家、顧客インサイトのためのマーケター、防衛シナリオのための軍事専門家などです。私たちはすでに、戦闘機パイロットがAIのためのデータをアノテーションし、その専門知識に対して時間あたり1,000ドルを稼いでいるといった現実世界の事例を目にしています。なぜなら、そのような専門家は希少であり、彼らの知識は高性能AIを訓練するために決定的に重要だからです。世界は変化しています:ますます多くの人々が、人工知能のオペレーターおよび「トレーナー」になりつつあります。つい先日、私はCEO向けに設計されたAIアプリのデータセットをチェックしてほしいというLinkedInメッセージを受け取りました。将来、私たちの誰もが、単にボタンをクリックする誰かではなく、明日の知性を形作る専門知識を持つアノテーターとして働くオファーを受けるかもしれません。私たちはすでにこの新しい現実、データラベリングとAIトレーニングの世界に生きています。それに気づき、適応する者は、大きな優位性を得るでしょう。


AIエージェントについて議論するとき、多くの人々の想像は、自律的に行動し、予測不可能なことを行う超知能システムのイメージを呼び起こします。つまり、ある日はエージェント秘書が非常に有用かもしれず、次の日にはあなたの銀行認証情報を見知らぬ人に渡してしまうかもしれないということです。この懸念において、「超知能的」という部分は実際には重要ではありません。重要な問題は、AIエージェントがどれだけ「賢いか」ではなく、どれだけの自由とインフラへのアクセス権を持っているかです。実際には、エージェントの価値は、その知性のレベルよりも、その権限の境界によって定義されます。比較的単純なエージェントでさえ、一度データセット、企業システム、金融操作、または外部APIへのアクセス権を与えられると、特別な注意と監視を必要とする規模でプロセスに影響を与える能力を得ます。そのため、監視と封じ込めシステムは、モデルレベルだけでなく、インフラ内でのその行動のレベルにおいても、ますます重要になっています。近年、エージェントの活動を観察し制御することを目的とした取り組みが勢いを増しているのは偶然ではありません。これらの実用的なソリューションは、主要なテクノロジー企業によって既に実装されています。エージェントの仕組み監視がどのように機能するかを理解するには、まずエージェントが何で構成されているかを見る必要があります。簡略化して言えば、それは認知コア、「脳」とツールの組み合わせと見なすことができます。ツールとは、エージェントがアクセスできる外部サービスや統合機能です。例として、旅行エージェントの場合、これにはホテル検索用のBooking.comやAirbnb、航空券購入用の航空会社アグリゲーター、支払い用の決済システムや銀行カードが含まれる可能性があります。これらのツール自体は知的ではなく、単にエージェントが現実世界で行動することを可能にします。認知コアは言語モデル(LLM)です。これは、エージェントが人間によって定式化されたリクエストを有意義に処理することを可能にします。例えば、「来月、天気の良いヨーロッパに3日間飛びたい」というリクエストは曖昧すぎます。エージェントはLLMに「リクエストをカテゴリーに分解する」よう依頼します。それに対して、構造化されたパラメータ(どこに、いつ、どのくらいの期間、どのような条件で)を受け取ります。以前は、ChatGPTはテキスト応答を生成するだけでした。現在、エージェントに組み込まれることで、それは「脳+ツール」の組み合わせとなり、説明するだけでなく行動することが可能になります。LLMがタスクを構造化し、ツールが特定のアクションを実行させます。監視の仕組みこの段階で、管理システムが機能し始めます。私はこの安全ソリューションを「ウォッチドッグ」(少し前、私はこれに焦点を当てたスタートアップを作るアイデアを考えていた)と呼んでいます。これはエージェントに組み込まれた一種の番犬です。その仕事は、エージェントの行動を監視し、それを元のリクエストと照合することです。目標は、エージェントが意図された境界内で動作することを保証することです。旅行の例に戻りましょう:ユーザーがヨーロッパへの3日間の旅行を予約したいとします。エージェントは天気サービス、航空券、支払い用の銀行口座とやり取りします。すべて正常に見えます。しかし突然、「ウォッチドッグ」が、エージェントが旅行の支払いに関係のない企業データベースや銀行口座へのアクセスを要求していることに気づきます。これにより安全アラートがトリガーされ、疑わしい行動の信号が送られます。規模を理解することが重要です:エージェントは1日に数千人のユーザーにサービスを提供する可能性があり、各リクエストが数百の操作を引き起こし、結果として数百万のアクションが発生します。「ウォッチドッグ」はすべてのアクションを分析し、統計を生成します。レポートには「13%のアクションが冗長、7%が金融セキュリティに関連」と示されるかもしれません。さらに詳細では、どの特定のアクションが疑わしいと見なされたかが説明されます。このツールにより、開発者は全体像を把握し、異常に迅速に対応することができ、リアルタイム監視、異常検知、説明責任を組み合わせた実用的なAI制御ソリューションを形成します。「ウォッチドッグ」の恩恵を受けるのは誰か:開発者かユーザーか?主に、「ウォッチドッグ」はシステムが正しく機能することを保証するために開発者向けに意図されています。しかし、外部バージョンも想像できます:メインエージェントを監視する別の観察エージェントです。これにより、AI安全性に別の層が追加され、監視が内部システムを超えて拡張されます。重要な制限があります:エージェントの内部プロセスは「閉じた」ままです。私たちはその認知プロセスではなく、その行動のみを観察できます。人間との類推:私は誰かが電話を取り、番号をダイヤルし、話すのを見ることができます。しかし、どの番号がダイヤルされたか、意図は何か、何が話されたかはわかりません。同様に、外部の観察者はエージェントの行動を見ますが、その認知コアは見えません。もう一つの興味深い考慮点:エージェントは将来、このような観察者を回避または無効化しようとするかもしれません。人間がしばしば絶え間ない監視に抵抗するのと同じです。これは今日ではSFのように聞こえるかもしれませんが、可能です。内部AI安全ソリューション、異常検知、多層的な監視を統合することで、これらのリスクを軽減し、ますます自律的になるシステムに対する制御を維持するのに役立ちます。原始的なルールか、文脈を考慮した分析か?今日、このような「ウォッチドッグ」システムは、「許可」か「不許可」かという単純な原則で動作しています。例えば、ルールが「Amazonへのアクセスは禁止」と言い、エージェントがそこに行くと、違反が記録されます。しかし、このアプローチは文脈を理解しません。より高度なシステムは、違反とその理由を分析すべきです。なぜエージェントはAmazonに行ったのか?タスクの観点から正当化されたか?ここでは、心理学者の仕事に似た、文脈を考慮した監視について話しています。現時点では、そのようなソリューションは概念としてのみ存在します。既存のシステムは、厳格な白黒の制御に限定されています。しかし将来、エージェントがより複雑になるにつれて、文脈を考慮できる「ウォッチドッグ」が登場するでしょう。今日、私たちはエージェント監視の取り組みの成長を目撃しています。それらは最大手のテクノロジー企業のレベルで活発に開発されています。例えば、ActiveFenceはNVIDIAやAmazonのような大企業と協力しています。さらに、Google、OpenAI、Anthropic、Amazonが既に独自の内部「ウォッチドッグ」システム、分析、テレメトリを使用していると考えるのは妥当です。私はKeymakrの企業クライアントの間でもこの需要に気づきました – 監視とモニタリングはAIインフラの核心部分になりつつあります。それらなしでは、大規模なエージェントの展開は不可能でしょう。


今日、LLMとエージェントは、そのアルゴリズム的な「思考」と人間の心の境界を曖昧にしうる方法で学習、分析、意思決定を行っています。それらが構築されているアプローチは、すでに私たちの認知プロセスを模倣しており、そのトレーニングの規模は人間の経験を桁違いに超えています。これは、私たちが自らの能力を拡張するツールを作っているのか、それともその帰結がまだ予測不可能な新種の「心」を生み出しつつあるのか、という疑問を投げかけます。モデルはどのように「思考」するのかLLMとエージェントの概念を区別することが重要です。コンピューターに例えるなら、LLMはその構成部品、例えばプロセッサーに例えられます。一方、エージェントはシステム全体、つまりメモリ、グラフィックカード、ネットワークなど様々なモジュールが接続される「マザーボード」です。同様に、エージェントは、1つまたは複数のLLMを組み込み、意思決定メカニズムや外部環境との相互作用のためのツールで補完された複雑なシステムです。単一のLLMの働きを考えると、それはパターンマッチングに帰着します。しかし、エージェントが複数のLLMを連鎖させるとき、それは「思考」していると言えます。ただし、このプロセスも依然としてパターンに基づいて構築されています。エージェントはモデル間の相互作用の論理を構築します。例えば、1つのLLMがタスクを分析し、その分析に基づいてエージェントが別のLLMが実行すべきアクションを決定するのです。人間の思考も同様の方法で機能します。私たちは蓄積された知識とパターンに依存し、適切な瞬間にそれらを選択し、処理し、結論を導き出します。このプロセスは推論と呼ばれます。ChatGPTは、人間と同様に、短期記憶と長期記憶の2種類の記憶を持っています。違いは、人間ではこれらの記憶レベルへのアクセスがより複雑で、常に線形的ではないことです。短期記憶とは、今まさに作業している情報です。人間にとっては、5分前にあなたが言ったことかもしれません。覚えているかもしれないし、忘れているかもしれません。しかし、GPTは常にその「コンテキストウィンドウ」内のすべてを考慮します。このデータをスキップしたり無視したりすることはできません。人間の長期記憶は、常に活性化されているわけではなく、特定のトリガーでのみ表面化する記憶で構成されています。子供の頃の記憶、トラウマ、あるいは心理学者とのセッションなどです。GPTにも同様の論理があります。具体的に活性化されない限り、単独で情報を「思い出す」ことはありません。例えば、「この質問を二度としないでください」や「常に丁寧な口調で話してください」といった指示は、長期記憶に保存され、毎回のセッションで適用される可能性があります。長期記憶の別の例は、保存されたドキュメントです。マーケティングリサーチの実施手順をGPTにアップロードしたとします。モデルはそれを記憶に保存できますが、それはあらゆる質問に対してそのドキュメントを参照することを意味しません。「月を懐中電灯で照らせますか?」と尋ねれば、GPTはその指示を無視します。しかし、リクエストにドキュメントのテキストと一致するキーワードが含まれている場合、モデルはそれを「思い出す」ことができます。このメカニズムは、RAG (Retrieval-Augmented Generation) を通じて実装されています。これは、モデルがベクトルデータベースを介して関連する手がかりによってトリガーされる保存情報にアクセスするアプローチです。したがって、モデルは確かに記憶を持っていると言えますが、それは人間の記憶とは異なる、より形式化された論理に従って機能しているのです。なぜAIとの会話は時に「セラピー的」に感じられ、時に冷たくロボット的に感じられるのか?現代の言語モデルは非常に巨大です。膨大な量のデータ、知識、文脈を格納しており、これらすべての情報は「クラスター」と呼ばれる、主題的・意味的な領域に整理されています。モデルは、小説や科学論文からYouTubeのコメントまで、多様な情報源でトレーニングされています。あなたがAIと対話するとき、あなたのクエリ(プロンプト)は事実上、モデルを特定のクラスターへと導きます。例えば、「あなたはニューヨークで20年の経験を持つ不動産弁護士です。アパート購入を手伝ってください」と書けば、モデルは複数のクラスターを一度に活性化します:弁護士 → ニューヨーク → 不動産。その結果、あなたはまるで実際に経験豊富な専門家に相談しているかのように、首尾一貫した、関連性が高く、現実的な回答を受け取ります。もしクエリが自己啓発や感情など、より個人的または哲学的なトピックに関するものであれば、モデルは心理学、哲学、内省などの他のクラスターへと「シフト」します。この場合、その回答は驚くほど人間的で、セラピー的にさえ感じられるかもしれません。しかし、過度に一般的または曖昧な表現では、モデルはそのクラスター構造の中で「迷子」になり、デフォルトの応答、つまり形式的で感情のこもらない、淡泊な回答を返します。AIの応答のスタイルと深さは、あなたのプロンプトでどのクラスターに導くかに依存するのです。モデルトレーニングとRLHFの哲学人工知能には、異なる学習アプローチがあります。それは哲学というより、戦略です。古典的な選択肢は教師あり学習で、モデルに質問と正解が与えられます。何が正しいと見なされるかを観察して学習し、将来同様の解決策を再現します。しかし、別のアプローチがRLHF (Reinforcement Learning from Human Feedback)です。これは異なるスタイルです。モデルは何かを試し、成功した行動に対して「報酬」を受け取り、その行動を調整します。徐々に効果的な戦略を構築していくのです。RLHFは、原材料を完成品に変えるプロセスに例えられます。使いやすいモデルを作るためには、人間のフィードバックを用いた膨大な作業が必要です。私があなたに、直接名前を言わずにある物体を見せると想像してください。あなたはためらいます:「それはシガレットケース?カードホルダー?」私は「近い」「遠い」「60% yes」といったヒントだけを与えます。何百回ものそのような反復の後、あなたは推測します:「ああ、財布だ」。LLMはこのようにしてトレーニングされます。人間、アノテーター、そして専門家が評価します:この回答は良い、これは悪い、とスコアを付けます。Keymakrのような、高品質なデータアノテーションと検証を専門とする企業は、このプロセスで重要な役割を果たします。フィードバックは一般ユーザーからも来ます:いいね、苦情、反応などです。モデルはこれらのシグナルを解釈し、行動パターンを形成していきます。モデルトレーニングの実践例強化学習を用いてエージェントをトレーニングするOpenAIの「かくれんぼ」ゲームの実験は、鮮明な例です。2つのチームが参加しました:「鬼」(赤)と「隠れる側」(青)です。ルールは単純でした:鬼が隠れる側を見つければポイントを獲得し、見つけられなければ1点を失います。当初、エージェントには基本的な身体能力(走る、跳ぶ)しかなく、事前定義された戦略は一切ありませんでした。開始時、鬼は無秩序に行動し、相手を見つけるのは偶然によるものでした。しかし、数百万回の反復の後、彼らの行動は進化しました。隠れる側は、ドアを塞いだり障壁を築いたりするために周囲の物体を使い始めました。これらのスキルは、直接的なプログラミングなしに、純粋に繰り返しの試行と成功への報酬を通じて出現しました。それに対応して、鬼はジャンプを使い始めました。これは最初から利用可能だった能力ですが、以前は無視されていました。一連の失敗の後、ジャンプのランダムな使用がその戦術的価値を明らかにしたのです。すると隠れる側は防御をさらに複雑にし、物体を鬼の視界から遠ざけ、より信頼性の高い避難所を築きました。この実験は、試行錯誤、報酬とペナルティの数十億サイクルを通じて、開発者の介入なしに複雑な協調行動が形成されうることを示しました。さらに、コミュニケーションメカニズムがプログラムされていなかったにもかかわらず、チームワークがより効果的であることが証明されたため、エージェントは協調して行動し始めました。大規模言語モデルも同じです。すべてのシナリオをスクリプト化することは不可能です。世界にはあまりにも多くの状況と多様性があるからです。したがって、私たちはモデルに固定されたルールを教えるのではなく、学習の仕方を教えるのです。これがRLHFの価値です。それなしでは、LLMとエージェントは単なるテキストのライブラリのままです。それがあって初めて、適応し、自己修正し、本質的には進化する能力を持つ会話相手となるのです。次に来るものは?多くの人が、LLMとエージェントの開発が望ましくない、あるいは危険な結果につながる可能性はないかと疑問に思っています。今日私たちが見ているものは、MVP(Minimum Viable Product)ですらなく、単なるプロトタイプに過ぎないことを理解することが重要です。真の革命は、美しい手紙を書くのを手伝ったりフランス語に翻訳したりすることについてではありません。それらは些細なことです。主な方向性は、マイクロタスクと日常的なプロセスの自動化であり、人間には真に創造的で知的なタスク、あるいは休息の時間だけを残すことです。真の革新は、エージェント、つまり人間に代わって独立して考え、行動し、意思決定できるシステムを中心に展開しています。これこそが、OpenAI、Google、Metaなどの企業が今日注力している分野です。大規模言語モデルは単なる基盤に過ぎません。真の未来は、動的な世界で生き、フィードバックを受け取り、変化に適応するようにトレーニングされたエージェントにあるのです。


人工知能と自動化が世界中の産業を変革し続ける中、農業は最も複雑で、しばしば誤解されがちな変遷の一つを経験しています。AIが人間の労働者を代替するかどうかという見出しが頻繁に登場しますが、アグテックにおける真実の物語は、代替ではなく再定義に関するものです。農業における人間の役割がイノベーションによってどのように変容するか、なぜ伝統的な教育がより希少になっているか、そしてアグテックの未来が真に必要とする専門知識はどのようなものかについて議論しましょう。学際的人材私の経験に基づくと、専門的な農業教育を受けた農業専門家の数は、金融、法律、その他の分野で働く専門家の数よりも著しく少ないです。しかし、関連分野からの専門家がこの業界に参入するケースが増えています。多くの人々は、農学のバックグラウンドではなく、例えばプログラミング、生物学、化学、物理学、その他の隣接分野から農業に入ってきます。プログラマーは農業会社で働きながら、農業への理解を徐々に深めていきます。化学者は土壌品質管理や、様々な物質が環境や植物に与える影響の分析に関わっています。農業という産業は、おそらく変容を遂げ、はるかに専門化されつつあります。過去、20世紀半ばまでは、農学者は一種のゼネラリストまたは「マルチツール」であり、畑の状態を直感的に評価していました:空気の匂いを嗅ぎ、土を味見し、植物の外観を研究し、予測を立てる。今日、その多くはテクノロジーによって行われています。現在、灌漑システムには水の品質と流量を監視するセンサーが装備され、ドローンは土壌状態のデータを収集します。アナリスト、気象学者、数学モデルが気候と生育条件の詳細な状況を作り出します。農学者は、他の分野の専門家によって収集された膨大で正確なデータを受け取り、もはやこれらすべての測定を個人的に行う必要はありません。今日の農学者の主な任務は、特定の植物の生物学を深く理解し、監視システムによって提供されるデータに基づいて、いつ植え付け、変化にどう対応するかを決定することです。加えて、彼らは実務的な問題を処理します:肥料の購入、労働力の組織化、資源の管理。ある意味で、農学者はかつての全知の専門家ではなく、ハイテクシステムのオペレーターになるのです。例えば、米国労働統計局は、2023年から2033年にかけて農業・食品科学者の雇用が8%成長すると予測しており、これは全職業の平均よりも速い伸び率です。この成長により、米国では年間約3,100件の求人が生まれると見込まれています。私たちが目にしているように、従来の意味での資格を持ち教育を受けた人材の不足は、人材の真の不足というよりも、職業の性質の変化と新しい専門分野の出現によるものです。農業はより技術主導型になりつつあり、様々な分野の専門家に新たな機会を開いています。保守的な土壌を突破してKeymakrのプロジェクトや私たちのピア・エコシステム内で、私は多くの革新的なスタートアップと話をします。彼らが共通して挙げる課題の一つは、農業分野で新しいソリューションを導入することが難しいということです。なぜなら、多くの経験豊富な農家は、なじみのない技術を採用することに慎重な傾向があるからです。このプロセスに至る背景に関連する、マッキンゼーのレポートからの洞察をいくつか紹介します: ヨーロッパと北米の農家はアグテック導入で世界をリードしており、約61%が現在使用しているか、今後2年以内に1つのアグテック製品を導入する予定です。 北米の農家は、農場管理システムの導入における最大の課題として高コストと不明確な投資収益率を挙げています。 ヨーロッパの農家は、高コストを最も懸念しながらも、導入の追加的な大きな障壁としてセットアップと使用の難しさを報告しています。 南米の農家は、オンラインプラットフォームを通じた購買プロセスへの信頼を最も懸念しています。 アジアではアグテック導入が最も低く、農家の約9%のみが少なくとも1つのアグテック製品を使用しているか、使用する予定です。 興味深いユーロスタットの調査によると、農場経営者の大多数(57.6%)は少なくとも55歳以上です。若い農家(ここでは40歳未満と定義)はわずか11.9%です。このトップヘビーな年齢構造は、農場の継承への関心と、新世代の農家を奨励する必要性を強調しています。しかし、農家の子供たち自身が農業に残ることは稀です。彼らは家族の財政的資源を利用して他のキャリアを追求します。これは農業の進歩を遅らせ、今後も遅らせ続けるのでしょうか?話している時間枠によると思います。いずれ、高齢世代の農家は引退し、若い世代に道を譲るでしょう。そして、ほとんどの若者は市場で競争力を維持するため、より高い割合でテクノロジーを利用する傾向があります。研究室から現場へ農業労働力について議論する際、私たちは主に二つのグループに焦点を当てることができます:農業生産者と技術ソリューション開発者です。ほとんどのイノベーションは、農業経営体ではなく、外部の企業やスタートアップから生まれます。これらのスタートアップは、往々にして農業分野での事前経験を持つ個人によって設立されます。これらの専門家は農業内の課題を特定し、それに対処するソリューションを作り出します。これにより、市場のニーズが技術開発を牽引し、新技術が今度は産業の方向性を形作るというダイナミックな相互作用が生まれます。学術機関はこのエコシステムにおいて重要な役割を果たしており、しばしば中核技術の発明を担っています。これらのイノベーションはその後、商業化の段階を経て、民間企業が特許を取得したり研究者を雇ったりして市場に投入します。各段階には異なる動機があります:学者は知識と発見を求め、起業家は市場機会を追求します。そして、これらの市場の交差点において、新しい職業が生み出されています。農業データアナリスト、AI作物アドバイザー、ドローン技術者などの役割は急速に成長しています。例えば、世界の農業用ドローンの市場規模は2024年に274億ドルと評価され、2030年までに1045億ドルに達すると予測されています。この急増は、AI搭載ドローンを含む精密農業技術の採用増加によって牽引されており、これらは作物モニタリングと資源最適化を強化します。デジタルスキルを持つ農業労働者の需要も高まっています。国際無人機システム協会(AUVSI)によると、ドローン産業は2025年までに米国経済に820億ドル以上を貢献し、約10万の新規雇用を創出する可能性があります。この成長は、農業、公共安全、商業用途など様々な分野でのドローン採用の増加により期待されています。一部の関係者における課題や保守的な考え方にもかかわらず、この産業は、生物学、工学、AIの交差点で働くこれらの学際的専門家によって推進され、適応し、変容しています。


農業は人類最古の営みの一つであり、根本的に変える余地はほとんど残っていないように思えるかもしれません。しかし今日、農業セクターは、気候変動からサプライチェーンの脆弱性に至るまで、世界で最も差し迫った課題の最前線に立たされています。私たちは、AIが医療や自動車産業を変革する話をよく耳にしますが、文字通り「畑」において、人工知能が最も重要な役割の一つを果たすことになるのかもしれません。現代の農業が直面する課題と、革新的な技術、特にAIが、どのように予想外でありながら不可欠な解決策を見出すのに役立っているかを探ってみましょう。課題 #1 — 飢餓と物流世界の人口は増え続けており、養うべき人の数も増えています。しかし、私たちがよく耳にする飢餓問題は、必ずしも食料不足が原因ではありません。国連食糧農業機関(FAO)によれば、世界の人口が約80億人であるにもかかわらず、世界では毎年100億人以上を養うのに十分な食料が生産されています。それでも、9人に1人、7億3500万人以上が慢性的な栄養不足に苦しんでいます。根本的な原因は?物流です。私たちは食料を育てる方法を知っていますが、それを効率的に分配することは依然として大きな課題です。一部の地域では配送コストが法外に高く、他の地域ではほぼ不可能です。武力紛争、政治的不安定、そして信頼できるインフラ、道路、倉庫、コールドチェーンの欠如が、食料供給を複雑でコストのかかるものにしています。つまり、核心的な問題は食料生産そのものではなく、その食料が農場から食卓に届くまでの方法なのです。AI技術は現在、これらの物流上の障害に取り組むための実用的なツールを提供しています。気象パターンやインフラの状態から地域の市場や人道支援のニーズまで、膨大な量のデータを分析することで、AIは配送ルートを最適化し、リスクを予測し、サプライチェーン全体での損失を最小限に抑えます。抗菌包装、温度と湿度を監視するスマートコンテナ、太陽光発電による低温貯蔵などのイノベーションも、生鮮食品の保存期間を延ばしています。課題 #2 — 食料安全保障食料安全保障とは、自然、政治、経済的要因に関わらず、国が国民に必要な食料供給を提供する能力です。この問題は物流と密接に関連しています。今日、様々な情報源によれば、世界中の数十カ国が主食を輸入に頼っています。シンプルながら示唆に富む例がアボカドです。この温暖な気候を好む作物は伝統的にラテンアメリカ、特にメキシコで栽培され、世界の輸出量の30%以上を占めています。カナダやフィンランドのように気候が大きく異なる国々が、商業規模でアボカドの栽培に成功できるでしょうか?その答えはまさに技術、そして最も重要なのは人工知能にあります。AI自体が気候を変えたり「冬をキャンセル」したりすることはありませんが、農家、エンジニア、生物技術者の手にある強力なツールです。効率的な温室の設計から、植物を地域の気候に適応させるまで、最適な解決策を見つけるのに役立ちます。いくつかの例を挙げます: 遺伝的適応: AlphaFoldのようなAIシステムは、タンパク質構造や植物ゲノムの分析を加速します。これにより、科学者は耐寒性、干ばつ耐性、害虫耐性に関与する遺伝子を特定し、編集することができます。かつては数年かかっていたことが、今では数ヶ月、あるいは数週間で起こります。 スマート温室システム: AIは特定の作物に必要な微気候をモデル化し、理想的な断熱材を持つ材料を選択し、最適な照明、暖房、灌漑、換気を計算します。これらの技術は、北極圏のような極寒地域でも生産的な温室農業を支えます。 おそらくAIが切り開く最も野心的な新境地は、広く愛されているアボカドのような人気のある食品に取って代わる可能性のある代替作物の創造です。アボカドの物語は、1990年代の寿司ブームでこの緑の果実が主要な食材となったように、文化的トレンドがニッチな製品を世界的な現象に変え得ることを示しています。同様の変革は、特定の国での栽培に理想的に適した、AIによって設計された新しい果物や野菜でも起こり得ます。消費動向、味の好み、栄養価、物流を分析することで、生物学的にも市場の観点からも、まったく新しい「スーパーフード」の開発をイノベーションが助けることができます。課題 #3 — 大量生産自動車やプラスチックのおもちゃのように、出力が比較的精密に予測できる工業生産とは異なり、農業は依然として多くの予測不可能な要因にさらされています。単一のウイルス、予期しない害虫、あるいは品質の悪い肥料が、ほんの数日で作物を全滅させることがあります。病気は一つの温室で始まり、隣接する温室に急速に広がるかもしれません。農家は区画間を移動するだけで、誤って感染を運んでしまう可能性があります。これらのリスクは大量生産の環境では倍増します。その規模の大きさゆえに、人間による監視はほぼ不可能だからです。農場が大きければ大きいほど、リスクは高く、管理は難しくなります。肥料、土壌、農薬、獣医用品は、複数の、時には外国のサプライヤーから調達されることが多く、複雑な物流調整が必要で、汚染や感染のリスクを伴います。同時に、農家は厳しい環境規制や法的規制に直面しています。化学物質の使用は、大気、水、土壌の汚染を防ぐために厳しく規制されています。例えば、欧州連合は農薬規制を強化しており、OECD諸国は2030年までに農薬使用を少なくとも30%削減する方向に向かっています。大規模農業では、手作業と直感的な意思決定は非効率になります。その量は手作業で管理するには単純に大きすぎ、誤りのコストは高すぎます。肥料、水、化学薬品といった資源を、適切な場所とタイミングで正確に配分することが不可欠です。この問題に対して、イノベーションはどのように役立つのでしょうか? 精密農業と意思決定: 先進技術は、レーダーやリモートセンシングシステムを用いて土壌をスキャンすることができます。機械学習アルゴリズムは、土壌、天気、微気候、pHレベルのデータを分析して資源配分を最適化します。これにより、肥料と水の使用量を20〜40%削減できる可能性があります。気象モデルは、大気の動きに基づいて天候パターンを予測することで、この分析をさらに強化します。例えば、アフリカで発生した砂塵嵐は土壌のミネラル含有量を変化させ、ヨーロッパからの気団はその酸性度に影響を与える可能性があります。データに基づいて、正確な予測と農学的推奨事項が生成され、意思決定をサポートします。 早期診断と予防: AIは、発生しつつある問題のパターンを特定し、それが深刻になるずっと前に予測します。供給、処理、収量に関するデータから学習することで、AIは農家が脅威を感じる前に介入を推奨することができます。例えば、Keymakrは、害虫や病気の検出のためのコンピュータビジョンソリューションを開発するデータサイエンス企業にアノテーションサービスを提供しました。私たちは、早期警戒システムを改善し、大規模な作物を保護するためのより正確でタイムリーな介入を可能にする、専門家によるラベル付けされたデータセットの準備を支援しました。 技術の未来:イノベーションの川が流れる先技術の進歩を、山から海へと流れる川に例えるなら、一つのことが明らかになります。イノベーションは真空の中で起こるのではありません。それは、より容易に突破口を開けることができる領域、つまり真の需要、明確なビジネスモデル、経済的リターンがある領域へと流れていきます。今日、農業はそのような有望な方向性をいくつか提供しています。予測分析ビッグデータを用いて収量、病気の発生、気候変動、植物のニーズを予測する能力は必要不可欠です。AIはすでに、気象モデル、衛星画像、センサーデータを用いて、農家がいつどこに植え、どれだけ水をやり、いつ肥料を与えるかを判断するのを助けています。この技術はアグテック分野で最も急速に成長しているものの一つです。垂直農業かつて未来的と考えられていた垂直農業、または「バビロニアの塔」は、今や現実のものとなっています。シンガポール、日本、UAE、オランダでは、数十の垂直農場が多段式システムを用いてレタス、葉物野菜、イチゴ、さらには家畜飼料を生産しています。このようなソリューションへの需要は、土地が限られている大都市で特に強くなっています。高層養豚場、バイオガスシステム、自律型温室は、水とエネルギーを節約しながら、平方メートルあたり最大10倍の収量で食料生産を可能にします。例えば、2023年には中国が世界初の26階建て自動化養豚場を稼働させました。給餌から廃棄物管理まで、すべてが完全に機械化されています。次世代畜産二つの主要なトレンドが畜産農業を再形成しています。一つ目は、スマート給餌器、AIベースの動物健康モニタリング、気候制御システムによる伝統的な畜産の自動化です。二つ目は代替タンパク質の台頭です。培養肉、マイコプロテイン(菌類由来)、昆虫ベースのタンパク質への関心が高まっています。これらのイノベーションは、より持続可能であるだけでなく、さまざまな倫理的懸念にも対処できます。そして最後に、ユニークで代替不可能な花粉媒介者であるミツバチについて触れたいと思います。世界のミツバチの個体数は毎年約35%減少し続けています。ミツバチの受粉における重要な役割を考えると、この減少は世界の食料供給と安全保障に深刻な脅威をもたらします。World Bee Projectによれば、世界の作物の約75%が、少なくとも部分的にミツバチに依存しています。私たちがまだ、ミツバチの効果に匹敵する人工的な受粉方法を開発していないことを知って驚きました。例えば中国で使用されているブラシを装備したロボットは、ミツバチが自然に行うことのごく一部しか模倣できません。自然受粉の複雑さと効率性は、現代技術にとって大きな需要と課題です。もし私が今日新しい事業を始めるとしたら、養蜂に投資するでしょう。しかし、それは難しい分野です。ミツバチは繊細な生き物で、特定のケアを必要とします。彼らはしばしば飼育下での繁殖に抵抗し、数多くの環境的脅威に脆弱です。だからこそ、ミツバチの個体群を保護し繁殖させることを目的とした技術は、ニッチな追求から、世界の食料安全保障の礎へと進化する可能性があります。


2030年までに、自動運転車市場は2.2兆ドルを超えると予測されており、AIと高度なセンサーシステムを搭載した何百万台もの車が道路を走行することになります。しかし、この急速な成長の中でも、根本的な議論は未解決のままです。自動運転に最適なセンサーは何か? LiDAR、カメラ、レーダー、それとも全く新しい何か?この問いは、決して学術的なものではありません。センサーの選択は、安全性や性能からコスト、エネルギー効率に至るまで、あらゆることに影響します。Waymoのような企業は冗長性と多様性に賭け、自社の車両にLiDAR、カメラ、レーダーをフル装備しています。一方、Teslaのような企業は、よりミニマリストでコスト効率の高いアプローチを追求し、カメラとソフトウェアの革新に大きく依存しています。これらの分岐する戦略、直面する技術的パラドックス、そして意思決定を駆動するビジネスロジックを探ってみましょう。より賢い機械には、より賢いエネルギー解決策が必要な理由これは確かに重要な問題です。私は2013年にドローン関連のスタートアップを立ち上げた際、同様のジレンマに直面しました。当時、人間の動きを追跡できるドローンの開発を試みていました。そのアイデアは時代を先取りしていましたが、すぐに技術的なパラドックスがあることが明らかになりました。ドローンが物体を追跡するためには、センサーデータを分析する必要があり、それには計算能力、つまりオンボードコンピューターが必要です。しかし、必要なコンピューターが強力であればあるほど、エネルギー消費量は増加します。その結果、より大容量のバッテリーが必要になります。しかし、バッテリーが大きくなるとドローンの重量が増加し、重量が増えるとさらに多くのエネルギーが必要になります。電力需要の増加がエネルギー消費量、重量、そして最終的にはコストの増加につながるという悪循環が生じるのです。同じ問題が自動運転車にも当てはまります。一方では、可能な限り多くのセンサーを車両に搭載し、できるだけ多くのデータを収集、同期させ、最も正確な判断を下したいと考えます。他方で、これはシステムのコストとエネルギー消費量を大幅に増加させます。センサー自体のコストだけでなく、そのデータを処理するために必要なエネルギーも考慮することが重要です。データ量は増加し続け、計算負荷は増大しています。もちろん、時が経つにつれて、コンピューティングシステムはよりコンパクトでエネルギー効率が良くなり、ソフトウェアも最適化されてきました。1980年代には、10×10ピクセルの画像を処理するのに数時間かかることがありましたが、今日ではシステムが4Kビデオをリアルタイムで分析し、過剰なエネルギーを消費することなくデバイス上で追加の計算を実行します。しかし、性能に関するジレンマは依然として残っており、AV企業はセンサーだけでなく、計算ハードウェアや最適化アルゴリズムも改善しています。処理か、知覚か?システムがどのデータを破棄するかを決定しなければならない性能上の問題は、主に計算上の制限によるものであり、LiDAR、カメラ、またはレーダーセンサーの問題ではありません。これらのセンサーは、車両の目や耳として機能し、環境に関する膨大な量のデータを継続的に捕捉します。しかし、オンボードのコンピューティング「脳」がこれらすべての情報をリアルタイムで処理する能力を欠いている場合、それは圧倒的なものになります。その結果、システムは特定の状況下で、より優先度の高いタスクに集中するために、一部の物体やシーンを無視する可能性がありながら、あるデータストリームを他のものより優先しなければならなくなります。この計算上のボトルネックは、センサーが完全に機能しており、多くの場合信頼性を確保するための冗長性を持っていても、車両がすべてのデータを効果的に処理するのに苦労する可能性があることを意味します。この文脈でセンサーを非難するのは適切ではありません。問題はデータ処理能力にあるからです。計算ハードウェアを強化し、アルゴリズムを最適化することは、これらの課題を軽減するための重要なステップです。大量のデータを処理するシステムの能力を向上させることで、自動運転車は重要な情報を見逃す可能性を減らし、より安全で信頼性の高い運用を実現できます。LiDAR、カメラ、レーダーシステム:長所と短所ある種類のセンサーが別のものより優れているとは言えません。それぞれが独自の目的に役立ちます。問題は、特定のタスクに適したセンサーを選択することで解決されます。LiDARは、精密な3Dマッピングを提供しますが、高価であり、レーザー信号を散乱させる可能性のある雨や霧などの悪天候条件下では苦戦します。また、その高密度なデータを処理するには、かなりの計算リソースが必要です。カメラは、コスト効率が高いものの、照明条件に大きく依存し、低照度、グレア、または急速な照明変化では性能が低下します。また、本質的な深度知覚がなく、レンズの汚れ、雨、雪などの障害物にも弱いです。レーダーは、様々な気象条件下で物体を検出するのに信頼性がありますが、解像度が低いため、小さな物体や接近した物体を区別するのが困難です。また、無関係なアイテムを検出して不必要な反応を引き起こす可能性のある誤検知を頻繁に発生させます。さらに、レーダーはカメラのように文脈を解読したり、物体を視覚的に識別するのに役立つことはできません。センサーフュージョン(LiDAR、レーダー、カメラからのデータを組み合わせること)を活用することで、これらのシステムは環境についてより包括的かつ正確な理解を得ることができ、それが安全性とリアルタイムの意思決定の両方を向上させます。Keymakrは主要なADAS開発者との協業を通じて、このアプローチがいかにシステムの信頼性にとって重要であるかを示してきました。私たちは、モデルのトレーニングと改良をサポートするために、多様で高品質なデータセットに一貫して取り組んできました。Waymo対Tesla:二つの自動運転ビジョンの物語AVの世界で、TeslaとWaymoほど議論を呼ぶ比較はほとんどありません。両社ともモビリティの未来を開拓していますが、その哲学は根本的に異なります。では、なぜWaymoの車はセンサーでぎっしりの宇宙船のように見え、Teslaは外部センサーがほとんどないように見えるのでしょうか?Waymoの車両を見てみましょう。これは自動運転用に改造されたベースのJaguarです。その屋根には数十個のセンサーがあります:LiDAR、カメラ、回転レーザーシステム(いわゆる「スピナー」)、そしてレーダーです。本当にたくさんあります:ミラー内のカメラ、前後のバンパー上のセンサー、長距離視認システム。これらすべてが同期されています。もしそのような車両が事故に遭った場合、エンジニアリングチームは不足している情報を収集するために新しいセンサーを追加します。彼らのアプローチは、利用可能な技術を最大限に使用するというものです。では、なぜTeslaは同じ道を歩まないのでしょうか?主な理由の一つは、TeslaがまだそのRobotaxiを市場にリリースしていないことです。また、彼らのアプローチはコスト最小化と革新に焦点を当てています。Teslaは、LiDARの使用はその高コストのために非現実的であると考えています:RGBカメラの製造コストは約3ドルであるのに対し、LiDARは400ドル以上かかる可能性があります。さらに、LiDARには機械部品(回転ミラーやモーター)が含まれており、故障や交換の可能性が高くなります。対照的に、カメラは静的なものです。可動部がなく、はるかに信頼性が高く、ケースが劣化したりレンズが曇ったりするまで数十年間機能することができます。さらに、カメラは車のデザインに統合しやすく、ボディ内部に隠し、ほぼ見えなくすることができます。生産アプローチも大きく異なります。Waymoは既存のプラットフォーム(量産型のJaguar)を使用し、そこにセンサーを取り付けます。彼らには選択肢がありません。一方、Teslaは一から車両を製造しており、最初からボディへのセンサー統合を計画し、視界から隠すことができます。形式的には仕様に記載されますが、視覚的にはほとんど気づかれないでしょう。現在、Teslaは車の周囲(前部、後部、サイドミラー、ドア)に8台のカメラを使用しています。追加のセンサーを使用するでしょうか?私はそう思います。Teslaのドライバーであり、Waymoの車両にも乗った経験から、LiDARを組み込むことはTeslaのフルセルフドライビングシステムを改善するだろうと私は考えています。TeslaのFSDは現在、運転時にいくらかの精度が欠けているように感じます。LiDAR技術を追加することで、強い太陽のグレア、空中の塵、霧などの困難な条件下での走行能力が向上する可能性があります。この改善により、カメラのみに依存する場合と比較して、システムがより安全で信頼性の高いものになる可能性があります。しかし、ビジネスの観点から見ると、企業が独自の技術を開発するとき、それは競争優位、つまり技術的優位性を目指しています。劇的に効率的で安価なソリューションを作り出すことができれば、市場支配への道が開けます。Teslaはこの論理に従っています。Muskは、VolkswagenやBaiduのような他の企業が歩んだ道を進みたくないのです。これらの企業もかなりの進歩を遂げています。古い車に搭載されているMobileyeやiSightのようなシステムでさえ、既に十分な自律性を示しています。しかし、Teslaは独自であることを目指しています。それがビジネスロジックです。何か根本的に優れたものを提供しなければ、市場はあなたを選ばないでしょう。


自動車産業は、道路、車両、そして環境全般に関するデータが広く利用可能であるという背景から、急速なイノベーションの準備が整っています。特に注目すべきは、貨物輸送とロボタクシーという2つの分野です。何十年にもわたって蓄積されてきたソリューションがついに市場に到達しつつあり、両分野はイノベーションと効率化のユニークな機会を提供しています。それぞれの方向性の特徴、ビジネスサポート、さらなる開発が行われる地域について考察してみましょう。市場をリードするのは誰か世界の自律走行車市場は、主に3つの主要地域、すなわちアメリカ、ヨーロッパ、中国によって形成されています。ヨーロッパは、この分野で最も包括的な規制枠組みを有していることで知られています。GDPRやプライバシー関連の要件、最近採択されたEU AI法などの詳細な基準は、イノベーションに課題をもたらす可能性があります。このように厳格に管理された環境では、技術開発はより慎重に進められるかもしれません。対照的に、中国は異なるアプローチを取り、AIイニシアチブを積極的に支援しています。自律走行車が事故に関与した場合でも、通常は同じようには追求されません。関係者に同じような悪影響を与えることはないのです。主な優先事項は技術的進歩であり、それは将来の利益と見なされています。アメリカについては、ドナルド・トランプ政権以前、国はAIイニシアチブを個々の州に任せている状態が主でした。しかし、新政権の誕生とともに戦略的転換が訪れました。当局は、従来のアプローチを維持することは、技術競争で国が遅れをとる原因になりうると認識したのです。その結果、アメリカはより自由な規制モデルへと動き始めました。これは、技術的成長を促進し、特に中国での急速な発展と比較して、国が世界の舞台で競争力を維持することを目的としています。ロボタクシーロボタクシー産業は2024年に大幅な成長を経験しました。中国では、百度のApollo Goが武漢で400台以上の自律走行タクシーを運営しました。アメリカでは、Waymoがロサンゼルスへのサービスを拡大し、一般市民に乗車を提供し、週15万回以上の乗車を管理しています。アナリストは、世界のロボタクシー市場は2045年までに1740億ドルに達し、2025年から37%の年間複合成長率を反映すると予測しています。なぜロボタクシーはますます人気を集めているのでしょうか。これには少なくとも2つの重要な理由があります。最初の理由は消費者主導ですユーザーがロボタクシーに関心を持つのは、人間のドライバーに伴う多くのリスクや不快感が解消されるからです。ドライバーが疲れている、攻撃的である、情緒不安定である、あるいは技術が未熟であるといった心配がありません。人々は、自分で到着し、安全に目的地まで連れて行き、確実にそれを実行する車を求めています。2つ目の理由はビジネス指向ですロボタクシーは、個人や小規模起業家にとって新たなビジネスチャンスを生み出します。Airbnbがアパートの所有者に物件を貸し出すことで収入を得られるようにするのと同様に、ロボタクシーは誰でも1台以上の自律走行車を購入し、路上に走らせ、その車両群を管理することで収入を生み出すことを可能にします。これは、小規模ビジネスと起業家精神の新たな分野への扉を開きます。貨物輸送自律貨物輸送セクターは、近年、著しい成長と変革を遂げています。2024年、世界の自律トラック市場は約3569億ドルと評価されました。これらの数字は調査会社によるものですが、物流は破壊の準備が整っている地球上で最大規模の産業の一つであるため、現実ははるかに大きいものです。毎日、何十万台ものトラックがヨーロッパとアメリカの道路を走り、商品、Amazonの荷物、食品などを届けています。数え切れないほどの巨大なサプライチェーンは、何兆ドルもの価値があります。このセクターにおける自律トラックの可能性は、旅客輸送よりもさらに大きいものです。トラックは主に長くまっすぐな高速道路で運行され、その条件は都市環境よりも予測可能です。これは自律システムにとって作業を容易にします。同時に、物流効率は大幅に向上します: 人間のドライバーは、事故を避けるために休息と睡眠のための休憩を取る必要があります。 自律トラックは、給油または充電のためだけに停止すれば、ほぼ非停止で稼働できます。 十分な航続距離があれば、これらの停止さえも最小限に抑えることができます。 配送速度は向上し、コストは削減され、サプライチェーンはより効率的になります。 Keymakrでは、自律貨物業界のいくつかの主要プレーヤーを支援しており、市場にはまだ出回っていないイノベーションを目にすることができます。当社チームは、高速道路走行シナリオに特化した大規模なアノテーションプロジェクトに広く取り組んでいます。これには、物体検出、車線セグメンテーション、LiDARおよびカメラシステムのためのセンサーフュージョンデータなどが含まれます。これらのプロジェクトへの需要は、このセクターの真の成熟度を浮き彫りにしています。ビジネスの視点一般的に、企業輸送、B2Bソリューションなど、ビジネス環境に関連するすべてのものは、B2Cセクターよりも高い利益率を提供する傾向があります。専門の物流事業者は、Uberなどの例外を除き、タクシーサービスプロバイダーよりも高い収益を上げる傾向があります。これは、異なる価格レベル、事業規模、およびタスクの特定の性質によるものです。もう一つの重要な違いは、B2Bはより閉鎖的な環境で運営され、世間の注目や情報のノイズをあまり受けませんが、B2Cはニュースサイクルに依存しがちだということです。これはリスクを軽減し、新技術の立ち上げを簡素化します。注目を集めることへの焦点が少ないため、企業はたとえ完全に成熟していなくても、革新的なソリューションをより迅速に開発し、実装することができます。これらの理由から、B2Bセグメント、特に物流において、自律輸送システムの最も活発な開発が行われるでしょう。責任の問題自律走行車は、責任の問題、すなわち事故が発生した場合に誰がその結果に対する責任を負わなければならないかという難しい状況に直面しています。自律走行車には、従来の車両よりもはるかに多くの関係者が関わっています。所有者からソフトウェア開発者、OEMに至るまで、すべての関係者がその安全性に一役買っています。この問題はしばしば提起され、本質的にはすでに対処されています。主な責任は、車両群を管理する会社(フリートマネージャー)にあります。これらはUberやLyftのような大企業かもしれません。このような企業は、ルーティング、メンテナンス、法的側面を含む、車両群管理のためのアルゴリズムとプロセスを作成します。このモデルはAirbnbに似ています。リソースを管理するとき、あなたはそれに対して責任を負い、プラットフォームは紛争を解決するための枠組みを提供します。したがって、管理会社もいかなる事故に対しても責任を負うことになります。市場は、ソフトウェア開発者、ハードウェアメーカー、その他の関係者の正確な責任の割合を決定するのに役立つ、このための保険システムを整えるでしょう。まとめると、未来は、技術的ソリューション、ビジネス直感、適応性を組み合わせることができる者に属します。これらの企業が、モビリティの新時代をリードするでしょう。


AI駆動型ソリューションは、多様な業界、サービス、製品において日々急速に採用が進んでいます。しかし、その有効性は、学習に使用されるデータの質に完全に依存しており、これはデータセット作成プロセスにおいてしばしば誤解されたり見過ごされたりする側面です。データ保護当局が、AI技術がプライバシーおよびデータ保護規制にどのように準拠しているかの監視を強化する中、企業は、コンプライアンスと倫理に則った方法でデータセットを調達、注釈付け、精緻化することへのプレッシャーを増大させています。AIデータセットを構築する真に倫理的なアプローチは存在するのでしょうか?企業が直面する最大の倫理的課題は何か、そしてそれらにどのように対処しているのでしょうか?また、進化する法的枠組みは、学習データの利用可能性と使用にどのような影響を与えるのでしょうか?これらの問いを探ってみましょう。データプライバシーとAI本質的に、AIはタスクを実行するために大量の個人データを必要とします。これは、この情報の収集、保存、使用に関する懸念を引き起こしています。欧州のGDPRや新たに導入されたAI法から、米国の医療業界における患者データへのアクセスを規制するHIPAAに至るまで、世界中の多くの法律が個人データの使用を規制・制限しています。世界各国のデータ保護法の厳格さに関する参考資料 / DLA Piper 例えば、現在14の米国州が包括的なデータプライバシー法を有しており、さらに6州が2025年および2026年初頭に施行される予定です。新政権は、連邦レベルでのデータプライバシー執行へのアプローチの転換を示唆しています。重要な焦点はAI規制であり、制限を課すよりもイノベーションの促進を強調しています。この転換には、AIに関する以前の大統領令の廃止と、その開発と応用を導く新たな指令の導入が含まれます。データ保護法は各国で進化しています:欧州では法律はより厳格ですが、アジアやアフリカでは比較的緩やかになる傾向があります。しかし、顔画像、パスポートなどの公式文書、その他の機微な個人データなどの個人識別情報(PII)は、ほとんどの国である程度制限されています。国連貿易開発会議(UN Trade & Development)によれば、消費者の通知や同意なしに第三者への個人情報の収集、使用、共有は、世界の大部分にとって主要な懸念事項です。194カ国中137カ国がデータ保護とプライバシーを確保する規制を有しています。その結果、EUなどの規制がそのような慣行を厳しく禁止しているため、ほとんどのグローバル企業はモデル学習にPIIを使用しないよう広範な予防措置を講じており、法執行などの厳しく規制された分野での稀な例外を除いています。時が経つにつれ、データ保護法はより包括的かつ世界的に執行されるようになっています。企業は、法的課題を回避し、新たに出現する法的・倫理的要件を満たすために自社の慣行を適応させています。企業はどのような方法でデータを入手するのか?したがって、モデル学習のためのデータ保護問題を研究する際には、まず企業がこのデータをどこから入手するかを理解することが不可欠です。データには3つの主要な供給源があります。 データ収集 この方法により、クラウドソーシングプラットフォーム、メディアストック、オープンソースデータセットからデータを収集することが可能になります。公共のストックメディアは異なるライセンス契約の対象となることに注意することが重要です。商用利用ライセンスでさえ、多くの場合、コンテンツをモデル学習に使用できないことを明示的に規定しています。これらの条件はプラットフォームごとに異なり、企業は必要な方法でコンテンツを使用する能力を確認する必要があります。AI企業が合法的にコンテンツを入手した場合でも、いくつかの問題に直面することがあります。AIモデル学習の急速な進歩は法的枠組みをはるかに上回っており、AI学習データを取り巻く規則や規制はまだ進化の過程にあります。その結果、企業は法的動向について情報を得続け、AI学習にストックコンテンツを使用する前にライセンス契約を注意深く確認しなければなりません。 データ作成 最も安全なデータセット準備方法の一つは、スタジオや屋外ロケーションなどの管理された環境で人々を撮影するなど、独自のコンテンツを作成することです。参加前に、個人はPIIの使用に関する同意書に署名し、どのデータが収集されるか、それがどのように、どこで使用され、誰がアクセスするかを特定します。これにより完全な法的保護が確保され、企業は違法なデータ使用の主張に直面しないという確信を得ることができます。この方法の主な欠点はコストであり、特にエッジケースや大規模プロジェクトのためにデータが作成される場合に顕著です。しかし、大企業やエンタープライズは、少なくとも2つの理由から、このアプローチを使用し続けることが増えています。第一に、すべての基準と法的規制への完全な準拠が保証されます。第二に、企業に特定のシナリオとニーズに完全に合わせたデータを提供し、モデル学習における最高の精度を保証します。 合成データ生成 ソフトウェアツールを使用して、与えられたシナリオに基づいて画像、テキスト、または動画を作成すること。しかし、合成データには限界があります:それは事前に定義されたパラメータに基づいて生成され、実際のデータの自然な多様性を欠いています。この欠如はAIモデルに悪影響を与える可能性があります。すべてのケースに関連するわけではなく、常に起こるわけではありませんが、「モデル崩壊」を覚えておくことは重要です。これは、合成データへの過度の依存がモデルの劣化を引き起こし、低品質の出力につながるポイントです。合成データは、一般的なパターンの認識、オブジェクトの識別、顔などの基本的な視覚要素の区別などの基本的なタスクには、依然として非常に効果的です。しかし、企業がモデルをゼロから完全に学習させる必要がある場合や、稀または非常に特定のシナリオを扱う場合には最良の選択肢ではありません。最も顕著な状況は、車内環境で発生します。例えば、子供に気を取られている運転手、疲労の兆候を示している運転席の人、さらには無謀運転の事例などです。これらのデータポイントは、実際の個人が私的な状況にあるため、公共のデータセットでは一般的に利用できませんし、利用されるべきでもありません。AIモデルは学習データに依存して合成出力を生成するため、遭遇したことのないシナリオを正確に表現するのに苦労します。合成データが失敗した場合、実際の役者を管理された環境で収集した作成データが解決策となります。Keymakrのようなデータソリューションプロバイダーは、カメラを車内に設置し、役者を雇い、赤ちゃんの世話をしたり、ボトルから飲んだり、疲労の兆候を示したりする行動を記録します。役者は、自身のデータがAI学習に使用されることに明示的に同意する契約に署名し、プライバシー法への準拠を確保します。データセット作成プロセスにおける責任プロセスにおける各参加者、クライアントから注釈付け会社まで、それぞれの合意書に明記された特定の責任があります。最初のステップは契約の確立であり、これには非開示や知的財産に関する条項を含む関係の性質が詳細に記されます。まず、データをゼロから作成する場合の作業オプションについて考えてみましょう。知的財産権は、プロバイダーが作成するあらゆるデータは雇用企業に帰属する、つまり彼らのために作成されることを規定しています。これはまた、プロバイダーがデータが合法的かつ適切に取得されることを保証しなければならないことも意味します。データソリューション企業として、Keymakrは、データが作成される管轄区域をまず確認し、関与するすべての個人から適切な同意を得て、データがAI学習に合法的に使用できることを保証することで、データのコンプライアンスを確保します。また、データがAIモデル学習に使用されると、AIがすべてを融合させるため、どの特定のデータがモデルに貢献したかを判断することはほぼ不可能になることにも注意することが重要です。したがって、特に数百万枚の画像について議論する場合、特定の出力はその出力である傾向はありません。その急速な発展のため、この分野ではまだ責任の配分に関する明確なガイドラインが確立されていません。これは、責任が運転手、製造業者、ソフトウェア会社のいずれにあるかについての疑問が依然として明確な配分を必要とする自動運転車の複雑さに似ています。他のケースでは、注釈付けプロバイダーが注釈付けのためにデータセットを受け取った場合、クライアントが合法的にデータを取得したと仮定します。データが違法に取得された明確な兆候がある場合、プロバイダーはそれを報告しなければなりません。しかし、そのような明白なケースは極めて稀です。また、自社の評判を重視する大企業、法人、ブランドは、データがゼロから作成されたものでなくても、他の合法的なソースから取得された場合でも、そのデータの調達元について非常に注意深いことにも注意することが重要です。要約すると、データ作業プロセスにおける各参加者の責任は合意に依存します。このプロセスを、各参加者が法的・倫理的基準を維持する上で重要な役割を果たす、より広範な「持続可能性チェーン」の一部と考えることができます。AI開発のバックエンドに関する誤解は何か?AI開発に関する大きな誤解は、AIモデルが検索エンジンと同様に機能し、学習した知識に基づいて情報を収集・集約してユーザーに提示するというものです。しかし、AIモデル、特に言語モデルは、多くの場合、真の理解ではなく確率に基づいて機能します。それらは、以前のデータで見られたパターンを使用して、統計的な可能性に基づいて単語や用語を予測します。AIは何も「知って」いません。それは外挿し、推測し、確率を調整するのです。さらに、多くの人はAIの学習には膨大なデータセットが必要だと考えていますが、AIが認識する必要があるものの多く(犬、猫、人間など)はすでに確立されています。現在の焦点は、認識能力を再発明することではなく、精度を向上させ、モデルを洗練させることにあります。今日のAI開発の多くは、ゼロから始めるのではなく、精度における最後の小さなギャップを埋めることに中心を置いています。倫理的課題と欧州連合AI法および米国規制の緩和が世界のAI市場に与える影響データを扱うことの倫理と合法性について議論する際には、「倫理的」なAIを定義するものを明確に理解することも重要です。今日、企業がAIにおいて直面する最大の倫理的課題は、AIが行うこと、または教えられることが何を許容されないと見なされるかを決定することです。倫理的AIは人間を害するのではなく助け、欺瞞を避けるべきであるという広範な合意があります。しかし、AIシステムはエラーを犯したり「幻覚」を起こしたりすることがあり、これらの誤りが誤情報や害に該当するかどうかの判断を困難にします。AI倫理は、UNESCOのような組織が関与する主要な議論であり、出力の監査可能性と追跡可能性を中心とした主要な原則があります。データアクセスとAI学習を取り巻く法的枠組みは、AIの倫理的景観を形成する上で重要な役割を果たします。データ使用に関する制限が少ない国々は、よりアクセスしやすい学習データを可能にし、データ法がより厳格な国々は、AI学習のためのデータの利用可能性を制限します。例えば、AI法を採択した欧州と、多くのAI規制を撤回した米国は、現在の世界的な状況を示す対照的なアプローチを提供しています。欧州連合AI法は、欧州で事業を展開する企業に大きな影響を与えています。それは厳格な規制枠組みを強制し、企業が特定のAIモデルを使用または開発することを困難にしています。企業は特定の技術を扱うために特定のライセンスを取得する必要があり、多くの場合、規制は中小企業がこれらの規則に準拠することを事実上困難にしています。その結果、一部のスタートアップは、暗号通貨規制で見られた影響と同様に、欧州を離れるか、そこで事業を展開することを完全に避えることを選択するかもしれません。コンプライアンス要件を満たすために必要な投資を負担できる大企業は適応するかもしれませんが、この法は、規制がより緩やかな米国やイスラエルなどの市場を支持して、イノベーションを欧州から追い出す可能性があります。米国がより少ない制限でAI開発に主要な資源を投資する決定は、欠点もあり得ますが、市場により多様性をもたらすでしょう。欧州連合が安全性と規制コンプライアンスに焦点を当てる一方で、米国はより多くのリスクテイクと最先端の実験を促進する可能性が高いです。