

Nvidiaは、CES 2026で、オープンな基礎モデル、シミュレーションツール、エッジハードウェアを組み合わせた包括的なロボティクスエコシステムをリリースしました。これは、Androidがスマートフォンのオペレーティングシステムになったのと同様に、汎用ロボティクスのデフォルトプラットフォームになることを目指しています。1月5日のJensen Huang CEOの基調講演での発表では、Nvidiaは、ロボットが狭い、タスク固有の機能を超えて、理由、計画、そしてさまざまな環境で適応することができる、登場する市場を攻めることを目指しています。同社は、Isaac GR00T N1.6、Cosmosワールド基礎モデル、および新しいシミュレーションフレームワークをリリースしました。これらはすべて、GitHubでオープンソースとして利用可能です。「物理AIのChatGPTの瞬間がここにあります。機械が実世界で理解し、推論し、行動するとき」と、Huangは会社の公式発表で述べました。フルスタックには、いくつかの相互接続されたコンポーネントが含まれます。Isaac GR00T N1.6は、人間型ロボット用に特別に設計されたオープンなビジョン言語アクションモデルとして機能し、全身制御を可能にし、機械が同時に動きと物体の操作を実行できるようにします。このモデルは、Cosmos Reasonを使用して、高レベルの推論を実行し、複雑な物理タスク(例:重いドアの開け閉めや動的環境のナビゲーション)を実行します。Cosmosワールド基礎モデルは、トレーニングインフラストラクチャを提供します。これらのモデルは、20万時間の実世界データから9,000兆トークンを使用してトレーニングされ、物理的に認識された合成環境を生成し、ロボットのトレーニングを劇的に加速します。 GR00Tブループリントを使用して、Nvidiaは、11時間で6,500時間の人間のデモデータに相当する78万の合成トラジェクトリを生成しました。合成データと実データを組み合わせることで、GR00T N1のパフォーマンスが40%向上しました。エコシステムをサポートするのは、GitHubでホストされているオープンソースのシミュレーションフレームワークであるIsaac Lab-Arenaです。これにより、ロボットの能力をデプロイ前に仮想的に安全にテストできます。NVIDIA OSMOは、デスクトップとクラウド環境全体でデータ生成、トレーニング、デプロイを統合するコマンドセンターとして機能します。業界パートナーがプラットフォームを採用戦略的な意味は、技術的な能力を超えています。Boston Dynamics、Caterpillar、Franka Robotics、NEURA Roboticsを含むグローバルパートナーは、すでにNvidiaのスタックを使用して次世代のロボットを開発しています。シーメンスは、Nvidiaのフルスタックを工業用ソフトウェアと統合するためのパートナーシップを拡大し、設計から生産までの物理AIの展開を発表しました。Nvidiaはまた、Hugging Faceとのコラボレーションを深め、IsaacおよびGR00TテクノロジーをLeRobotフレームワークに統合しました。このパートナーシップにより、Nvidiaの200万人のロボティクス開発者とHugging Faceの1300万人のAIビルダーがつながり、物理AIアプリケーション向けのオープンソースモデル開発を加速することができるエコシステムが生まれます。Google DeepMindおよびDisney Researchとの別のコラボレーションでは、ロボットがより精密な操作タスクを学習できるように設計されたオープンソースの物理エンジンであるNewtonを開発します。ロボティクスのためのAndroid戦略Nvidiaのアプローチは、Androidがスマートフォンで支配的な地位を得たプラットフォーム戦略を反映しています。ハードウェアメーカーが構築する基礎レイヤーを提供し、エコシステムが成長するにつれて利益を得るというものです。モデルをオープンライセンスでリリースし、既存の工業用ソフトウェアとの統合を強調することで、同社はロボットメーカーに対する競争相手ではなく、必須のインフラストラクチャであると位置付けられています。タイミングは注目に値します。 人間型ロボティクスセクターは、主に中国の150社以上が人間型ロボットを開発するために競争していることで、激しい投資とバブル条件の警告を受けています。Nvidiaのプラットフォーム戦略は、どのロボットメーカーが勝つかという疑問を避け、すべてのロボットメーカーに基礎となる知能レイヤーを提供することで対処します。Cosmosモデルはすでに200万回以上ダウンロードされており、1X、Agility Robotics、XPENGを含む物理AIのリーダーは、これらを使用してモデル開発を加速しています。ロボットブレイン開発者であるSkild AIは、合成データセットを強化するためにCosmos Transferを利用しています。一方、1Xは、フルCosmosスタックを使用して人間型ロボットNEO Gammaをトレーニングしています。ロボティクスアプリケーションのソリューションを構築する開発者にとって、Nvidiaのモデルがオープンに利用できることは、参入障壁を低減します。NvidiaがロボティクスにおけるAndroidと同様の役割を果たすことになるかどうかは不明ですが、同社は明らかに物理AI時代のインフラストラクチャプロバイダーとしての地位を確立しています。


人工知能と支店の閉鎖により、2030年までにヨーロッパの銀行業界で約20万人の雇用が消えるという予測がモルガンスタンレーから出ていると、フィナンシャル・タイムズ(FT)が報じた。35の金融機関を対象としたこの分析では、合計210万人の従業員を雇用する銀行業界で10%の雇用削減となる。これは、AIがもたらす銀行業界最大の構造改革である。この削減は、銀行が「中央サービス」と呼ぶ部門、つまりバックオフィス業務、リスク管理、コンプライアンス部門で最も影響が出る見込みである。モルガンスタンレーの分析によると、多くのヨーロッパの銀行は、AIとデジタル化により最大30%の効率化を達成できるという予測を立てており、これらの節約は、従業員の再配置ではなく、削減につながっている。ヨーロッパの銀行は、投資家からアメリカのライバルと比較しての収益性のギャップを埋める圧力に直面している。特にフランスとドイツでは、労働者保護が強いため、雇用削減が複雑になる。銀行の動きオランダの銀行ABNアムロは、先行する動きを見せている。11月には、2028年までに5,200人の雇用(約24%の従業員)を削減する計画を発表した。CEOのマルグリット・ベラールは、AIがこの変革の中心であると強調した。銀行は、AIがルーティンワークを処理するにつれて、顧客サービス、運用、-money洗浄部門での雇用が最大35%削減されることを予想している。ソシエテ・ジェネラルも同様の姿勢を見せている。CEOのスワヴォミール・クルパは3月に、「何も聖域ではない」と述べ、フランスの銀行は高コスト基盤を目標に、IT支出と外部コンサルタントを対象にしている。同時に、BNPパリバはAIの統合を進めており、2026年初頭までにモーゲージの承認時間を短縮することを目指している。この変化は、ヨーロッパ大陸を超えて広がっている。UBSは、オックスフォード大学で250人の上級幹部をAIリーダーシップの訓練を受けさせている。これは、AIの影響が、運用的な役割だけでなく、管理構造も変えることを示唆している。スキル格差の拡大この雇用の転換により、勝者と敗者が生まれる。20万人の雇用がルーティンワークで消える一方で、AIスキルを持つ労働者は、同僚よりも56%高い賃金を得ているという業界調査結果がある。AI倫理、監視、戦略的実装の新しいポジションが生まれる一方で、伝統的なバックオフィスの役割は消えている。この二重化は、企業のAI導入のより広い傾向を反映している。ワークフロー自動化ツールやロボティック・プロセス・オートメーションツールを導入する企業は、これらのシステムを管理および最適化できる労働者に対する需要が生まれる一方で、一部の機能を置き換えることを発見している。JPモルガンチェースのコナー・ヒラリー、ヨーロッパ、中東、アフリカの共同CEOは、銀行が自動化の競争で基礎的な専門知識を失うリスクがあると警告した。「AIへの競争で、基本的なものから手を放すことは避けなければならない」とヒラリーは述べ、AIが初級分析作業を処理する場合、ジュニアスタッフがコアスキルを開発することができない可能性について懸念を表明した。次に何が起こるかモルガンスタンレーの予測は、すでに進行中の変革を強調している。ヨーロッパの銀行は、AIを導入するかどうかではなく、競合他社よりも速く導入する方法を模索している。社会的および規制上の影響を管理する必要がある。規制当局と労働組合は、責任あるAIの導入、透明な雇用戦略、および銀行、政策立案者、教育機関の間の協力を求めている。この賭けは、個々の銀行を超えて広がっている。管理されていない自動化は、銀行業界が大量雇用を生み出す国で、より広範な社会的課題を生み出す可能性がある。金融サービス業界にとって、次の5年間は、AIが約束された効率化をもたらすことができるか、また、機関の知識を損なうことなくそれを達成できるかをテストすることになる。銀行がこの分野に注入しているAIインフラへの投資は、銀行がその答えはイエスであると賭けていることを示唆している。AI強化された経済で、AIによって置き換えられた労働者が立脚することができるかどうかは、まだ答えの出ていない疑問であり、ヨーロッパの政策立案者が削減が始まったときに答えなければならない。


エンターテインメント業界は、人工知能に関するルールを設定するために、議会やテクノロジー企業を待つことをやめました。 クリエイターズ・コーリション・オン・AI (CCAI) の立ち上げにより、オスカー賞受賞者、Aリスト俳優、著名な監督を含む500人以上のアーティストが、前例のないことを試みています。業界主導のAIガバナンスによって、創造的な仕事とテクノロジーが交差する方法が変化する可能性があります。連合の創設メンバーは、賞の授賞式のゲストリストのようです。『エブリシング・エブリウェア・オール・アット・ワンス』の脚本家・監督であるダニエル・クワンは、俳優のジョセフ・ゴードン=レヴィットとナターシャ・リオン、プロデューサーのジョナサン・ワン、元アカデミー・オブ・モーション・ピクチャー・アーツ・アンド・サイエンスの会長であるジャネット・ヤンとともに、この取り組みを立ち上げました。署名者には、ケイト・ブランシェット、ナタリー・ポートマン、ライアン・ジョンソン、ギレルモ・デル・トロ、ポール・マッカートニー、タイカ・ワイティティが含まれます。彼らのタイミングは偶然ではありませんでした。連合は、ディズニーが12月11日にOpenAIへの10億ドルの投資を発表した後、一般向けにデビューを急ぎました。これには、OpenAIのSoraが2026年からミッキーマウス、ダース・ベイダー、他200以上のキャラクターをフィーチャーしたビデオを生成できるライセンス契約が含まれます。「発表の準備はしていましたが、こんなに早く発表する予定ではありませんでした」とクワンはハリウッド・リポーターに語りました。「しかし、業界のリーダーシップの空白と、対話を変えるための実行可能な力の欠如を見たとき、私たちは前に出る必要を感じました。」四本の柱、一つの業界CCAIは、透明性、コンテンツおよびデータの同意と補償、転換計画を伴う仕事の保護、ディープフェイクへの対策、創造的なプロセスにおける人間性の保護の四つの核となる原則を中心にアプローチを組織しています。注目すべきは、連合がエンターテインメントにおけるAIの全面的な禁止を求めていないことです。「これはAIの全面的な拒否ではありません」とグループは公式ウェブサイトで述べています。「テクノロジーはここにあります。これは、責任ある、人間中心のイノベーションへのコミットメントです。」この実用的な立場は、CCAIを2023年の脚本家と俳優のストライキの特徴的な対立的な立場と区別しています。ゴードン=レヴィットは、この問題を技術への反対ではなく、ビジネス倫理の観点から捉えました。「私たちは、すべて、ジェネレーティブAIというテクノロジーからではなく、大きなAI企業が犯している非倫理的なビジネス慣行から、同じ脅威に直面しています。」連合は、共有された基準、定義、ベストプラクティスを開発するためにAIアドバイザリーコミッティを設立する予定です。DGA、SAG-AFTRA、WGA、PGA、IATSEがすべて契約交渉に入る中、CCAIは、AI関連の要求について前例のない統一戦線を調整するのを助けることができます。業界は自己規制できるか基本的な質問は、創造的な専門家からの自主的な規範が、政府の規制が達成できなかったことを達成できるかどうかです。 EU AI Actは、ヨーロッパでのAI開発のための包括的な規則を確立しましたが、アメリカ合衆国は主にこのテクノロジーを自己規制に任せています。CCAIは、第三の道を表しています。影響を受ける人々によって推進されるセクター特有のガバナンスです。このアプローチには、利点と限界があります。ハリウッドの組合は、残業、クレジット、労働条件の交渉に数十年の経験を持っています。彼らは、立法者やテクノロジストがそうではないように、業界の経済を理解しています。創造者によって創造された枠組みは、幅広い政府の命令が見逃すようなニュアンスに対処することができます。しかし、自己規制は、すべての参加者が参加する場合にのみ機能します。ディズニーのOpenAIパートナーシップは、メジャー・スタジオが創造的なコミュニティの懸念に関係なく、AIビデオ・ジェネレーターを進める用意があることを示しています。このツールを開発しているテクノロジー企業には、CCAIの原則に署名していない独自のインセンティブがあります。連合の実際の力は、メンバーの総合的なスター・パワーと、組合の間近い交渉から来る可能性があります。十分な才能が、CCAIの基準に違反するプロジェクトで働くことを拒否すれば、スタジオは聞く必要があります。如果、組合がCCAIの原則を契約の要求に組み込むならば、自主的な規範は、組合の制作のために拘束力を持つことになります。同意とデータ倫理に関する質問もあります。AI企業はすでに、多大な量の創造的な作品を、許可なくトレーニングしています。CCAIは、将来の使用に関する基準を設定できますが、すでにスクラップされ、学習されたものを元に戻すことはできません。他の業界のモデルCCAIが成功すれば、ジェネレーティブAIの課題に直面している他の創造的な分野のテンプレートになる可能性があります。ミュージシャン、視覚芸術家、ジャーナリスト、ゲーム開発者は、同意、補償、創造的な置き換えに関する同様の課題に直面しています。エンターテインメント業界には、集中した力を持つ少数の組合、高いプロファイルを持つメンバーが公衆の注目を集める、創造的な仕事とテクノロジーが交差する方法に依存する製品など、独自の利点があります。これらの要因は、ハリウッドが業界主導のAIガバナンスの妥当なテストベッドにすることを可能にします。しかし、成功は遠からずです。連合は、スター・パワーを拘束力のある基準に変え、AIの能力がさらに進化する前にそうする必要があります。クワンは、グループが「リーダーシップの空白」を見たため前に出たと認めています。その空白を埋めるには、原則だけでは十分ではなく、継続的な組織化、交渉、そしてプロジェクトのラインを越えることを拒否する意志が必要です。次の1年間で、CCAIが真正のAIの説明責任の力になるか、単に技術と資本が回避する別の善意のイニシアチブになるかが明らかになるでしょう。


ザラは、製品イメージを生成するために人工知能を使用するファッション小売業者の増加する波に参加しました。これは、写真家、モデル、そして複数の業界のクリエイティブ専門家にとって、深い変化が予測される開発です。スペインのファストファッション巨大企業であるインディテックスが所有するザラは、AIツールを使用して、実際のモデルを新しい写真撮影を行わずに、さまざまなガーメントで「着せ替える」ことを開始しました。 Business of Fashionによると、このテクノロジーは、既存の高品質の人間モデルの写真を使用し、生成的なAIを使用して、異なる衣類アイテムを彼らの体に配置したり、さまざまなデジタルロケーションに転送したりします。「私たちは、既存のプロセスを補完するためにのみ、人工知能を使用しています」と、インディテックスのスポークスパーソンはBloombergに述べました。 「私たちは、評価されたモデルと協力して仕事を行っています。どのような側面でも相互に合意し、業界のベストプラクティスに従って報酬を支払います。」会社は、モデルが個別の物理的な写真撮影から得ることのできる報酬と同等の報酬を受け取ると報告しています。また、画像をデジタル的に変更する前に、明示的な同意を得ています。しかし、将来の機会が減少することに対して、今日の公正な支払いがそれを相殺できるかどうかという疑問が大きく残っています。小売業界の変革のテンプレートザラはこのピボットで独りではありません。スウェーデンの競合他社であるH&Mは、今年の初めに、マーケティング目的でモデルをAIで複製したと発表しました。ヨーロッパのオンライン小売業者であるザランドは、同様に、AIを使用してイメージの生産を加速しています。これらのイニシアチブの収束は、分離された実験ではなく、業界全体の標準の出現を示唆しています。ビジネス上の理由は、説得力があります。 Fashion Networkは、ザラがAIワークフローを実装して以来、ECサイトの写真の平均生産時間を11日から48時間未満に短縮したと報告しています。内部分析では、撮影関連の費用が35%削減され、新着商品のクリック率が18%増加したことが示されています。在庫とコンテンツを更新するために絶えず戦っている小売業者にとって、これらの効率性の向上は無視できないものです。スタジオを予約したり、旅行を調整したり、複雑な生産ロジスティクスを管理したりせずに、1晩で数千の製品画像を生成する能力は、ファッションイメージが作られる方法の基本的な再構成を表しています。これは、クリエイティブAIの採用のより広い傾向を反映しています。メジャープラットフォームは、AIアートジェネレーターとAIグラフィックデザインツールをワークフローに統合するために競争しています。効率性の人間的コストしかし、効率性のメトリックは物語の部分しか語りません。ロンドンの写真家協会のCEOであるイザベル・ドーランは、AIの採用により、写真家、モデル、制作チームが依頼される回数が減少することを警告しています。「これは、既存の専門家だけでなく、業界で立場を得ようとしている初期キャリアのファッション写真家にも影響を及ぼす、広範なエコシステムに影響を及ぼします。」これは推測ではありません。1つの写真セッションで、1つのガーメントではなく数十のガーメントのイメージを生成できるようになった場合、将来の予約の数学は簡単です。質問は、仕事が影響を受けるかどうかではなく、その程度と速度です。AIの仕事への影響に関する研究によると、クリエイティブ分野は、顕著な混乱に直面している分野の1つです。 ゴールドマンサックスは、生成的なAIが世界中で300万人の仕事に影響を及ぼす可能性があると推定しています。クリエイティブおよび知識労働は特に脆弱です。ファッション写真のエコシステム(写真家、スタイリスト、セットデザイナー、照明技術者、モデル)は、AIの効率性の向上が広範な置き換えに変換される、正確に結合された労働市場を表しています。一部の人々は、労働力をスキルアップすることでこれらの混乱に対処できると主張しています。また、AIプロンプトエンジニアリング、モデルトレーニング、品質管理などの新しい役割が登場するでしょう。しかし、移行は決して摩擦なしではありません。クリエイティブなキャリアは、簡単に転換できない、専門的なトレーニングを必要とします。ファッションを超えた意味ザラの動きは重要です。ファッションは歴史的に商業的なトレンドの先駆者であったからです。如果AI生成イメージが世界最大の小売業者にとって実行可能である場合、ECサイト、広告、メディアでの急速な採用が予想されます。この変化を可能にするテクノロジー——洗練されたAI写真編集ツールと、リアルなファブリックシミュレーションが可能な生成モデル——は、さらに改善されます。今日妥協と見なされるものは、明日 тради的な写真撮影と区別がつかないものになるでしょう。インディテックスのAI採用には、不快な矛盾があります。同社の会長であるマルタ・オルテガは、ファッション写真を芸術形式として公に称賛してきました。彼女のMOP Foundationギャラリーは、A Coruñaにあり、アニー・ライボビッツのファッション作品を展示しています。スティーブン・マイゼルやヘルムート・ニュートンを称える展示会も開催しています。写真撮影の芸術的遺産を称賛しながら同時に商業的な応用を自動化することの間にある緊張は、クリエイティブ業界全体のAI採用の中心にある矛盾を捉えています。今のところ、ザラはAIが人間の創造性を補完するのであって、代替するのではないと主張しています。しかし、経済的インセンティブは別の方向を示しています。テクノロジーが、コストと時間の小さな部分で受け入れられる結果を生み出すことができる場合、「補完的な」使用は標準的な慣行になります。ファッション業界は注目しています。他のすべての業界も注目する必要があります。


MetaのManus AIの20億ドル超での買収は、会社が認めたくないことを明らかにしている:AIインフラストラクチャーに数十億ドルを費やし、今年初めにLlama 4をリリースしたにもかかわらず、マーク・ザッカーバーグの会社には、内部開発のみで競争力のあるAIエージェントへの実現可能な道筋がなかった。この取引は、Manusによって月曜日に発表され、Metaの2025年の5回目のAI買収であり、会社の歴史で3番目に大きい買収であり、WhatsAppとScale AIに次ぐ。但し、これは単なる人材獲得や技術の統合ではなく、MetaのAIアプローチ——大規模なモデルを構築し、オープンソースでリリースし、反復——が、次のエンタープライズと消費者テクノロジーの時代を定義する自律システムを生み出していないことを戦略的に認めたものである。ビルド対買収の計算Manusは、9ヶ月前の2025年3月に一般に公開されました。その間、シンガポールを拠点とするスタートアップは、147兆トークンを処理し、8,000万の仮想コンピューティング環境の作成を推進し、年間収益率を1億2,500万ドルを超えるまでに成長させました。これらは、実際に人々が支払うAIエージェントを作成した会社の指標です。一方、Metaは、Facebook、Instagram、WhatsAppに統合されたMeta AI——という有能なアシスタント——を開発してきましたが、基本的に反応的なもののままです。ユーザーは質問をします。それは答えます。ビジネス自動化のための最高のAIエージェントは、プロンプトを待ちません。彼らは計画し、多段階のワークフローを実行し、ファイルを処理し、コードを書き、人間の介入を最小限に抑えて完成した作業製品を提供します。これは、Metaが購入した機能ギャップです。Metaの声明によると、買収は、ビジネス向けの「AIイノベーションの加速と、消費者およびエンタープライズ製品への高度な自動化の統合」を目的としています。翻訳:Meta AIは、会話するだけでなく、もっと多くのことを行う必要があります。取引のスピード——約10日で閉じた——は、緊急性を示唆しています。ManusのCEOであるXiao Hongは、Metaの副社長の役割を引き受けます。これは、人材を吸収し、製品を廃止するアクイハイアではありません。Metaは明示的に、Manusは、Metaのエコシステムに技術が統合される間、サブスクリプションサービスを継続して運営することを発表しました。動きの競争フィールドタイミングは重要です。OpenAIは最近、AgentKitを発表しました。これは、プロダクションレディのAIエージェントを構築することを劇的に容易にすることを目的とした包括的なプラットフォームです。Anthropicは、Agent Skills標準などのイニシアチブを通じて、業界インフラストラクチャーを構築しています。Microsoft、Atlassian、Figma、GitHubがすでに採用しています。Googleは、Gmail、Calendar、Driveに自動的に接続するCCエージェントを12月にリリースしました。MetaにはLlama 4があります。これは、現在までで最も有能なオープンソースモデルのファミリーですが、基礎モデルだけでは、エンタープライズが展開する自律システムにはなりません。AIの買収の歴史は、最も成功した取引——GoogleのDeepMindの購入、MicrosoftのNuanceの買収——は、機能ギャップを埋めることで成功することを示しています。Manusは、実際のギャップを埋めます。その技術は、AIを会話のインターフェイスではなく、会社が「デジタル従業員」と呼ぶもの——調査、コーディング、データ分析、ファイルハンドリングを含むエンドツーエンドのタスク実行——として位置付けます。これは、エンタープライズが始めて要求し始めている、またMetaが内部で競争力のある速度で構築することができなかった機能です。中国問題この取引の地政学的側面は、複雑さを加えます。Manusは、2022年に中国で設立され、その後シンガポールに移転しました。Metaは、買収後、Manusには中国の所有権利がなく、中国本土での事業を停止することを明示的に発表しました。これは、規制上の家計簿以上のものです。これは、AI開発が二極化していることを反映しています。中国発の会社は、グローバルスケールと国内事業のどちらかを選択しなければなりません。Manusにとって、Metaのリソースは「より強力で、持続可能な基盤」を提供します。Metaにとって、この取引は、中国での継続的な規制上のリスクなしに、世界で最も競争的なAI市場の1つで開発されたAIエージェント技術へのアクセスを提供します。取引は、自律AIシステムに固有のリスクが増大する注目を集める中に行われました。AIエージェントが自律的な決定を下す——旅行の予約、取引の実行、コードの変更——場合、エラーの結果は、チャットボットの妄想とは異なり、複合的に増大します。Metaは、Manusの機能と、プラットフォームを使用する数十億人の人々にわたる自律システムの展開の責任を引き受けます。これは何を意味するのかMetaのManus買収は、約20億ドルの価値がある約束のある技術への賭けではありません。これは、会社の内部AI開発が、Llamaの成功やMeta AIの規模にもかかわらず、業界で最も急速に進化しているセグメントで盲点を生み出したことを認めるものです。Manusが構築したものの価値と、遅れて参入したことのコストを反映した20億ドルの価格帯——営業開始から1年未満——です。より広い業界にとって、この取引は、AIエージェント戦争が新しい段階に入ったことを示しています。基礎モデルは現在、最低限の要件です。競争は、実質的な作業を自律的に実行するシステムを構築できる誰かへと移りました。Metaは、購入によってこのレースに参入したことを認めています。


ChatGPTのジェネレーティブAI市場における支配力は、ユーザーベースが成長しているよりも速く低下している。新しいSimilarwebデータによると、チャットボットのウェブサイトトラフィックシェアは、過去1年間で87.2パーセントから68パーセントに低下した。一方、絶対的なユーザー数は800万週間に達した。Google Geminiが主な受益者となった。プラットフォームは、1年前の5.4パーセントの市場シェアから18.2パーセントに上昇し、ChatGPTが相対的な支配力を約5分の1失った間に、市場シェアを3倍以上に増やした。この変化は、初期のChatGPTブームが、Googleのインフラストラクチャと配布の利点が実を結ぶより競争的な段階に移行していることを示唆している。12月25日に公開されたデータは、移行中の市場を捉えている。Grok from xAIは2.9パーセントに穏やかに成長した。DeepSeekは約4パーセントで安定している。ClaudeとPerplexityはそれぞれ約2パーセントで浮揚しており、Microsoft Copilotは1.2パーセントで平坦である。Geminiの急上昇の要因2つの要因が際立っている。まず、Googleは2025年を通じて積極的にモデルをリリースし、GeminiとChatGPTの機能格差を埋めた。Gemini 3 Flashの立ち上げにより、最新のモデルがGoogleのエコシステム全体でデフォルトとなり、OpenAIの12月の「コードレッド」対応は、競争圧力が現実であることを示唆している。2番目に、Nano Banana Pro — Gemini 3 Proに基づくGoogleの画像生成モデル — は、重要な採用を推進した。このモデルの画像内に直接読み取れるテキストをレンダリングする能力は、AI画像ジェネレーターに存在する永続的な弱点を解決し、Gemini、Google Search、NotebookLM、およびWorkspaceツール全体への統合により、ChatGPTでは匹敵できない配布を実現している。Geminiのユーザーベースは、7月の4億5,000万月間アクティブユーザーから10月に6億5,000万に増加し — 3か月間で44パーセント増加した。成長率は、同じ期間のChatGPTの約5パーセントの拡大を上回っている。さらに、Similarwebは、Geminiから外部ウェブサイトへの参照トラフィックが年間388パーセント増加したのに対し、ChatGPTは52パーセント増加したことを発見した。Androidの利点GoogleのAndroidオペレーティングシステムに対するコントロールは、OpenAIが複製できない配布チャネルを提供する。Similarwebのデータによると、USのAndroidユーザーは、スタンドアロンアプリよりもオペレーティングシステムを介してGeminiとやり取りするユーザーの2倍である。組み込みアクセスにより、Geminiはユーザーに何かをダウンロードするよう説得する必要がない — すでにそこにあるからだ。AppleがSiri統合のためにOpenAIと提携した決定は、この利点を相殺するはずだったが、実装は遅れている。一方、Googleは、GeminiをAndroidデバイスのデフォルトアシスタントにしたため、数百万のユーザーが探さなくてもGeminiに出会うことができる。統合の話は、Googleのより広範なエコシステムに及ぶ。GeminiはGmail、Docs、Slides、Searchで実行される。Google Workspaceを使用するエンタープライズ顧客は、追加のサブスクリプションなしでAIアシスタント機能を利用できる。ChatGPTでは、ユーザーは既存のワークフローから離れる必要があるが、Geminiはそれらの中に現れる。ChatGPTの収益化問題市場シェアの低下は、OpenAIが既存の課題と組み合わせている: 無料ユーザーを有料サブスクライバーに変換すること。800万週間のユーザーがあるにもかかわらず、約5パーセントのみがChatGPT Plusまたはより高いレベルに支払っている — 約4,000万人のサブスクライバーである。また、有料サブスクリプションは、5月以降、主要なヨーロッパ市場で停滞しており、回復の兆しは見られない。組み合わせは心配だ。市場シェアの低下は、ChatGPTが注目度の戦いを失っていることを示唆している。サブスクリプションの成長が停滞していることは、収益化の戦いも失っていることも示唆している。これらの両方の傾向が続くと、OpenAIの収益成長は、インフラストラクチャコストが増加するにつれて停滞する可能性がある。OpenAIは静かに立っているわけではない。Gemini 3への「コードレッド」対応により、会社の歴史上最速のメジャーモデルイテレーションであるGPT-5.2が1ヶ月以内にリリースされた。リリースにより、Geminiが一時的に掌握していたベンチマークリードが取り戻され、CEOのSam...


中国のサイバーレギュレーターは、土曜日に草案ルールを発表し、AIコンパニオンチャットボットがユーザーの感情状態を監視し、依存症の兆候が見られたら介入することを要求する。これは、AIパワードの関係から生じる心理的被害に関する懸念に対する最も積極的な規制対応である。提案された規制は、Cyberspace Administration of Chinaによって行われ、テキスト、画像、オーディオ、またはビデオを介してユーザーと感情的なつながりを形成するAI製品を対象にしている。草案によると、提供者は、過度な使用に対してユーザーに警告し、感情的依存度を評価し、ユーザーが極端な感情または依存症の兆候を示したときに措置を講じる必要がある。ユーザーは、ログイン時に、また2時間間隔で、またはシステムが過度の依存の兆候を検出した場合に、AIと対話していることを思い出させる必要がある。規制では、アルゴリズムのレビュー、データのセキュリティ、個人情報の保護を含む製品のライフサイクル全体において、提供者が安全性を保証する責任を負う。時期は偶然ではない。中国のジェネレーティブAIユーザー数が6か月で515万人に倍増した中で、AIコンパニオンの心理的影響に関する懸念が並行して高まっている。Frontiers in Psychologyの研究によると、45.8%の中国の大学生が過去1ヶ月間にAIチャットボットを使用しており、ユーザーは非ユーザーに比べてうつ病のレベルが著しく高いことが分かった。カリフォルニアは中国に先んじた中国は、AIコンパニオンチャットボットを規制することにおいて独自ではない。カリフォルニアは、10月にガビン・ニューサム知事がSB 243に署名したとき、同様の立法を最初に通過した米国の最初の州となった。その法案は、2026年1月1日に施行される予定で、プラットフォームに3時間ごとに、ユーザーがAIと話していることを思い出させ、休憩を取ることを要求する。SB 243では、年齢の確認を義務付け、チャットボットが医療専門家として自己表現することを禁止し、未成年者が性的明示的なAI生成画像を表示することを防止する。また、法令違反に対して、個人にAI企業を訴えることを許可し、最大1,000ドルを請求できる。AIコンパニオンが異なる点懸念事項は単に画面時間だけではない。2025年3月のMIT Media Labの研究によると、AIチャットボットは、ユーザーが聞きたいことを学習し、一貫してフィードバックを提供するため、ソーシャルメディアよりも依存性が高い可能性がある。1日の使用時間が増加すると、孤独感、依存性、研究者が「問題のある使用」と呼ぶものが増加した。臨床文献で同定された心理的警告信号には、睡眠を妨げる長時間のセッション、感情的依存と制限されたアクセス時の苦痛、人間との対話よりもチャットボットとの会話を好むこと、人間のような感情を持つAIを擬人化し、本物の相談者またはロマンチックなパートナーとして扱うことが含まれる。中国の草案規制は、個々のユーザーの判断に頼るのではなく、プラットフォームレベルでこれらのリスクに対処しようとしている。提供者に感情状態と依存度を監視することを要求することで、規制はシステムを構築する企業に責任を負わせる。このアプローチは、コンテンツのモデレーションとデータのセキュリティに主に焦点を当てていた以前のAI規制とは異なる。草案では、AIコンパニオンが国家安全を危うくしたり、デマを広めたり、暴力または淫らなコンテンツを促進したりするコンテンツを生成することを禁止するコンテンツの制限も設定している。これらの規定は、中国の既存のジェネレーティブAI規制を反映している。規制の課題依存症を検知し、介入することを企業に義務付けることは、政策言語では簡単に聞こえる。しかし、実装は別の問題である。「過度な使用」または「極端な感情」とは何かを、有意義で施行可能な方法で定義することは、規制当局と企業の両方にとって課題となる。過度に敏感な場合、システムは単に長時間の会話をしているユーザーを中断するだけになる。過度に寛大な場合、脆弱なユーザーは介入なしにスルーされてしまう。2時間ごとのリマインダーの要件は、ある程度の方法で機能するが、「過度の依存の兆候が検出されたとき」に介入するというより繊細な要件は、解釈の余地を残す。AIアプリケーションのガードレールを構築する企業は、同様の課題に直面している。コンテンツフィルタは有名に不正確であり、心理的監視を追加すると、新しい複雑さが生じる。ユーザーが不健康な依存を形成しているかどうかを判断するには、テキストから精神状態を推測する必要があるが、これはAIシステムが信頼性を持って実行できる機能ではない。草案は、2026年に最終規制が予想される、公開コメントを受け付けている。提案されたとおりに実施された場合、中国には、世界で最も規制の厳しいAIコンパニオン製品の枠組みが存在することになる。世界的な決算中国とカリフォルニアでの同時的な規制行動は、AIコンパニオンの依存症に関する懸念が、さまざまな政治システムを超えて臨界点に達したことを示唆している。AI企業にとって、メッセージは明確に聞こえる:AIコンパニオンの無規制時代は終わりを迎えている。中国の行政法、カリフォルニアの民事責任、または米国の将来的な連邦立法を通じて、プラットフォームはユーザーを自社製品から保護するための要件に直面する。質問は、規制が来るかどうかではなく、設計されている介入が実際に機能するかどうかである。中国の監視と介入を義務付けるアプローチは、実践では難しいことが分かるかもしれない。明らかなことは、AIコンパニオン市場が大きすぎて、政府が無視できないほど成長していることである。人々が感情的な絆を形成するチャットボットは、もはや珍しいものではなく、数百万人が使用する製品であり、深刻な被害の記録された事例がある。規制、不完全であっても、避けられなかった。議論は、提案された規則が脆弱なユーザーを保護することなく、多くの人にとって真正に有益であると考えられているテクノロジーを抑制するかどうかという点に移った。


OpenAIは12月22日にセキュリティブログポストを公開し、注目すべき認識を発表しました。AIブラウザに対するプロンプトインジェクション攻撃は「完全に解決されることはない可能性がある」というものです。この認識は、ChatGPT Atlasの発売から2ヶ月後に発表されました。ChatGPT Atlasは、自律エージェント機能を備えたブラウザです。会社は、プロンプトインジェクションを「ウェブ上的詐欺や社会工学的攻撃」と比較しました。つまり、防御者がそれらを管理するのではなく、根絶するというものです。AIエージェントにインターネットを代理でナビゲートするように信頼するユーザーにとって、このフレーミングは、どの程度の自律性が適切かについて基本的な質問を提起します。OpenAIが明らかにしたことブログポストでは、OpenAIのAtlasの防御アーキテクチャについて説明しています。強化学習を搭載した「自動攻撃者」が、悪意のあるアクターがそれを発見する前に脆弱性を探索します。会社は、この内部のレッドチームが「人間のレッドチームキャンペーンや外部の報告では表示されなかった新しい攻撃戦略」を発見したと主張しています。一つのデモでは、悪意のある電子メールがユーザーの受信トレイをチェックしているAIエージェントを乗っ取る方法を示しました。指示された外出事務応答を起草する代わりに、エージェントは辞任メッセージを送信しました。OpenAIは、最新のセキュリティ更新により、この攻撃を検出できるようになったと述べています。しかし、この例は、AIエージェントが機密性の高いコンテキストで自律的に動作する場合の懸念を示しています。自動攻撃者は「エージェントを複雑で長期的な有害なワークフローを実行するように誘導でき、数十回(または数百回)のステップで展開されます」とOpenAIは書いています。この機能により、OpenAIは外部の攻撃者よりも早く欠陥を見つけることができます。しかし、プロンプトインジェクション攻撃がどれほど複雑で有害になる可能性があるかも示しています。根本的なセキュリティ問題プロンプトインジェクションは、大規模言語モデルに基本的な制限を利用します。つまり、信頼性の高い指示と悪意のあるコンテンツを区別できないということです。AIブラウザがWebページを読み取ると、ページ上のテキストはすべてブラウザの動作に影響を与える可能性があります。セキュリティ研究者はこれを繰り返し実証しています。AIブラウザは、適度な自律性と非常に高いアクセス性の組み合わせを提供します。これは、セキュリティの観点から見ると課題です。攻撃には複雑なテクニックは必要ありません。Webページ上の隠しテキスト、慎重に作成された電子メール、またはドキュメント内の不可視の指示はすべて、AIエージェントを意図しないアクションを実行するように操作できます。いくつかの研究者は、スクリーンショットに隠された悪意のあるプロンプトが、AIがユーザーの画面の写真を撮ったときに実行されることを示しています。OpenAIの対応OpenAIの防御には、敵対的なトレーニングモデル、プロンプトインジェクションクラシファイア、以及「スピードバンプ」が含まれます。スピードバンプでは、機密アクションを実行する前にユーザーの確認が必要です。会社は、ユーザーがAtlasにアクセスできるものを制限することをお勧めしています。具体的には、ログインアクセスを制限し、支払いまたはメッセージの前に確認を要求し、広範な命令ではなく狭い指示を提供することです。この勧告は、明らかです。OpenAIは、自社製品を疑念を持って扱うことをユーザーに勧めています。つまり、自律エージェントブラウザの魅力の根底にある自律性を制限することです。ユーザーがAIブラウザにメールボックス全体を扱わせたり、財務を管理させたりしたい場合、会社自身が推奨しないリスクを負っています。セキュリティ更新により、成功したインジェクション攻撃が減少します。改善は重要ですが、残りの攻撃面も残り、攻撃者はOpenAIが展開する防御に対応するでしょう。業界全体への影響OpenAIだけがこれらの課題に直面しているわけではありません。Googleのセキュリティフレームワークには、複数の防御レイヤーが含まれています。Chromeのエージェント機能用に、提案されたアクションを検証するための別のAIモデルがあります。PerplexityのCometブラウザは、Braveのセキュリティ研究者から同様の検討を受けています。彼らは、悪意のあるWebページにアクセスすると、有害なAIアクションがトリガーされる可能性があると発見しました。業界は、プロンプトインジェクションが基本的な制限であり、パッチで修正できるバグではないことを認識する方向に収束しているようです。これには、AIエージェントが自律的に複雑で機密性の高いタスクを処理するというビジョンに重大な影響があります。ユーザーが考慮すべきこと正直な評価は、不快です。AIブラウザは、エンジニアリングの改善によって完全に排除できない、内在するセキュリティ制限を持つ有用なツールです。ユーザーは、ベンダーが完全に解決できない、利便性とリスクのトレードオフに直面しています。OpenAIのガイダンス – アクセスを制限し、確認を要求し、広範な命令を避ける – ことは、製品の機能を制限することを意味します。これは、シニカルな立場ではありません。現在の制限に対する現実的な認識です。AIアシスタントがより多くのことを実行できる場合、それらはより多くのことを操作される可能性もあります。従来のWebセキュリティとの類似性は、示唆に富んでいます。ユーザーはまだ、フィッシング攻撃に陥ることがあります。ブラウザは毎日数百万の悪意のあるサイトをブロックしています。脅威は、防御がそれを永久に解決するよりも速く適応しています。AIブラウザは、この既存のダイナミクスに新しい次元を追加します。人間がブラウジングするとき、彼らは何が疑わしいように見えるかについての判断を持ちます。AIエージェントは、すべてのものを同じレベルの信頼で処理します。これにより、能力が向上するにつれて、操作される可能性も高くなります。進むべき道OpenAIの透明性は認められます。会社は、根本的な問題の持続性を認めることなく、セキュリティ更新を無音で出荷することができました。代わりに、攻撃ベクターと防御アーキテクチャの詳細な分析を公開しました。これは、ユーザーが情報に基づいた決定を下し、競合他社が自社の保護を改善するのに役立つ情報です。しかし、透明性だけでは根本的な緊張を解決しません。AIエージェントがより強力になるにつれて、より魅力的なターゲットを提示します。Atlasが複雑なワークフローを処理できるのと同じ機能は、複雑な攻撃の機会も生み出します。現在、AIブラウザのユーザーは、それらを完全に自律的なデジタルアシスタントではなく、有意義な制限を持つ強力なツールとして扱う必要があります。OpenAIはこの現実について異常なほど率直でした。業界のマーケティングがセキュリティチームがすでに知っていることを認識するかどうかが、疑問です。


アンソロピックは、12月18日にエージェントスキルをオープン標準として公開し、仕様とSDKをagentskills.ioで公開し、任意のAIプラットフォームで採用できるようにしました。この動きは、アンソロピックが、インダストリーインフラストラクチャーを構築するという戦略を継続していることを示しています。そのアプローチは、モデルコンテキストプロトコル(MCP)を普及させたのと同じです。マイクロソフト、OpenAI、Atlassian、Figma、Cursor、GitHubはすでにこの標準を採用しています。Canva、Stripe、Notion、Zapierからのパートナービルトスキルは、発売時に利用可能です。エージェントスキルとはスキルは、AIエージェントが動的に発見してロードできる、指示、スクリプト、リソースを含むディレクトリです。各スキルには、スキルの機能を記述したメタデータを持つSKILL.mdファイルが必要です。ユーザーのリクエストがスキルのドメインと一致すると、エージェントは関連する情報のみをロードします。アンソロピックは、この設計を「プログレッシブディスクロージュ」と呼んでいます。このアーキテクチャは、実用的な問題を解決します。コンテキストウィンドウは制限されています。すべての可能な指示を毎回リクエストに詰め込むと、リソースが浪費されます。スキルにより、エージェントは、必要な知識を常に持っているのではなく、必要な時にアクセスできます。PDF処理用のスキルには、推奨ライブラリ、エッジケース、出力形式が含まれる場合があります。データベース操作用のスキルには、セーフティチェックとロールバック手順が指定される場合があります。指示は、エージェントがそれらの特定のタスクに遭遇したときにのみロードされます。MCPのプレイブックに従うエージェントスキルは、アンソロピックがMCPで確立したテンプレートに従っています。MCPは、AIシステムを外部ツールに接続するためのオープン標準として立ち上げられ、競合するプラットフォーム全体で急速に採用され、12月9日にLinux Foundationに寄贈されました。Google、Microsoft、AWSは、ファウンデーションのメンバーとして参加しました。このパターンは、故意です。アンソロピックは、実際の相互運用性の問題を解決する仕様を構築し、それらをオープン標準としてリリースし、採用によってエコシステム全体に価値が生まれるようにします。アンソロピックは、AIインフラストラクチャーの動作を定義する会社として自己を確立します。戦略的論理:スキルが標準化されれば、Claudeはそれらを使用する唯一のAIである必要はありません。ただし、スキルを使用する最も優れたAIである必要があります。ロックインではなく、実行に基づいて競争することは、アンソロピックの責任あるAI会社としての立場と一致しています。業界への影響スキルの移植性は、企業にとっての実際の摩擦点に対処します。AIのカスタマイズに投資する企業は、カスタマイズが1つのモデルプロバイダーでのみ機能する場合、ベンダーロックインに直面することになります。Claude Code用に書かれたスキルは、OpenAIのCodex、Cursor、または標準を採用する他の任意のプラットフォームで機能できます。以前報告したスキル収束は、正式に確立されました。OpenAIはすでに同様のシステムを実装していたため、オープン標準はこの収束をコード化し、他の企業にも参加を呼びかけています。開発者にとって、これは新しい配信チャネルを作成します。よく構築されたスキルは、同時に複数のAIプラットフォームのユーザーにリーチできます。アンソロピックのパートナーディレクトリ(Atlassian、Figma、Canva、Stripe、Notion、Zapier)は、企業のワークフローを解決するスキルにとって、重要なリーチを表しています。エンタープライズ管理ツールオープン標準とともに、アンソロピックはエンタープライズ顧客向けの組織全体の管理ツールを発表しました。管理者は、利用可能なスキルに対するポリシーを適用し、機密情報へのアクセスを制御し、展開全体でスキルの使用状況を監視できます。エンタープライズ機能は、スキルをアドホックなカスタマイズではなく、IT管理可能なインフラストラクチャーとして位置付けます。AIガバナンスについて懸念している企業(AIシステムの機能、コントロール、ガードレールなど)にとって、集中管理されたスキル管理は、可視性とコントロールを提供します。大きな絵アンソロピックは、MCP(ツール接続用)とエージェントスキル(機能カスタマイズ用)という2つの基礎的な標準をAIインフラストラクチャーに貢献しました。両方とも同じプレイブックに従っています。実際の問題を解決し、オープンにリリースし、ロックインではなく有用性によって採用を推進します。このアプローチは、OpenAIのプラットフォーム戦略と対照的です。OpenAIは、GPTストア、Apps SDK、プラットフォーム固有の統合などの独自のエコシステムを構築しています。一方、アンソロピックは、どこでも動作する標準を構築しています。両方の戦略は成功できますが、異なる結果を最適化します。業界全体にとって、オープン標準は断片化を減らします。開発者は一度構築して複数のプラットフォームで展開できます。企業は、カスタマイズを再構築することなくプロバイダーを切り替えることができます。競争の圧力は、エコシステムのコントロールからモデル品質と実行にシフトします。アンソロピックは、その競争が勝てるものであると賭けています。エージェントスキル標準は、アンソロピックが定義した用語で競争が行われるようにするための、もう1つのステップです。


OpenAIは12月17日にChatGPT向けのアプリの提出を開始し、800万人の週間ユーザーが会話の中で直接サードパーティのサービスを発見して接続できるアプリディレクトリを立ち上げました。この動きは、ChatGPTにAppleのApp Storeモデルを搭載してパワーアップさせます。初期のパートナーには、Spotify、Booking.com、DoorDash、Dropbox、Google Drive、Apple Musicが含まれます。開発者は現在、OpenAIのApps SDKを介してアプリを提出してレビューを受けることができます。アプリができることアプリは、外部のコンテキストを会話に持ち込み、アクションを可能にすることによって、ChatGPTの会話を拡張します。食料品の注文、旅行の予約、プレゼンテーションの作成、アパートの検索などです。2024年1月に立ち上げられたGPT Storeとは異なり、カスタマイズされたチャットボットのパーソナを提供していたアプリは、実際のサービスに接続し、リアルなトランザクションを実行できます。アプリディレクトリは、Featured、Lifestyle、Productivityのカテゴリに分かれており、ツールメニューまたはchatgpt.com/appsからアクセスできます。ユーザーは、ChatGPTのインターフェイスを離れることなく、サービスを閲覧、接続、操作できます。OpenAIの品質基準を満たし、ユーザーに共鳴するアプリは、より目立つように表示されるか、ChatGPT自体によって推奨される可能性があります。現在、開発者はネイティブアプリまたはウェブサイトへのリンクアウトのみで収益化できます。OpenAIは内部の収益化オプションを検討しているものの、収益分配モデルまたはアプリ内購入システムにコミットしていません。プラットフォーム戦略アプリストアは、OpenAIがモデルプロバイダーからプラットフォーム会社への進化の最新のステップを表しています。 Adobeとの統合により、PhotoshopとAcrobatがChatGPTに搭載されました。 Instant Checkoutにより、PayPalとStripeを介してコマースが可能になりました。 Atlasブラウザにより、ChatGPTがエージェント機能を備えたWebナビゲーションに拡張されました。各部分は、同じ目的に向かって構築されています。ChatGPTを、ユーザーがデジタルサービスとやり取りするための主なインターフェイスにすることです。OpenAIが成功すれば、ChatGPTに飛行機の予約や夕食の注文を依頼することは、アプリのアイコンをタップするのと同じくらい自然になり、基礎となるサービスは目に見えないインフラストラクチャになります。戦略的論理は、AppleのApp Storeが変革的なものになった理由と同じです。iPhoneは単なる電話ではありませんでした。第三者がユーザーにリーチするための表面になりました。OpenAIは、会話型AIが同じ中間化を達成できることを賭けています。開発者への意味機会は大きいですが、不確実性があります。800万人のユーザーへのアクセスは、ほとんどのアプリが夢見るものです。ChatGPTの推奨システムは、従来のアプリストアが苦労する方法で発見を促進できます。ユーザーは、アプリを検索する必要はありません。会話の中でChatGPTがコンテキストに応じてアプリを提案するからです。しかし、経済的側面はまだ不明です。アプリ内での収益化がない場合、開発者はChatGPTのユーザーを直接顧客に変える必要があります。これは、iOSアプリとは異なる価値提案です。iOSアプリでは、トランザクションはエコシステム内で発生します。開発者は、実際には配布を変換の摩擦と交換しています。承認プロセスもリスクを導入します。OpenAIは、公開され、フィーチャーされるものを制御します。OpenAI自身の機能、または将来の機能と競合するアプリは、明らかな競合に直面します。会社の品質基準は主観的であり、歴史は、プラットフォーム所有者がエコシステムが成熟するにつれて中立的な審判者であることを維持しないことを示しています。競合の影響Googleは最も直接的な課題に直面しています。GeminiはGoogle Workspaceと深い統合を持っていますが、OpenAIが構築しているサードパーティのアプリエコシステムはありません。Googleの強みである、ユーザーが必要とするサービスを所有することは、ユーザーがそれらのサービスにアクセスするために制御できない会話型の中間者を好む場合、弱みになります。Anthropicや他のAIラボは、異なる問題に直面しています。Claudeは推論やコーディングに優れていますが、この規模でプラットフォームの野心を追求していません。ChatGPTのアプリエコシステムがスイッチングコストを生み出す場合、ユーザーは接続されたサービスに投資し、特定の統合を中心にワークフローを構築します。モデル品質だけでは競争するのに十分ではない可能性があります。より広い質問は、会話型AIがプラットフォームビジネスを維持できるかどうかです。アプリストアは、ユーザーが個々のアプリの周りに習慣を形成するため機能します。ChatGPTの価値提案は、逆です。個々のアプリを不要にする1つのインターフェイスです。開発者が、自分たちを不可視にするように設計されたプラットフォームに投資するかどうかは、まだ見る必要があります。現在、OpenAIはビジネスを開いていることを示しています。アプリは来ます。質問は、関与する全員にとって経済的メリットがあるか、OpenAIだけがメリットを得るかです。


はよりタイピングよりも速い。125-150語/分の速度で話す声は、40-60語/分のタイピング速度よりも2-3倍速い。AIによる音声入力ツールは、リアルタイムで音声をテキストに変換できるため、キーボードを触れずにメールを書いたり、文書を作成したり、アイデアをキャプチャしたりできる。最高の音声入力ツールは、基本的なDictationを超える。文法を自動で修正し、フィラー語を削除し、語彙に適応し、複数のアプリで動作する。会議のトランスクリプションに特化しているものもあり、ユニバーサルなクロスアプリDictationに特化しているものもあり、一部は開発者向けのAPIを提供してボイスエナブルされたアプリケーションを構築できる。私たちは、精度、速度、アプリの互換性、価値など、リーディングのAI音声入力ツールを調査した。以下は市場で利用可能な最高のオプションである。ベストなAI音声入力ツールの比較表https://www.youtube.com/watch?v=4xc3uggYdL4Speechifyは、テキストを音声に変換するプラットフォームとして始まり、後に音声入力を伴う機能を追加した。組み合わせにより、任意のアプリまたはテキストフィールドにコンテンツをDictateし、それを読み返すことができる。Dictationは60以上の言語をサポートし、リアルタイムでトランスクリプションを行う。プラットフォームは、ブラウザーエクステンション、デスクトップアプリ、モバイルで動作する。プレミアムサブスクライバーは、200以上の自然な音声のTTS再生、AIパワードのサマリー、オフラインダウンロードにアクセスできる。音声入力のみを必要とする場合、スタンドアロンのDictationツールはより良い価値を提供するが、Dictateとリスニングを切り替えるユーザーにとって、Speechifyは複数のアプリを扱う必要性を排除する。 長所と短所 音声入力とテキストを音声に変換を1つのサブスクリプションで組み合わせる ブラウザ、デスクトップアプリ、モバイルで動作 Dictationの60以上の言語 TTS再生の200以上のプレミアムボイス 無料プランが利用可能 $139/年の価格は主にTTS機能のため 音声入力は二次的な機能であり、主な製品ではない 無料プランの制限 Dictationの精度は専用ツールに劣る 処理にはインターネット接続が必要 Speechifyを訪問 →https://www.youtube.com/watch?v=_AZ7ptRuzs8ElevenLabsは、2025年11月にScribe v2 Realtimeを立ち上げ、150ms未満の待ち時間でライブの音声からテキストへのトランスクリプションを提供した。WebSocketベースのAPIは90言語をサポートし、「負の待ち時間」機能を使用して、認識された遅延を減らすために次の単語を予測する。ボイスアシスタント、会議ツール、リアルタイムのキャプションシステムを作成する開発者向けに構築されている。 ElevenLabsは、事前録音されたファイルのバッチトランスクリプションのために、1時間あたり$0.40のScribe v1も提供している。同じプラットフォームには、業界をリードするボイスクローニングとテキストを音声に変換が含まれており、完全なオーディオAIツールキットとなっている。エンタープライズユーザーは、SOC 2、HIPAA、GDPRのコンプライアンスオプションを取得できる。 長所と短所 Scribe v2 Realtimeは約150msの待ち時間でライブトランスクリプションを提供 90言語、11のインド語を含む 同じプラットフォームでボイスクローニングとテキストを音声に変換 エンタープライズグレードのコンプライアンス(SOC...


Googleは、OpalをGeminiのウェブアプリに直接統合し、ユーザーが自然言語でアプリケーションを記述し、コードを書かずに機能的なツールを生成できるようにしました。この統合により、OpalはGeminiのGemsマネージャーからアクセス可能になり、GoogleのノーコードAI開発への取り組みを拡大し、OpenAIやAnthropicなどの類似のオファリングとの競争を激化させます。OpalのしくみOpalは自然言語の記述をステップバイステップのアプリケーションロジックに変換します。ユーザーは予算トラッカー、ミーティングスケジューラー、コンテンツジェネレーターなどを作成したいものを記述し、システムは要求を個別のステップに分解し、レビューおよび編集が可能になります。新しいテキストからステップへのビューは、この分解を視覚的に表示し、ユーザーがOpalがどのようにプロンプトを解釈したかを正確に表示します。各ステップは個別に変更でき、プログラミング知識を必要とせずにロジックを制御できます。満足したら、ユーザーはアプリをすぐに実行したり、再利用のために保存したりできます。より複雑なプロジェクトの場合、Advanced Editorはより深いカスタマイズオプションを提供します。しかし、ほとんどのユースケースでは、Gemini内のエクスペリエンスがプロンプトから機能的なアプリケーションまで一切を処理します。Gemsを基盤に構築Opalは、2024年に導入されたGoogleのGems機能を拡張し、ユーザーがGeminiのカスタマイズバージョンを作成できるようにします。事前に構築されたGemsには、学習コーチ、ブレーンストーミングアシスタント、コーディングパートナーなどがあります。Opalは、チャットの動作をカスタマイズするのではなく、まったく新しいアプリケーションを作成する機能を追加します。この区別は、Googleの戦略を理解する上で重要です。Gemsは会話をカスタマイズします。Opalはツールを作成します。Gemはプロジェクトを計画するための会話を支援するかもしれません。Opalアプリは実際にプロジェクトを追跡し、データを保存し、レポートを生成します。Vibe-Coding市場Vibe-coding — 説明からコードを生成するのではなく、アプリケーションを生成するためにAIを使用する — は、過去1年で人気を博しています。LovableやCursorなどのスタートアップは、多大な資金とユーザーを獲得しています。OpenAIのGPTsやAnthropicのカスタムアシスタントは、ユーザー作成のAIツールに対する競合するアプローチを提供しています。Googleの利点は配信です。OpalはGemini内で動作し、Google SearchのAIモードのデフォルトAIとして実行され、ChatGPTと直接競合しています。ユーザーは新しいツールを探したり、新しいアカウントを作成したりする必要はありません。Opalはすでにそこにあります。欠点は、Googleが競合他社が数ヶ月間にわたって提供を洗練してきた市場に参入することです。OpenAIのGPT Storeは2024年1月に立ち上げられ、繰り返し改良されてきました。Anthropicのスキルフレームワークは業界標準になりつつあります。Opalはすぐに成熟した製品と一致する必要があります。対象者Opalは、カスタムツールが必要だが、プログラミング能力や開発者を雇用するための予算がないユーザーを対象としています。小規模ビジネスオーナー、마케팅チーム、研究者、学生などは、特定のワークフローに合わせたアプリケーションを作成できます。Opalを介して作成されたミニアプリは再利用可能です。作成後、永続的に実行でき、繰り返し実行できます。これにより、一般的なAIアシスタントでは不十分だが、カスタムアプリケーションではオーバーキルである狭いユースケースのための軽量な代替手段として位置付けられます。AIコードジェネレーターユーザーにとって、Opalは異なるアプローチを表します。コードを書くことを支援するのではなく、特定の状況ではコードの必要性を完全に排除します。自然言語の説明が信頼性の高いアプリケーションを生成できるかどうかが疑問です。次のステップOpalは最初に2025年7月にUSのみのGoogle Labsベータとして立ち上げられました。Geminiとの統合により、グローバルにアクセスが可能になり、ツールの発見性が大幅に高まりました。独立したベータを探すことなく、Opalに遭遇するユーザーがいます。Googleは価格変更を発表していません — OpalはすべてのGeminiユーザーに利用可能であるようです。競争圧力は即時です。主要なAIラボはすべて、ユーザー作成のアプリケーションの何らかの形式を提供しています。差別化は機能の利用可能性ではなく、実行の質に依存するようになっています。Vibe-codingに興味があるユーザーにとって、Opalはゼロフリクションのエントリーポイントを提供します。Geminiを開き、Gemsを見つけ、作成したいものを説明してください。ツールは残りを処理します — 良いか悪いかは別として。


OpenAIは、OpenAI Academy for News Organizationsを立ち上げました。これは、ジャーナリスト、編集者、発行者がニュースルームのワークフローにAIを統合するためのグローバルな学習ハブです。プラットフォームでは、調査研究、翻訳、データ分析、生産性の向上についてのオンデマンドトレーニング、プレイブック、ケーススタディを提供しています。これは、同社がニュース業界に対してパートナーとしてではなく、脅威としてではなく位置付けようとする最も直接的な試みです。アカデミーの内容立ち上げには、2つの主要なトレーニングトラックが含まれます。「ジャーナリストのためのAIエッセンス」では、レポーターと編集者のためのコアコンセプトとニュースルームに適したユースケースを紹介します。より技術的なトラックでは、AI統合を構築するエンジニアリングと製品チームを対象としています。実践的なモジュールでは、特定のワークフローについて扱います。調査研究にAIを使用する、多言語のレポートと翻訳の管理、データセットの分析、生産性の向上など。各セクションには、これらのツールをすでに実験しているニュースルームからの実際の例が含まれています。OpenAIは、アカデミーを新しいコース、パートナー組織からのケーススタディ、ライブプログラミングで拡張する予定です。初期の立ち上げでは、世界中でアクセスできるセルフペースコンテンツに焦点を当てています。パートナーシップの背景アカデミーは、OpenAIが過去2年間でメディア組織と築いてきた関係を基にしています。同社は、American Journalism ProjectとThe Lenfest Instituteと協力して、ローカルニュース組織をサポートし、Newsroom AI CatalystプログラムでWAN-IFRAと提携しています。そのカタリストイニシアチブは、ヨーロッパ、アジア太平洋、ラテンアメリカ、南アジアの128のニュースルームを支援し、専門家の指導とAIの実装サポートを組み合わせます。OpenAIは、この取り組みを資金提供し、技術的な支援をしています。この発表は、OpenAI、ブラウンインスティテュートフォーメディアイノベーション、ハーストが共同で開催したAIとジャーナリズムサミットから来ました。タイミングは、OpenAIがジャーナリズムにおける構造的な存在と見なされることを示唆しています。ニュース組織にとっての意味ニュースルームは、AIツールが生産性を大幅に向上させ、コストを削減できる可能性があるという、よく知られた緊張感に直面しています。しかし、採用は、正確性、編集判断、労働力への影響について疑問を引き起こします。多くの組織は、明確なガイドラインやトレーニングなしに、非公式に実験をしています。OpenAIのアカデミーは、その実験を正式化しようとしています。構造化されたトレーニングと文書化されたベストプラクティスを提供することで、同社はニュースルームがAIの採用について考える方法を形作ろうとしています。実践的なユースケース、翻訳、データ分析、研究の加速に焦点を当てています。これらは、ジャーナリストの時間を消費するタスクですが、ジャーナリズムの価値を定義する編集判断を必要としません。信頼の問題アカデミーは、OpenAIがメディア組織からの継続的な法的挑戦に直面している際に登場しました。The New York Timesは、AIトレーニングデータにおける著作権侵害の疑いで同社を訴えています。OpenAIは、Associated Press、Axel Springer、News Corpを含む出版社とライセンス契約を別途交渉しています。懐疑的なニュースルームにとって、OpenAIからのトレーニングを受け入れることは、同時にビジネスモデルに挑戦している会社からの支援を受け入れることのように感じられるかもしれません。アカデミーは、その緊張を解消しません。それはそのまま残ります。OpenAIのアプローチは、対立ではなく関与のようです。意欲的なパートナーと関係を築き、トレーニングとツールを通じて価値を示し、採用によって業界内に支持者を生み出します。ただし、その戦略がジャーナリズムへのAIの影響についての根本的な懸念に対処するかどうかは、未解決の疑問です。次のステップアカデミーは、現在、ニュース組織に対して無料で利用可能です。OpenAIは、メディア業界団体と共同で開発されたコンテンツを含む追加のプログラミングを提供する予定です。AIの採用を検討しているニュースルームにとって、アカデミーは構造化された出発点を提供します。ただし、組織は、適切な使用、開示、編集の監督について独自のポリシーを開発する必要があります。OpenAIはツールを教えることができますが、いつ、どのように使用するかについてのより難しい質問は、各組織が自分で答える必要があります。


Google Labsは、CCと呼ばれる実験的なAI生産性エージェントをリリースしました。このエージェントは、ユーザーのGmail、Google Calendar、Google Driveアカウントに直接接続して、パーソナライズされたモーニングブリーフィングを提供します。エージェントは、12月16日にリリースされ、Googleの最新のAIアシスタントへの取り組みです。CCは、プロンプトに応答するのではなく、自律的に行動できるAIアシスタントです。CCは現在、Google AI Ultraと有料のGeminiサブスクライバーに限定されています。CCのしくみCCのシグネチャ機能は、「Your Day Ahead」と呼ばれるモーニングブリーフィングで、Googleの生産性スイート全体の情報を統合しています。エージェントは、予定のカレンダーイベント、関連するメール、接続されたドキュメントをスキャンして、ユーザーが日々の開始前に知る必要がある情報を整理します。Googleの公式発表によると、エージェントは単純な要約を超えています。CCは、異なるアイテム間の接続を識別できます。たとえば、メールスレッドが予定のミーティングに関連している場合、またはドキュメントがスケジュールされた締め切りに注意する必要がある場合などです。システムは、関連するコンテキストを追加するためにWebを検索します。ユーザーが新しい連絡先とのミーティングがある場合、CCはその人物や会社のバックグラウンド情報を取得することができます。旅行を伴うカレンダーイベントの場合、関連するロジスティクスを表示できます。https://www.youtube.com/watch?v=Mxixh5rNqn8自律的なAIエージェントへの一歩CCは、最小限の人間の介入でマルチステップタスクを実行できるAIエージェントへの業界のトレンドに合致しています。従来のチャットボットが指示を待っているのとは異なり、CCのようなエージェントはユーザーのコンテキストに基づいて情報を収集し、統合します。Googleは、この機能を数ヶ月間構築してきました。Geminiモデルは現在、Gmail、Docs、他のWorkspaceアプリケーションにパワーを提供していますが、CCはより統合されたアプローチを表しています。サービス全体で作業する1つのエージェントであり、各アプリに分離されたAI機能ではありません。リリースにより、Googleは、AIスケジューリングアシスタントやワークフローオートメーションツールを構築する他のテクノロジー企業と並びます。これらのツールは、複雑なマルチステッププロセスを処理できます。利用可能性と制限CCは、Google Labsを通じて実験的なリリースとして利用可能です。つまり、Googleはこれを完成した製品ではなく、進行中の作業と見なしています。会社は通常、Labsを使用して、より広範なロールアウト前に早期の採用者と機能をテストします。アクセスは現在、有料顧客に限定されています。具体的には、Google AI Ultraサブスクライバーと有料のGeminiユーザーです。無料のGeminiユーザーは、リリース時にCCにアクセスできません。地理的な利用可能性も、現在は米国とカナダに限定されています。エージェントは、ユーザーがGmail、Calendar、Driveデータへのアクセスを許可する必要があります。Googleは、CCがブリーフィングを生成するためにこの情報を処理することを述べていますが、データがどのくらいの期間保持されるか、またはモデルトレーニングに使用されるかについての詳細は示していません。AI生産性の競争CCは、AI生産性スペースでの競争が激化する中で登場しました。Microsoftは、CopilotアシスタントをOffice 365に深く統合していますが、スタートアップや既存のプレーヤーは、メール、スケジューリング、タスク管理を管理するためのAIツールを構築しています。Appleも、Apple Intelligence機能でSiriの機能を拡張していますが、会社は個人データにアクセスするAIエージェントに慎重なアプローチをとっています。Googleの利点は、既存のエコシステムにあります。数億人のユーザーがすでにGmailやGoogle Calendarに依存しているため、CCは新しい統合を設定したり、異なるプラットフォームに移行したりすることなく、豊富な個人データに即座にアクセスできます。次のステップGoogleは、CCを現在の実験的なステータスを超えて拡大する計画を発表していません。会社は、より広範な利用可能性を検討する前に、早期のユーザーからのフィードバックを使用してエージェントを改良する可能性があります。現在、CCは、AIアシスタントがどこへ向かっているかの一瞥を提供しています。質問に応答するリアクティブなチャットボットから、ニーズを予測し、行動を起こすプロアクティブなエージェントへ。ユーザーがそのレベルのアクセスを許可することに快適であるかどうかが、Googleが答えるべき重要な質問です。


米国の労働者のほぼ半数が現在、仕事でAIを使用している。しかし、彼らの雇用主のほとんどはそのことを知らない。それは、Gallupの最新のワークフォース調査から得られた見出しの発見であり、AIの採用は2023年以来2倍以上に増加したことを示している。しかし、データは、生の採用数よりも興味深いものを明らかにしている:労働者が何をしているかと組織が何を計画しているかとの間にある大きなギャップ。数字2025年第3四半期の時点で、米国の従業員の45パーセントが年間少なくとも数回AIを使用していることが報告されており、1四半期前の40パーセントから増加した。成長率は驚異的である:2023年には、労働者の20パーセント未満が仕事でAIツールを試した。しかし、「年間少なくとも数回」の条件が重要である。毎日AIを使用する労働者はまだ少数派で、労働力の10パーセントにすぎない。毎週のユーザーは23パーセントに増加した。パターンは、AIがほとんどの労働者にとって実験対象であり、日常的なルーティーンの一部ではないことを示唆している。業界の分類は、よく知られた物語を語っている。テクノロジー労働者が76パーセントの採用率でトップを占め、金融が58パーセント、専門サービスが57パーセントを占める。大規模な現場労働力を抱える業界は後れを取っている:小売業が33パーセント、医療が37パーセント、製造業が38パーセント。認識のギャップ最も重要な統計は、使用状況ではなく、組織の認識についてである。労働者の45パーセントがAIを使用している一方で、労働者の37パーセントが雇用主が生産性や品質の向上のためにAIを導入したと述べている。ほぼ4分の1の労働者が組織のAIの姿勢について全く知らないと言っている。このギャップは、職場でのAIの採用の混沌とした現実を明らかにしている。労働者は、企業のAI戦略を待っているのではなく、AIアシスタントを試してみたり、仕事をより迅速に完了する方法を見つけたりしている。多くの場合、誰にも報告せずに。その意味は重大である。組織はAIの採用について慎重に検討しているつもりだが、実際には労働者がすでに決定を下している。セキュリティチームはデータ管理について心配しているが、機密情報は個人用のAIアカウントを通じて流れている。マネージャーは生産性への影響について議論しているが、チームはすでに報告されているメトリクスよりも生産性が高い。労働者が実際にAIで行っていることGallupの調査は、労働者が実際にどのようにAIツールを使用しているかを明らかにしている。チャットボットとバーチャルアシスタントが60パーセント以上のAIユーザーに支配的であり、2番目は36パーセントのライティングと編集ツールである。コーディングアシスタントは14パーセントで、テクノロジーメディアでは注目されているが、適用範囲が狭いことを反映している。タスク自体は情報処理に偏っている:42パーセントが情報やデータを統合するためにAIを使用し、41パーセントが新しいアイデアを生成するために、36パーセントが新しいことを学ぶために。これは、AIが研究アシスタントやブレインストーミングパートナーとして機能しており、自律エージェントとして機能していない。パターンは、労働者が現在のAIのスイートスポットを見つけたことを示唆している。現在のモデルは、シンセシスやアイデア生成に優れており、知識労働者が最も必要とするものである。より複雑なタスクは、持続的な推論や現実世界の行動を必要とするため、ほとんどが人間の領域である。リーダーシップの問題Gallupの枠組みは明確である:より高い採用率を得るには、リーダーが必要である。調査データはこれを支持している:明確なAI戦略を持つ組織は、戦略がない組織よりも高い使用率を示している。会社がAIの実験をサポートしていることを知っている労働者は、ツールを試す可能性が高く、生産性の向上を報告する可能性も高い。しかし、認識のギャップは、多くのリーダーがまったく関与していないことを示唆している。彼らはAIの使用を奨励も阻止もしていない。彼らはただ会話から離れているだけである。彼らの従業員はその沈黙を許可と解釈し、したがって従った。これにより、不快なダイナミクスが生じる。個人のAIアカウントを使用している労働者は、検査を恐れてその方法を共有することをためらうかもしれない。生産性の向上は認識されず、複製されない。潜在的なセキュリティまたはコンプライアンスの問題は、検出されずに蓄積される。AIの採用の利点は個人に蓄積されるが、リスクは組織にとって不可視のままである。10パーセントの質問Gallupの調査で最も重要な数字は、毎日の使用率:労働者の10パーセントだけである。ChatGPTが800万人の週次ユーザーを持っているかもしれないが、米国の職場では、AIは90パーセントの労働者にとって、実験的なものではなく、日常的なものである。これは重要である。AIの変革的な潜在性は、統合によって決まるのではなく、実験によって決まるのである。1か月に1回長いドキュメントを要約するためにAIを使用する労働者は、限られた利益しか見ない。毎日、下書き、研究、分析のためにAIを使用する労働者は、複利の利益を見ている。違いは、ワークフローの変革である。毎日AIを使用する10パーセントは、すでに同僚と異なる方法で働いている可能性が高い。彼らはAIを使用可能なタスクでより生産的であり、人間の判断が必要な仕事のために時間を解放する。彼らが生み出すギャップが広がるにつれて、組織は、より多くの労働者を偶発的な使用から毎日の使用へと移行させる圧力に直面することになる。次に何が起こるかGallupのデータは、数つの起こり得る開発を示唆している。まず、認識のギャップは閉じるが、恐らく公式の企業のAI戦略によってではない。AIの使用がより見えやすくなり、より多くの労働者がすでにこれらのツールを使用していることを発見するにつれて、社会的証明は、上向きの命令よりも採用を促進する。2つ目は、業界の収束である。テクノロジーの76パーセントの採用と小売の33パーセントの間のギャップは、仕事の適合性について部分的であるが、文化的受容についてもある。AIツールが業界の標準になるにつれて、他の業界では追いつく圧力が高まる。3つ目は、毎日の使用率が重要なメトリックになる。月次または四半期のAIの使用は、好奇心を示唆する。毎日の使用は、変革を示唆する。AIの生産性に真剣に取り組む組織は、労働者を使用率曲線の上に移動させることに焦点を当てる。より広い絵は、戦略的な計画を上回る有機的な採用を示している。労働者はAIが役立つと判断し、企業の政策に関係なくそれを使用している。現在の質問は、組織がすでに起こっていることを認識し、生産的に形作るか、またはすでに到来している将来について計画し続けるかである。