

新しい研究によると、人間が指示を与えると雰囲気コーディングは向上するが、AIが指示を与えると低下する。最適なハイブリッド構成は、人間を最優先とし、AIを調停者または審判として機能させることだ。 AIシステムが人間の指示を単に実行するのではなく、雰囲気コーディングを主導することを許された場合に何が起こるかを調査した米国からの新しい研究は、大規模言語モデル(LLM)がより大きな方向性決定の役割を担うと、結果がほぼ常に悪化することを発見した。研究者らは人間とAIの共同実験の枠組みとしてOpenAIのGPT-5を使用したが、後にAnthropicのClaude Opus 4.5とGoogle Gemini 3 Proも、責任が増すにつれて同じ悪化曲線に従うことを確認し、「限定的な人間の関与でさえ、着実にパフォーマンスを向上させる」と述べている:「[人間は] 反復を跨いで他に類を見ない効果的な高レベルのガイダンスを提供するが、[一方で] AIによるガイダンスはしばしばパフォーマンスの崩壊につながる。また、人間が方向性を担当し、評価をAIに委ねる注意深い役割分担が、ハイブリッドのパフォーマンスを向上させうることもわかった。」人間とAIの両方によって平等に評価できる一貫したテストを提供するため、反復的なコーディングタスクを中心に制御された実験フレームワークが構築された。このタスクでは、猫、犬、虎、鳥、象、ペンギン、サメ、シマウマ、キリン、パンダの写真を含む参照画像を、スケーラブルベクターグラフィックス(SVG)を使用して再現し、その再現を元の写真ソースと比較して評価するものだった:各ラウンドで、1つのエージェントがコードジェネレーターを導くための高水準の自然言語指示を提供し、別のエージェントが新しいバージョンを保持するか前のバージョンに戻すかを決定した。これは実際の共同ワークフローを反映する構造化されたループである。604人の参加者と数千回のAPI呼び出しを含む16の実験を通じて、完全に人間主導のテストラウンドと完全にAI主導のラウンドが、それ以外は同一の条件下で直接比較された。テスト開始時のベースラインでは人間とAIは同程度のパフォーマンスを示したが、時間の経過とともにその軌道は分岐した:人間が指示を提供し選択決定を行う場合、類似性スコアは反復を重ねるごとに上昇し、着実な累積的改善が見られた。しかし、AIシステムが両方の役割を担う場合、パフォーマンスには一貫した向上が見られず、しばしばラウンドを経るごとに低下した。同じ基盤モデルがコード生成に使用され、AIも人間の参加者と同じ情報にアクセスできたにもかかわらず、である。冗長性効果結果はまた、人間の指示は通常、短く行動指向であり、現在の画像で次に何を変更すべきかに焦点を当てていることを示した。逆に、AIの指示ははるかに長く、非常に記述的で(この要因はGPT-5向けにパラメータ化されていた)、段階的な修正を優先するのではなく、視覚的属性を詳細に説明していた。しかし、以下のグラフに見られるように、AIの指示に厳格な単語数の制限を課してもこのパターンは逆転せず、10語、20語、30語に制限された場合でも、AI主導のチェーンは時間の経過とともに改善しなかった:ハイブリッド実験によりこのパターンはより明確になり、わずかでも人間の関与を加えると、完全にAI主導のセットアップと比較して結果が改善されることが示された。しかし、AIガイダンスの割合が増加するにつれて、パフォーマンスは通常低下した。役割が分離された場合、評価と選択は比較的品質を損なうことなくAIに委ねることができた。しかし、人間の高水準指示をAIガイダンスに置き換えると、パフォーマンスの顕著な低下が生じた。これは、最も重要なのは誰がコードを生成したかではなく、反復を跨いで誰が方向性を設定し維持したかであることを示唆している。著者らは結論付けている:「複数の実験を通じて、人間主導のコーディングは反復を重ねるごとに一貫して改善したが、AI主導のコーディングは同じ情報と同様の実行能力にアクセスできたにもかかわらず、しばしば崩壊した。これは、成功した雰囲気コーディングに必要な種類の、繰り返される相互作用にわたって首尾一貫した高水準の方向性を維持するという点で、今日のAIシステムが直面する重要な課題を指し示している。」この新しい論文はWhy Human Guidance Matters in Collaborative Vibe Codingと題され、コーネル大学、プリンストン大学、マサチューセッツ工科大学、ニューヨーク大学に跨る7人の研究者によるものである。方法実験では、人間のインストラクターがGPT-5で生成された動物の参照写真と、最新の関連するSVG模倣試作品を見た。その後、コードジェネレーターをより近い一致へと導くための自然言語指示を書いた。こうして、ジェネレーターは各ラウンドで新しいSVGを生成し、ガイダンスの効果が時間の経過とともにどのように蓄積するかをテストするための反復ループを提供した。ターゲットはGPT-5で生成された10枚の動物画像で、形状と質感の範囲をカバーしており、改善や誤りを容易に検出できるようにした:人間のセレクターは、新しく生成された各SVGを前のものと比較し、それを受け入れるか拒否した。これにより、プロセスはラウンドを跨いで参照画像に沿ったものに保たれた。このベースライン設定では、同じ人間が両方の役割を担った。品質を測定するために、独立した人間の評価者が各生成SVGが参照画像にどれだけ類似しているかを評価した。16の実験を通じて、120人が4,800件の評価を生成した。すべての実験は、人間とAIシステムの間の構造化された相互作用に対応するために設計されたポータルであるPsyNetフレームワーク上で実行された。この研究では604人の英語母語話者を募集し、コード生成に4,800回、指示生成に5,327回のAPI呼び出しを消費するテストが行われた。GPT-5が主に使用されたモデルだが、Claude Opus 4.5とGemini 3 Proを使用した小規模な比較バッチも作成され、それぞれが280件のクエリを処理した。結果30ラウンドの雰囲気コーディングが実行され、それぞれが中核となる10枚の参照画像に対する15回の編集で構成された。これらには45人の人間参加者が選ばれ、各参加者が「人間主導」ラウンドにおいて10回の反復にわたってセレクターとインストラクターの両方を務めた。各ターン内で、同じ参加者がまず現在と前のSVGのどちらかを選択し、次に次のラウンドの指示を書いた。テストの第二バージョンでは、これらの人間の決定をGPT-5へのAPI呼び出しに置き換え、セットアップの他の部分は変更しなかった。すべての場合において、インストラクターとセレクターの役割は平易な言語でコードジェネレーターにプロンプトを与えた。多ラウンドにわたる雰囲気コーディングの代表的な例は、プロセスが時間の経過とともにどのように分岐するかを示している。人間がセレクターとインストラクターの両方を務めた場合、SVG出力は反復を重ねるごとに着実に改善し、各ラウンドで参照画像に近づいていった:逆に、AI主導のバージョンでは、初期のラウンドで重要な視覚的特徴を捉えることもあったが、後の試行ではそれらの成果を積み上げることができず、場合によってはターゲットから逸脱していった:新たに出現する傾向を定量的に測定するため、最終画像は独立した人間の評価者に提示され、参照画像との類似性についてスコア付けされた。初期ラウンドでは、人間主導とAI主導の実行はほぼ同じスコアだった。しかし、15ラウンド目までにはその差は明らかになり、人間が選択した画像はターゲットにはるかに近いと評価された。時間の経過とともに、人間のスコアは着実に上昇し、AIに対する最大の相対的利得は27.1%に達した。<img class=" wp-image-254939" src="https://www.unite.ai/wp-content/uploads/2026/02/figure-3-2.jpg" alt="人間主導およびAI主導の雰囲気コーディングにおける反復にわたる平均類似性スコア。人間がセレクターとインストラクターの両方を務める場合、着実な向上が見られ、


昨年、スタンフォード大学の2025年AIインデックスレポートによると、専門家の60%以上がAIツールが自身のプライベートデータをどのように扱うかについて懸念を抱いています。まさにそれが、OpenClawが私の注目を集めた理由です。企業のサーバー上で動作するのではなく、OpenClawはあなた自身のマシン上で直接動作します:Mac、Windows、Linux、さらにはRaspberry Piでも。OpenClawを使えば、あなたのファイルや会話はローカルに留まり、自動化はあなたが管理するハードウェア上で実行されます。しかし、これは単なるプライバシーの問題ではありません。それはパワーに関するものです。OpenClawは、ブラウザのタブに開かれる別のチャットボットではありません。ウェブを閲覧し、コマンドを実行し、ファイルを整理し、メッセージングアプリに接続し、ワークフローを連鎖させることができる、完全自律型のエージェントです。言い換えれば、それは単に応答するだけでなく、行動します。同時に、そのレベルのコントロールには本当の責任が伴います。セットアップは技術的であり、設定ミスはリスクを生み出す可能性があり、ターミナルウィンドウでの作業に慣れていない場合、OpenClawはすぐに圧倒的に感じられるでしょう。このOpenClawレビューでは、長所と短所、それが何であるか、誰に最適か、そしてその主な機能について説明します。セットアップはかなり技術的なので、コンピューターでOpenClawを起動して実行するための私が見つけた最も直接的な方法をお見せします。記事の最後に、OpenClawを私のトップ3の代替案(n8n、Lindy、BotPress)と比較します。プライバシー、自律性、そして真にあなたに属するAIアシスタントを構築することに関心があるなら、これは今年あなたが探求する最も興味深いツールかもしれません。OpenClawがあなたに合ったAIアシスタントかどうか見てみましょう。総評OpenClawは、完全なコントロール、カスタマイズ、マルチエージェントワークフローを提供する強力なローカル自動化ツールです。技術的なユーザーには優れていますが、複雑なセットアップ、メンテナンス、および潜在的なセキュリティリスクは、初心者にとって困難です。OpenClawとは?OpenClaw(旧称Clawdbot/Moltbot)は、あなた自身のパーソナルAIアシスタントをあなたのコンピューター上で直接実行するフレームワークです。これにはMac、Windows、Linux、さらにはRaspberry Piも含まれます。OpenClawと他のAIアシスタントの大きな違いは、それが存在する場所です。ほとんどのAIアシスタントは、クラウド上のどこかの企業のサーバーに存在し、あなたが話すすべてのことを彼らのシステムを通じて処理しています。OpenClawでは、あなたのAIアシスタントはどこかの企業のクラウド上には存在しません。それはセルフホスト型であり、あなた自身のコンピューターやサーバー上で実行することを意味します。あなたのデータは、あなたが望まない限り、あなたのマシンを離れることはありません。つまり、OpenClawでは、企業のサーバーがあなたの会話を読むことはなく、突然あなたのデータのプライバシーを低下させるような利用規約の変更もありません。あなたがコントロールします。単なるチャットボット以上のものOpenClawは、質問に答えるだけのチャットボットではありません。それはあなたのコンピューター、ファイル、ブラウザにアクセスできる24時間365日稼働のAIエージェントです。また、さまざまなサービスに接続することもできるため、あなたが何かを尋ねるのをただ待っているだけではありません。OpenClawは実際にあなたのために行動します。例えば、WhatsAppでメッセージを送り、ダウンロードしたばかりのPDFを要約するよう指示したり、ファイルを整理したり、メールをスキャンしたり、オンラインで航空券の価格を監視したりします。これは、ChatGPTに何かを入力して、その応答を作業中のものにコピーして戻すという体験とはかなり異なります。また、それがオープンソースであることも強調する価値があります。誰でもコードを閲覧し、修正できることを意味し、機能を変更したり、サービスを停止したりするために別の企業に依存する必要はありません。あなたがセットアップ全体を所有します。モデルの柔軟性OpenClawは優れたモデルの柔軟性を備えており、単一のAIモデルの使用に縛られることはありません。例えば、文章作成にはClaudeを、コーディングにはGPT-5を、あるいはインターネットに何も送信したくない場合にはMiniMax 2.1のようなローカルモデルを使用できます。OpenClawでは、すべてに別々のアプリは必要ありません。チャットアプリ連携OpenClawが一般の人々にとって有用になるのは、チャットアプリ連携です。WhatsApp、Telegram、Discord、Slack、Signal、さらにはiMessageを通じてAIと会話できます。つまり、新しいインターフェースを学んだり、常にアプリを切り替えたりする必要はありません。友達にメッセージを送るようにOpenClawにメッセージを送るだけで機能します。持続的メモリシステムも印象的です。新しいチャットを開始するたびにリセットされるのではなく、セッションをまたいであなたの好みや過去の会話を記憶します。オープンソース基盤OpenClawはPeter Steinbergerによって構築され、現在ではオープンソースコミュニティ全体が取り組んでいます。オープンソースとは、コードが何をしているのかを確認し、修正できることを意味します。さらに、コミュニティは継続的に機能と改善を追加しています。OpenClawは完璧ではありませんが、制限が多すぎると感じるAIアシスタントに不満があるなら、これはチェックする価値があるかもしれません。特に、プライバシーと柔軟性が、単に最も輝くインターフェースを持つことよりもあなたにとって重要である場合です。OpenClawは誰に最適か?OpenClawは、クラウドへの依存なしに自動化のためのセルフホスト型AIエージェントを望む技術に精通した個人に最適です: あなたの作業を監視し、発生したミスを修正し、あなたが離れている間にバックグラウンドで技術的な詳細を処理する24時間365日稼働のデジタルアシスタントを望む開発者。 メールの仕分け、クライアントのオンボーディング、カレンダー、メッセージングアプリを通じた毎日の更新を自動化するビジネスオーナーや個人事業主。 ソーシャルメディアのスケジューリング、視聴者インサイト、コンテンツの再利用、インフルエンサーへのアプローチを管理するコンテンツクリエイターやマーケター。 スマートホームツールの作成、ファイル整理、領収書のスキャン、個人追跡を行いながらデータをローカルに保持する趣味人。 OpenClawの主な機能以下がOpenClawの主な機能です: Windows、macOS、またはLinuxにネイティブでホスト。あなたのデータは、サードパーティのクラウドではなく、あなたのハードウェア上にあるべき場所に留まります。 あなたのワークフローと好みを学習し、独自の体験を提供する進化する長期記憶。 いつでも「脳」を交換可能。GPT-4、Claude、Geminiのいずれであっても、タスクに合ったモデルを選択します。 直接Chromium連携により、エージェントは人間と全く同じようにウェブをナビゲートできます。 エージェントに完全なアクセスを許可するか、安全なサンドボックス内に保持するかを選択。エージェントが読み取り、書き込み、実行できるものを正確に定義します。 ターミナルコマンドを実行し、ファイルを管理し、複雑なワークフローを連鎖させてエンドツーエンドのジョブを完了します。 WhatsApp、Telegram、Slack、Teamsなど50以上の連携により、アクションをトリガーし、更新を受け取ります。 定期的なタスクのための自動トリガー。エージェントはプロンプトを必要とせずに、受信トレイを整理し、システムを自動的に監視します。 分離された安全なセッションを切り替えるか、既存のブラウザプロファイルを使用して、既に使用しているツールにログインしたままにします。 ブラウザセッションとシステムタスクを安全な環境で実行。あなたの個人ファイルとブラウザ履歴は、あなたが選択してロックを解除するまで、エージェントから見えません。 詳細な権限制御により、エージェントをDocker内でサンドボックス化したり、特定のフォルダやシステムコマンドへのアクセスを制限したりできます。 Piコーディングエージェントによって駆動され、自律的に新しいスキルを書き、テストし、ホットリロードしてその能力を拡張できます。 OpenClawの使い方OpenClawは、他のAIアシスタントと比較して分散型であるため、セットアップがはるかに複雑です。標準的なAIアプリとは異なり、「ログイン」を提供しません。なぜなら、ログインする「OpenClawサーバー」が存在しないからです。代わりに、あなた自身がサーバーを構築します。コンピューターでOpenClawを起動して実行するための私が見つけた最も直接的な方法をお見せします: App StoreからUbuntuをダウンロード UNIXアカウントを作成...


Gerald Kierceは、TrustibleのCEO兼共同創設者であり、責任あるAIの実践化に焦点を当てたテクノロジーと政策のリーダーです。彼は、組織が信頼を構築し、リスクを管理し、新興のAI規制に準拠するのを支援するというTrustibleの使命を率いています。以前は、FiscalNoteでAIソリューションの副社長兼ゼネラルマネージャーを務め、エンタープライズAI製品を監督し、コーポレート・ディベロップメント、プロダクト、カスタマーサクセス、エグゼクティブ・オペレーションにわたる上級職を歴任しました。彼のキャリアは一貫して、テクノロジー、規制、スケーラブルな企業実行の交差点に位置しています。Trustibleは、組織がAIシステムをインベントリ化し、リスクを評価・軽減し、構造化されたワークフローと文書化を通じてコンプライアンスを実践化するのを支援するAIガバナンスプラットフォームを提供します。法務、コンプライアンス、AIチーム向けに設計されたこのプラットフォームは、ガバナンス活動を一元化し、AIユースケースを規制フレームワークに適合させ、企業全体で責任あるAIをより迅速かつ透明性高く展開できるようにします。FiscalNoteでプロダクトマーケティングやChief of Staffの業務からAIソリューションのリーダーシップを経て、Trustibleを創業されました。それらの役職で、AIガバナンスに専用プラットフォームが必要だと確信した点は何ですか?また、Trustibleを立ち上げた際に最初に解決を決意した問題は何でしたか?私は幸運にも、FiscalNoteでの8年以上の在籍期間中に多くの役職を経験しました。そこでは初期のSeed/Series Aの従業員としてスタートし、IPO後に上級役員として退社しました。プロダクトマーケティング、Chief of Staff業務、そして最終的にFiscalNoteでのAIソリューションのリーダーシップを通じて、私は同じ問題が異なる角度から浮上するのを目にし続けました。AIガバナンスは本質的に社会技術的な問題ですが、ほとんどの組織はそれを断片的な方法でアプローチしていました。チームは、AIのパフォーマンス、セキュリティ、プライバシー、倫理、法的レビューを別々のトラックとして扱い、それらを結びつける共通の運用基盤がほとんどないまま、多くの場合異なる機能が所有していました。これら5つの次元は絶対に重要であり、協力的に対処される必要があります。しかし、組織が苦労していたのは、AIが実際の意思決定に移行した後、その社会技術的な意図を何か持続可能なものに変換することでした。同時に、AIを取り巻く規制環境は明らかに変化していました。EU AI法や関連する規格は、AIを実験的な技術ではなく規制されたインフラとして統治する方向への転換を示していました。明らかになったのは、多くの企業が、デプロイ後にポリシーや規制の期待をAIシステムにマッピングしようとしているのに対し、それらの社会技術的次元にわたって規制の意図を継続的に実践化できるガバナンスを設計していなかったことです。FiscalNoteでの経験は重要でした。なぜなら、私たちはAIを政策、法務、規制の分野そのものに適用していたからです。私たちは、法律がどのように進化するか、要件がどのように解釈されるか、規制の期待が時間とともにどのように運用上の義務に変換されるかを組織が理解するのを支援していました。その経験から、効果的なAIガバナンスには逆方向の同じ規律が必要であることが明らかになりました。つまり、ポリシーと規制の考え方を、AIシステムがどのように構築され、デプロイされ、監視され、状況の変化に応じて適応されるかに直接適用することです。顧客は一貫して同じ痛みを訴えていました。彼らは、どのAIシステムが本番環境にあるか、新興規制の下でどれが高リスクか、システムが機能の境界を越えたときに誰が責任を負うか、またはモデル、データ、ベンダー、規制が同時に進化する中で継続的なコンプライアンスをどのように実証するかについて、自信を持って答えることができませんでした。Trustibleを立ち上げたとき、私たちが最初に解決しようとした問題は、社会技術的ガバナンスを理論から運用の現実に変えることでした。私たちは、技術的行動、ユースケースのリスク状況、所有権、規制の期待を一箇所で結びつけるシステムを作ることに焦点を当てました。Trustibleは、組織にAIのための生きた記録システムを提供し、継続的な可視性と説明責任を実現するために構築されました。これにより、ガバナンスが技術的変化と規制の進化の両方に遅れをとるのではなく、それらに追いつくことができるようになります。最前線から、AIが実際の意思決定、ワークフロー、顧客向けエクスペリエンスに移行した後、なぜガバナンスプログラムが停滞するのかについて、この1年で何を学びましたか?AIが実験の段階から実際のワークフローに移行すると、ガバナンスは哲学的な理由ではなく、非常に実用的な理由で停滞する傾向があります。ほとんどの組織は、システムが実際にどのように使用されているかにマッピングする方法でAIリスクを評価する方法を単に知らないのです。彼らは抽象的にモデルを評価することはできますが、コンテキスト、影響、下流の意思決定が技術的指標だけよりもはるかに重要なユースケースレベルでリスクを評価するのに苦労します。この問題は、生成AIではさらに顕著になります。単一の基盤モデルが、顧客サポート、内部調査、意思決定支援、コンテンツ生成など、それぞれ非常に異なるリスクプロファイルを持つ用途に使用される可能性があります。それらの用途を評価・比較する構造化された方法がなければ、チームは慎重になりすぎるか、本当の自信を持たずに前進することになります。サードパーティのAIはさらに事態を複雑にします。組織はベンダーや組み込みAI機能に大きく依存していますが、それらのシステムを評価し、上流のコントロールを理解し、ベンダーのリスクがどのように自社の規制上および運用上のエクスポージャーに変換されるかを判断する一貫した方法を欠いています。その結果、レビューは主観的で遅くなります。これらの課題は、専門知識と所有権のギャップによって増幅されます。ガバナンスの責任は、多くの場合、法務、コンプライアンス、セキュリティ、データ、プロダクトチームに分散しており、システムが本番環境に到達した後、共有フレームワークや明確に責任を負う所有者がいません。スプレッドシート、ドキュメントリポジトリ、レガシーGRCプラットフォームなどの不適切なツールと組み合わさることで、ガバナンスチームは何が変化しているのか、なぜそれが重要なのかについての可視性を失います。その核心において、ガバナンスが停滞するのは、組織が静的なシステム向けに設計された古いプレイブックを動的なAIシステムに適用しているからです。AIには、継続的なリスク評価、結果に結びついた明確な所有権、そしてシステムが紙の上で承認された方法ではなく、本番環境で実際にどのように動作するかを反映するツールが必要です。ガバナンスチームは、何が変化しているのか、いつ変化しているのか、なぜそれが重要なのかを見ることができません。最後に、所有権はしばしば未解決のままです。多くの組織では、AIシステムが実験段階から本番環境に移行した後、明確に責任を負う所有者がいません。結果に対して責任を負う指名されたビジネスオーナーがいなければ、ガバナンスは助言的になり、進捗は遅くなります。共通の糸は、組織が根本的に新しい技術に古いガバナンスのプレイブックを適用していることです。それらのプレイブックは、静的なシステムと定期的なレビューのために構築されました。AIには、継続的なリスク評価、より明確な所有権、そしてガバナンスをシステムが本番環境で実際にどのように動作するかに直接結びつけるツールが必要です。「Year Two」ガバナンスをどのように定義しますか?また、組織が初期導入から継続的な監視、ドリフト管理、継続的コンプライアンスに移行するとき、何が変化しますか?「Year Two」AIガバナンスとは、AIが一連のプロジェクトとして扱われるのをやめ、意思決定のための基盤インフラとして扱われ始める瞬間です。これが意味するのは、最初の1年では、AIガバナンスは主に有効化に関するものだということです。チームは、ユースケースの承認、モデルの文書化、AIが責任を持って前進できるようにレビュープロセスを整備することに焦点を当てています。AIシステムが拡大し、中核的なビジネスプロセスに組み込まれるにつれて、焦点は移行します。問題は、何かをデプロイすべきかどうかではなく、データ、ユーザー、ベンダー、規制が変化する中で、時間とともに安全かつ確実に運用できるかどうかになります。AIガバナンスは、カレンダーベースのレビューではなく、行動やコンテキストの実際の変化によってトリガーされる、断続的ではなく継続的なものになります。リスクも動的になります。起動時に静的なリスク評価を割り当てる代わりに、組織は、モデルがドリフトしたり、範囲が拡大したり、新しいステークホルダーがシステムと対話したりするにつれてリスクがどのように進化するかを理解する必要があります。コンプライアンスも同じ変化をたどります。規制要件は、ポリシーにマッピングされることから、ライブコントロール、監視シグナル、継続的に収集される証拠を通じて強制されるものへと移行します。「Year Two」AIガバナンスのもう一つの重要な側面は、実際のAIインシデント管理の導入です。組織は、どのシステムが監視されているか、内在するリスクに基づいてそれらに優先順位を付け、意味のあるシグナルを表面化させるために適切なデータを統合し、明確なアラートとエスカレーションの基準を定義する必要があります。これにより、チームは問題がインシデントに変わる前に早期に介入することができます。断片化されたシステムと限られたリソースの中で、企業が組織全体で最初に標準化すべきガバナンス機能は何だと思いますか?リソースが限られている場合、組織はどこから始めるかについて意図的である必要があります。なぜなら、初期の選択がその後のすべての軌道を決定するからです。最初の優先事項は、ビジネスにおいてAIが実際にどこに存在するかについて、信頼できる可視性を得ることです。多くのチームは、ほんの一握りのAIシステムしかないと思い込んでいますが、シャドウAI、組み込みベンダー機能、正式にレビューされたことのない静かに拡大されたユースケースを発見することになります。本番環境にあるものについての生きたビューがなければ、ガバナンスの議論は理論的で現実から切り離されたままです。AIインベントリを通じて可視性が確保されたら、次はAIユースケースに説明責任を組み込むことです。責任が委員会や機能に分散している場合、ガバナンスはすぐに崩壊します。組織は、AIシステムが意思決定を行ったり影響を与えたりしたときに結果に対して誰が責任を負うのかを明確に割り当てる必要があります。それは、単に誰がそれを構築したか、または最初にレビューしたかではありません。この明確さは、インシデントが発生したとき、またはモデルが元の範囲を超えて進化したときに特に重要になります。そこから、チームはリスクについて推論する実用的な方法を必要とします。これは、内部構築システム、生成AIユースケース、サードパーティベンダーにわたって機能する、リスク分類への共有アプローチを確立することを意味します。共通のリスクレンズがなければ、組織は影響の低いシステムを過度に精査するか、最も重要なシステムを十分に監視しません。最後に、ガバナンスは通常の運用の副産物として証拠を生成しなければなりません。私たちはしばしば、AIガバナンスにおける信頼性を実証する方法として「Say It, Do It, Prove It(言う、実行する、証明する)」について話すのが好きです。システムが実行されるにつれて承認、変更、監視シグナルをキャプチャすることで、組織は監査、インシデント、顧客の要求、規制上の質問に対して、再構築ではなく自信を持って対応できるようになります。これらの基盤は、最初から完璧である必要はありませんが、ガバナンスが拡大するためには、首尾一貫していて繰り返し可能である必要があります。なぜ、AIガバナンスはサイバーセキュリティやGRCと同じ深刻さで扱われる必要があるとお考えですか?また、リーダーが運用上の作業負荷を最も過小評価しているのはどこですか?AIガバナンスは、サイバーセキュリティやGRCに匹敵するシステミックリスクを伴いますが、複雑さが加わります。サイバーセキュリティの失敗と同様に、AIの失敗は組織全体に迅速かつ目に見えない形で伝播する可能性があります。GRCと同様に、AIは法的、倫理的、運用上の義務と交差します。どちらとも異なり、AIシステムは明示的な人間の行動なしに時間とともに動作を変化させることができます。リーダーが作業負荷を過小評価しがちなのは、継続的な運用上の要求においてです。監視は定期的ではなく継続的です。調整は、プロダクト、データ、IT、法務、コンプライアンス、調達チームにまたがります。モデル、ベンダー、ユースケース、規制が同時に進化するため、変更管理は絶え間なく続きます。AIガバナンスを一度限りのコンプライアンス活動として扱う組織は、必然的に苦労します。セキュリティや信頼性エンジニアリングと同様に、運用インフラとしてアプローチする組織は、AIを安全かつ持続可能に拡大するにはるかに有利な立場にあります。連邦政府の政策が争われている間、米国の各州がAIルールを推進する中で、企業は規制の不確実性を通じて回復力のあるガバナンスをどのように設計すべきですか?AIの規制環境は不確実で進化しています。最も回復力のあるガバナンスプログラムは、個々の規制ではなく、要件を中心に構築されています。


Pablo Ormachea は、Motusのデータ担当副社長として、規制や財務的な精査に耐えながら迅速に動くことを目的としたエンタープライズAIおよびアナリティクスシステムを構築しています。彼は完全リモートのクロスファンクショナルチームを率い、定着率の向上、マージンの拡大、測定可能なROIの提供につながるエビデンス駆動型の意思決定システムに焦点を当てています。Motusでは、35万人以上のドライバー向けのアナリティクスを再構築し、タイムアウトゼロでレポート作成速度を60倍に向上させました。また、異常検知や解約予測などのAI/MLシステムをリリースし、顧客に数百万ドルの節約をもたらしました。さらに、MotusのAIガバナンスフレームワークの共同執筆者でもあり、明確なデフォルト設定、強力な監査可能性、データスタック全体での一貫したビジネスロジックにより、安全なLLM実験を可能にしています。Motus は、ワークフォース管理とモビリティソフトウェア企業であり、組織が車両経費精算、走行距離追跡、モバイルワークフォースの運用を管理するのを支援しています。そのクラウドプラットフォームは、税制優遇措置のある精算プログラムを自動化し、リアルタイムのレポートとインサイトを提供し、業務の一環として運転する従業員のコスト削減、生産性向上、コンプライアンス管理を企業が行うのを支援します。ハーバード・ロースクールからMotusでのデータとAIのリーダーシップまで、AIエンジニアリング、データ戦略、規制の交差点でユニークなキャリアを築かれてきました。技術的に先進的でありながら、厳格な規制フレームワークに準拠したAIシステム構築へのアプローチを形作った主要な経験は何ですか?私は早い段階で、コンプライアンスを法的な後付けではなく、エンジニアリング上の制約として扱うことを学びました。高速道路を建設すれば、高速道路の速度で走行できます。未舗装路だと見なして無理にアクセルを踏んでも、速くは進めません。ただ、より早くクラッシュするだけです。ハーバード・ロースクールは、予想外の方法で役立ちました。なぜなら、コモンローシステムは基本的に残差駆動学習だからです。ルールが現実と出会い、エッジケースがその失敗箇所を明らかにし、法理が洗練されます。これは、本番環境のAIに私が使用するのと同じメンタルモデルです。すべての残差は贈り物です。それは、あなたの仮定が現実世界からどこで乖離しているかを教え、システムを強化する具体的な道筋を示してくれます。したがって、私は二つのことを同時に最適化します:リリース速度と立証責任です。目標は「イノベーション対コンプライアンス」ではありません。目標は、迅速に動きながらも、「どうやってそれを知ったのか?」という問いに明確かつ再現可能に答えられるシステムを構築することです。強力なコントロールを維持しながら承認プロセスを合理化したMotusのAIガバナンスポリシーを共同執筆されました。そのポリシーを設計する際に導きの原則となったものは何ですか?また、イノベーションの速度と監査対応準備のバランスをどのように取っていますか?私たちは規則を作ろうとしたのではありません。地図を描きました。AI導入が始まると、関心はあらゆる方向から寄せられ、速度はノイズに、あるいはさらに悪く、責任問題に変わる可能性があります。したがって、最初の仕事は明確化です:LLMがどこで実行でき、どこでできないのか、どのデータが厳密に内部に留まるのか、そして安全なレーンで許可される実験の種類は何か。バランスは、安全な道を容易な道にすることから生まれます。ガバナンスは委員会であるときには失敗します。承認済みツール、明確なデータ境界、標準的なロギング、エッジケースのための迅速な承認レーンといったデフォルト設定になると機能します。目標は、ビルダーがリリースするたびに安全性を再交渉する必要がないようにすることです。そうすれば、監査対応準備は副産物となります。事後に証拠をかき集める必要はありません。なぜなら、システムが実行しながら証拠を生成するからです。AIの実践は「IRSレベルの精査にも耐えるべき」とおっしゃっています。規制上の考慮事項がMotusでの技術的なAIまたはMLの決定に直接影響を与えた例を共有していただけますか?規制されたワークフローでは、問題は単に「モデルは正確か?」ではありません。「後で作業内容を示すことができるか?」です。この現実が、Motusにおける「良い」ものの見え方を形作ります。それは設計選択を変えます。特定のユースケースでは、説明可能で再生可能、監査が容易なアプローチを優先します。時には、より単純なモデルファミリーを意味します。多くの場合、決定論的なガードレール、バージョン管理された特徴量、真の再生をサポートする方法での入出力のロギングを意味します。具体的な例:私たちの精算ロジックとレポートの一部を更新した際、主要な意思決定ポイントでの追跡可能性を強く推進しました。システムが、要求に応じて、どのルールが発動したか、どのデータを使用したか、どのバージョンが実行されていたか、そして何が結果を変えるかを答えられるようにしたかったのです。これによりAIコンポーネントの使いやすさが向上し、ワークフロー全体の防御が容易になりました。その見返りは複利効果をもたらします。動作を再生し、エラーを細分化できるとき、残差は不可解なものではなくなります。それらは優先順位付けされたバックログになります:何が、どこで、なぜ失敗し、どの変更がギャップを埋めるのか。Motusは、IRSやその他の規制要件を満たさなければならない車両経費精算およびリスク軽減ソリューションを運営しています。これらのエンタープライズユースケースにおいて、AIはコンプライアンスと精度をどのように向上させますか?AIは二つの方法で役立ちます:手作業による摩擦を減らし、防御可能性を強化します。精算において、価値は単なる自動化ではなく、一貫性にあります。AIは、出張の分類、異常の検出、不足情報の早期発見を支援し、下流での照合作業を減らすことができます。誰も、精算が毎月の考古学プロジェクトになることを望みません。コンプライアンス上の利点は、より良い測定とより良い文書化から生まれます。事後の再構築に頼るのではなく、明確な記録で結果を裏付けるのです。リスクに関しては、AIは有用です。なぜなら、特定時点のチェックだけでは不十分だからです。企業は、何が変化したか、何がおかしく見えるか、何に注意が必要かについての継続的な認識を望んでいます。ここでの最高のAIシステムは、劇的なものではありません。静かで、一貫性があり、測定可能なものです。法務、セキュリティ、財務、製品部門と協力する完全リモートのクロスファンクショナルチームを率いることは、小さな功績ではありません。データとAIイニシアチブをめぐってこれらのグループを調整する際に直面した最大の課題は何ですか?最も難しい部分は、各グループが合理的であり、異なるリスクを最適化していることです。セキュリティは漏洩を心配します。法務は防御可能性を心配します。財務はコストと予測可能性を心配します。製品は速度と顧客価値を心配します。データとエンジニアリングは実現可能性と信頼性を心配します。もしこれらを競合する議題として扱えば、行き詰まります。解決策は、共通言語と明確なレーンです。私たちは、問題となっている決定について合意し、境界を定義し、「良い」状態に必要な証拠について合意します。その後、ほとんどの作業が儀式的な手続きなしに進められるようにデフォルトを構築します。私は、明確さは説得に勝ることを発見しました。人々が地図を見ることができるとき、調整ははるかに容易になります。35万人以上のドライバー向けのレポート作成速度60倍の向上や、顧客への数百万ドルの節約など、主要なパフォーマンス改善を推進されてきました。戦術的影響と戦略的価値の両方のために、どのAI/MLプロジェクトを優先するかをどのように決定していますか?私は、3つのテストを通過するプロジェクトを優先します。第一に、それらは巧妙なスコアを生成するだけでなく、実際の意思決定やワークフローを変えなければなりません。出力が確実に行動を変えないなら、それは製品ではなくデモです。第二に、測定可能でなければなりません。私の祖父母は「よく測られたものは半分終わったも同然」と言っていました。規制された環境では、それ以上です。成功、エラーモード、監視を事前に定義できないなら、それは私たちがその仕事をまだ理解していないことを意味します。第三に、精査の下で防御可能でなければなりません。これには、データの来歴、アクセス境界、結果を説明および再生する能力が含まれます。プロジェクトがこれらのテストを通過するとき、それは戦術的な勝利と戦略的な複利効果の両方を生み出す傾向があります。Motusでは、これが、規模に応じた大幅なレポート作成速度の向上、例外の減少、実際の顧客の時間節約につながる自動化を含む、段階的な改善を実現する方法です。信頼性と説明可能性は、エンタープライズAIの採用にとって重要です。あなたのチームは、ビジネスユニット全体のステークホルダーにとってモデルが解釈可能で信頼できることをどのように確保していますか?信頼は、明確さ、一貫性、そして圧力下で自らを説明できるシステムから生まれます。私たちは、再生ボタンを備えたシステムを設計します。同じ入力、同じバージョン、同じ出力に加え、時間の経過とともに何が変化したかの証跡も記録します。また、残差を可視化します。すべての見逃しは情報です。エラーを適切に計装すれば、行動を平易な言葉で説明し、規律ある方法で改善できます。監査リスクのある決定では、不透明な複雑さよりも、より単純なモデルと強力な測定を優先します。実際には、明確なデータ定義、意味のあるセグメントによるパフォーマンスの細分化評価、ドリフトの監視、文書化された変更プロセスを意味します。ステークホルダーはすべての技術的詳細を必要としません。彼らが必要とするのは、システムが測定され、境界が定められ、改善されているという確信です。エンタープライズ環境では、説明可能性は哲学的な好みではありません。それは採用のための必要条件であり、顧客が将来の監査に耐える必要があるときに重要になります。HIPAA対応のデータパイプラインからIRS準拠のレポートまで、Motusは安全でスケーラブルなAIを重視しています。規制産業で働く他のAIリーダーに推奨するベストプラクティスは何ですか?広く適用できるいくつかの原則: コンプライアンスを高速道路として扱う。舗装された道路を構築し、チームが安全に速く動けるようにする。 境界を早期に定義する。どのデータが外部に出せないか、どのツールが承認されているか、モデルがどこで実行できるかを明確にする。 証拠を自動化する。ロギング、データ系譜、バージョン管理をデフォルトにし、監査時の慌ただしさをなくす。 スケールする前に測定する。よく測られたものは半分終わったも同然。見えないものは改善できない。 残差を運用化する。見逃しをエラー分類と優先順位付けされた改善バックログに変える。 採用のために設計する。優れたモデルは、統計の一部、パートナーシップの一部、そして大部分が変更管理である。 ガバナンスがPDFの中にあるなら、それはスケールしません。システムの中にあるなら、スケールします。車両経費精算とリスクソリューションの最前線に立つMotusにおいて、今後3〜5年でこの分野のAIがどのように進化するとお考えですか?二つの大きな変化が起こると予想しており、それらは互いに強化し合います。第一に、リスクは定期的なチェックから、継続的で意思決定レベルのシグナルへと移行します。今日、ほとんどの組織は、ドライバーのリスクについて、事故後または特定時点のレビュー後という、遅すぎる段階で知ることになります。次の波は、運用に既に存在するパターン(適格性の変化、カバレッジのギャップ、異常な走行距離パターン、予想される行動と観察される行動の不一致)を使用して、リスクをより早く、より正確に表面化させるシステムです。目標は判断を置き換えることではありません。安全、人事、財務、運用部門に、より少ない誤警報と、なぜ何かがフラグされたかのより良い文書化を伴った、より明確な早期警告パネルを提供することです。第二に、精算は書類仕事からワークフローへと移行します。企業は今でも、申請、修正、承認、事後のクリーンアップに驚くほどの時間を失っています。今後数年間で、精算ライフサイクル全体でのさらなる自動化が進むと予想しています:事前に入力できるものは事前入力し、不足または矛盾する入力を早期に捕捉し、例外を文脈とともに適切な承認者にルーティングし、手作業によるやり取りを減らすことです。うまくいけば、これは精算をより速く、より防御可能にします。なぜなら、証跡が後で再構築されるのではなく、プロセスの一部として生成されるからです。これが刺激的なのは、基盤が正しければ、これらがどのように収束するかです。境界が明確で残差が可視化されているとき、複利効果のループが得られます:例外の減少、よりクリーンな申請、迅速な承認、より良いリスクシグナル、そして意思決定がどのようになされたかの明確な記録


顧客データの経済的役割は変化しました。10年以上にわたり、ファーストパーティデータはビジネスを行うためのコストとして扱われてきました。ブランドは主にマーケティング効率を向上させるために、それを収集、保存、保護、活用してきました。今日、その考え方は変わりつつあります。人工知能が広告を再構築し、プライバシー規制がシグナル損失を加速させ、従来のターゲティング手法が衰退する中、ファーストパーティデータは収益化可能なビジネス資産として再定義されています。変化したのは、データの入手可能性ではありません。ほとんどの企業はすでに膨大な量のファーストパーティシグナルを収集しています。制約となっているのは、そのデータが正確で、許可を得ており、社内利用を超えて信頼できるほど耐久性があるかどうかです。旅行、金融サービス、メディア、ホスピタリティ、消費財などの業界を横断して、組織は顧客インテリジェンスがどのように価値を生み出すかについて再考しています。この進化は、オーディエンスマネタイゼーションとして知られる新たな分野を生み出しています。サードパーティシグナルの段階的廃止とAI駆動型オーディエンスの台頭広告エコシステムは構造的なリセットを経験しています。Googleがユーザー選択モデルを優先してサードパーティクッキーを完全に廃止することを後退させた一方で、モバイル識別子への継続的な制限とプライバシー規制の強化が、サードパーティデータの信頼性を制限しています。同時に、AIを活用したマーケティングシステムは、効果的に機能するために、より高品質で信頼性の高い入力データを必要としています。機械学習モデルは、正確で許可を得たデータでトレーニングおよびアクティベートされたときに最もよく機能します。AI駆動の購買・最適化システムが拡大するにつれ、弱いアイデンティティはパフォーマンスを低下させるだけでなく、誤差を増幅させます。その結果、広告主は予算を、検証済みのファーストパーティオーディエンス、クローズドループ計測、プライバシー保護型のアクティベーションを提供する環境へとシフトさせています。ブランドにとって、これはプレッシャーと機会の両方を生み出します。多くの組織がファーストパーティデータの収集に多額の投資をしてきましたが、自社チャネルを超えてそれを運用化する、ましてや大規模に外部パートナーに安全に公開するために必要なインフラを構築した組織ははるかに少ないのです。オーディエンスマネタイゼーションとは何か?オーディエンスマネタイゼーションとは、高品質なオーディエンスセグメントを管理されたプライバシー保護型の方法で外部パートナーに提供することにより、ファーストパーティの顧客データを持続的で収益を生み出す資産に変える実践です。これは以下のような多くの形態をとることができます: 広告主やパートナーへのオーディエンスセグメントのライセンス供与 セカンドパーティデータ連携の実現 クリーンルームやプライバシー保護環境を通じたオーディエンスのアクティベーション 検証済みリーチによるオフサイトメディアアクティベーションの支援 重要な点として、オーディエンスマネタイゼーションは生データを販売することではありません。それは、パートナーが機密顧客情報を所持することなく、関連性の高いオーディエンスに繰り返し確実にリーチできるように、インテリジェンスをパッケージングすることです。価値は、更新可能で管理されたオーディエンスから生まれ、一度きりのセグメント作成からは生まれません。ほとんどのオーディエンスマネタイゼーションの取り組みが失敗する理由強い関心にもかかわらず、多くの初期のオーディエンスマネタイゼーション施策は拡大に苦労しています。ほとんどの組織は、以下の4つの主要な運用領域で課題に直面します: 断片化されたアイデンティティ: 顧客データは、CRMプラットフォーム、取引データベース、ロイヤルティプログラム、デジタルタッチポイントなど、システム間で散在していることがよくあります。統一されたアイデンティティレイヤーがなければ、オーディエンスセグメントは広告主が求める正確性と規模を欠き、その結果、価値が低下します。 手動で脆弱なワークフロー: オーディエンスを手動で構築・更新することは、遅延を引き起こし、実験を制限し、エラーの余地を作り出し、運用コストを増加させます。変化の速い広告環境では、アクティベーションまでのスピードが重要です。 ガバナンスとコンプライアンスの複雑さ: オーディエンスの収益化は、同意、使用権、地域のプライバシー法に関連する新たな責任を導入します。ワークフローにガバナンスが組み込まれていないと、規模が拡大するにつれてリスクが高まります。 限定的なアクティベーションパス: 計測と成果が重要な有料メディア、パートナープラットフォーム、またはクリーンルーム環境全体で簡単にアクティベートできない場合、高品質なオーディエンスでさえ価値を失います。 実際には、これらの課題は単なるツールの問題であることは稀です。それらは、アクティベーションだけではなく、収益化のために設計されたプロダクトオーナーシップと運用モデルの欠如を反映しています。AIがファーストパーティデータの経済性をどのように変えるか人工知能は、オーディエンスマネタイゼーションへの移行を2つの重要な方法で加速させています。 AIは大規模なアイデンティティ解決を可能にする: 現代の機械学習技術は、チャネルを横断して顧客プロファイルをより高い精度で統合することができ、ブランドがサードパーティ識別子に依存することなく、より豊かで信頼性の高いオーディエンスセグメントを作成することを可能にします。 AI駆動のアクティベーションシステムは、クリーンで管理された入力を必要とする: プログラムマティック広告、コネクテッドTV、自動購買がより高度化するにつれ、広告主は確定的で更新可能、計測可能なオーディエンスをますます重視するようになっています。 AI駆動の成長戦略は、強固なデータ基盤とガバナンスフレームワークに依存しています。この環境において、ファーストパーティデータはもはや内部最適化のための燃料ではなく、市場に向けた資産なのです。マーケティング資産から収益ラインへオーディエンスマネタイゼーションが適切に行われると、組織内における顧客データの役割が変わります。データはマーケティングや分析チームだけが所有するものではなく、収益、パートナーシップ、長期的成長戦略に沿った共有のビジネス資産となります。このシフトには、新技術と同様に考え方の変化が必要です。オーディエンスマネタイゼーションの成熟度は、しばしばアイデンティティの成熟度を反映します。顧客が誰であるか、そしてそのデータをどのように使用できるかについて確信がなければ、収益化は限定的なものになるか、脆弱なままです。この移行を実現するには、より良いセグメンテーション以上のものが求められます。アイデンティティの正確性、同意と使用に関する明確さ、そして価値が生まれる場所で迅速にオーディエンスをアクティベートする能力が必要です。最も重要なことは、オーディエンスマネタイゼーションは、マーケティング、データ、プライバシー、法務、収益チーム全体での整合性を持ち、企業全体の取り組みとして扱われなければならないということです。オーディエンスマネタイゼーションのビジネスケースと緊急性いくつかのマクロトレンドが、オーディエンスマネタイゼーションを今日特に関連性の高いものにしています。特にAI駆動の購買モデルが成熟するにつれ、広告主による検証済みオーディエンスへの需要が高まっています。業界を超えてマージンが圧迫されており、経営者は新たな在庫や物理的資産を必要としない高マージンの収益源を模索するようになっています。同時に、プライバシーへの期待は高まり続けており、プライバシー、同意、透明性を優先するソリューションが有利になっています。オーディエンスマネタイゼーションは、これらの力の交差点に位置しています。それはブランドが追加収益を解き放ちながら、広告パートナーとの関係を強化し、顧客の信頼を維持することを可能にします。データインフラとガバナンスに早期に投資する組織は、広告エコシステムが進化するにつれて長期的な価値を獲得するのに有利な立場にあります。展望:インテリジェンス、在庫ではないデジタル広告の未来は、広告がどこに表示されるかよりも、オーディエンスがいかによく理解され、管理され、アクティベートされるかによって定義されるようになるでしょう。AIがマーケティングを再構築し続ける中、ファーストパーティデータの価値は高まる一方ですが、それはキャンペーンの副産物ではなく戦略的資産として扱う組織に限られます。オーディエンスマネタイゼーションは、エコシステムの成熟を表しています。それはブランドのインセンティブを広告主のニーズに合わせながら、プライバシーと説明責任に対する高まる期待に応えます。成功するブランドは、最も多くのデータを収集するブランドではなく、インテリジェンスを責任を持って、透明性を持ち、大規模に金銭的価値に変換するための最も強固な基盤を構築するブランドとなるでしょう。