ソートリーダー
データを責めるのを止めましょう。目標を修正しましょう

AIは私たちから学習します。私たちは偏見を持っているからです。
AIは主に人間が生成したコンテンツでトレーニングされるため、私たちの偏見を拾い、そこに組み込みます。那は pourquoi 大多数のAIの偏見に関する会話は悪いデータに焦点を当てている理由です。ガベージイン、ガベージアウト。シンプルにすぎます。しかし、クリーンデータであっても、偏見はまだ潜みます。
より繊細で、よく見落とされる問題は、目標の偏見です。それはデータセットの問題よりも目立たないですが、顧客向けAI使用の最大の課題の1つです。
この記事では、顧客体験(CX)の一部として目標の偏見がどのように見えるか、どのように重要か、そしてブランドが実際にそれについて何ができるかを掘り下げます。
目標の偏見の定義
目標の偏見は、データの欠陥についてではなく、意図の欠陥についてです。AIは正確に何を指示されたかを実行し、収益を最大化するように指示された場合は、それが顧客との関係を損なうことになっても実行します。
デルタ航空を考えてみましょう。彼らは最近、AIを使用した価格設定を発表しました。それは目標の偏見の完璧な例です。このシステムはあなたに良い取引を探すのを助けるために設計されていません。コンバージョンを高め、運用コストを下げるために設計されています。
パリへの旅行を予約したとします。あなたは最良の料金を望みますが、システムは最良のマージンを望みます。AIは、$400のフライトが利用可能な場合でも、$800のフライトを提供するかもしれません。AIが間違っているわけではありません。ただし、仕事をしているだけです。
消費者が求めているようなパーソナライゼーションとは正確に反対のことです…
なぜそれが避けられないのか
目標の偏見は、ブランドの価値観、文化、優先事項の反映です。それはAIの構造の中に織り込まれています。実際の質問は、それがどちらに「傾斜」するかです。顧客の目標を優先するか、収益の目標を優先するかです。
さまざまなチーム、地域、文化には異なるマインドセットがあり、AIモデルを異なる方法でトレーニングします。セールスチームが指揮をとる場合は、コンバージョンに傾斜します。CXグループが指揮をとる場合は、サービスと節約に優先順位を付けるかもしれません。
同じアーキテクチャ、異なる結果。
解決策は、偏見を完全に取り除くことではなく、それを正しい方向に導くことです。短期的な勝利ではなく、長期的なロイヤルティにAIを偏向させます。
不一致なAIの結果
ブランドが目標の偏見に関して直面する最大のリスクは、信頼の喪失です。
消費者はすでに汎用的な、無関係なブランドのやり取りにうんざりしています。AIがその体験を悪化させると、消費者は苛立つことになり、ブランドから離れます。
大規模な言語モデル(LLM)が偏った、仮定に基づいたデータでトレーニングされている場合、非個人的な応答を生成します。結果として、消費者はブランドが彼らに気を配っていないと感じます。彼らは今日購入するかもしれませんが、長期的にはブランドに留まる可能性は低いです。
体験が現在ロイヤルティを駆り立てています。多くの消費者は体験のためにさらに多くを支払う用意があります。したがって、AIがニーズに合わない高価な製品をアプセルする場合、彼らは気づきます。彼らはオプトアウトします。彼らは戻ってきません。
エージェントAIの問題
そのリスクは、エージェントAIを見るときに膨らみます。
エージェントAIは、人間の関与なしにマルチステップのワークフローを実行するように設計されています。しかし、AIのロジックが欠陥がある場合、またはトレーニングが一致していない場合、損害は拡大します。
専門家は、エージェントAIにはまだ長い道のりがあると同意しています。実際、最近の報告書によると、ほとんどのCFOがエージェントAIについて知っているのに対し、15%のみがそれを真剣に検討しています。対応するデータは、偏見を正確に監視および防止する能力が採用の重要な障害であることを示しています。
大多数のエージェントシステムは、まだ曖昧さ、永続的なメモリ、説明責任に苦労しています。これは、エラーまたは偏見を診断または修正する明確な方法がない場合に、機械の意思決定が機能しない場合に危険な組み合わせです。
ブランドは傍観者に座るべきではありませんが、戦略的に進める必要があります。
ブランドが目標の偏見を最小限に抑える方法
明確にしましょう: 偏見を完全に排除することはできません。あなたは偏見です。
あなたのブランドは、AIがどのように動作するかを形作ります。良い方法でも悪い方法でも。既存の顧客とのやり取りにこれらの偏見が存在します。キャンセルフローの摩擦、利用規約の透明性、ウェブサイトのダークパターンに存在します。
AIの偏見との違いは、スケールにあります。AIは決定をより迅速に、そしてより少ない管理で増幅する可能性があります。これにより、ブランドのロイヤルティや顧客の生涯価値などの長期的な目標が侵食されます。
そのため、あなたは先手を打たなければなりません:
1. 正しい質問を尋ねる
AIの旅を始める前に、止まって尋ねます: 「私たちがこれを正しく行うために必要なものを持っているか?消費者体験とブランドを危険にさらすことなくこれを成し遂げることができるか?」
多くのブランドは、後れを取ることを恐れてAIに飛び込みます。しかし、ジョーンズ家に追いつこうとするのは悪い戦略です。
あなたは、偏見を増大させることなく、顧客向けAIの使用例をサポートするために、正しい顧客データ、統合、ガバナンスを持っていますか?あなたは完全に顧客の目標を理解していますか?
答えが「いいえ」、または「多分」であれば、あなたは準備ができていません。
2. 目標をバランスさせる
顧客とビジネスの目標を効果的にバランスさせるには、顧客のニーズを目標として考えてみましょう。ビジネスの目標は境界線です。AIはその境界線の中で動作する必要がありますが、顧客第一の結果を目指す必要があります。短期と長期の思考のバランスとして考えることもできます。
短期的な指標、たとえば1回のやり取りあたりの収益は重要です。しかし、それらは長期的な価値としばしば矛盾します。 thậmち、AIの「ゴッドファーザー」は、短期的な利益によって推進されるAIに警告しました。なぜなら、そのマインドセットはスケールしないからです。
あなたのAIは今日収益目標を達成するかもしれませんが、短期的な利益のために顧客のロイヤルティを交換する用意がありますか?
再びデルタの例を考えてみましょう。戦略は技術的に賢いもので、ビジネスに合致しています。しかし、消費者はより多くの航空料金を支払うことについては熱心ではなかったし、ブランドは打撃を受けました。
5年間のタイムラインで考えてみましょう。あなたはゆっくり、持続的にロイヤルティを育てる必要があります。
3. 顧客の進化するニーズを理解する
一般的にはありません。各使用例でです。彼らは何を達成しようとしていますか?
それを理解しなければ、あなたのAIはただ推測するだけです。したがって、あなたの顧客プロファイルは、ハイレベルで個別のレベルで現在的で、完全で、具体的である必要があります。
広範なセグメントや古い仮定では十分ではありません。実際のやり取りの反対側にある本物の人のデータが必要です。那は、顧客のより深い理解をもたらし、LLMトレーニングの基礎を形成するでしょう。
Retrieval-augmented generation(RAG)モデルもここで役立ち、カーソル化された、関連性のあるデータから消費者が実行しようとしているタスクのためのより良い体験を提供します。
しかし、それは1回限りの演習ではありません。顧客の目標は変わり、期待も変わります。ブランドは最新の開発を反映するためにAIシステムを定期的に更新する必要があります。那は、トレーニングデータを再訪問し、継続的な学習を促進し、出力を微調整するだけではありません。
4. AIベンダーを慎重に調べる
すべてのベンダーは同等に作成されておらず、大きな約束は常に大きな結果をもたらすわけではありません。現実世界の専門知識と実績のあるパートナーを選択し、ただのデモだけではありません。分野に特化した数十年のデータを持つベンダーは、一般化されたデータセットに頼る新しいブランドよりも、モデルをより適切にトレーニングできます。
あなたの顧客は、特別なサポートが必要なときに、データの深さの違いを気づくでしょう。
そして、AIが野外で失敗した場合、あなたのブランドが損害を受けるでしょう。2024年のCrowdStrikeのアウトエイジに影響を受けた人々に聞いてみましょう。平均的な消費者はプロバイダーを責めませんでした。彼らはテクノロジーを展開したブランドを責めました。
あなたの業界で、使用例で、前にこれを行ったベンダーを探しましょう。ドメインの知識は野心を上回ります。
5. ガバナンスを構築する
あなたが明確にロジックを定義しない場合、AIはポリシーではなくパターンに基づいて決定を下し始めます。那らのパターンはあなたのブランド、価値観、法的義務を表すかもしれません。
中央のオーケストレーションとルール設定は、AIが期待どおりに動作するようにするために重要です。そうでない場合、1つのモデルは請求に関する質問に対処する方法を提供する可能性がありますが、別のモデルはまったく異なる回答を提供します。
業界のベストプラクティスに従い、リスク管理フレームワークを使用してブランドを保護しましょう。良いガバナンスはあなたを遅くしません。それはあなたを後のクリーンアップから救います。
6. エージェントAIを注意してスコープする
メディアは、エージェントベースのシステムがすべての将来であると聞こえます。実際、ほとんどのブランドは準備ができていません。それで大丈夫です。
まだ証拠がないので、小さなことから始めましょう。前にこれを行ったことがあるテクノロジプロバイダーと提携し、途中で導きます。リスクの低いワークフローを優先し、明確に定義されたステップで、エージェンシーレベルの信頼性が高く、理にかなっています。理にかなっているワークフローは、通常、明確なロジック、説明責任、管理を持ちます。そこから学び、そこからスケールアップできます。
複数のチームが関与しているか、プロセスが構造化されていない場合は、機械の意思決定が顧客のために機能することを期待しないでください。
エージェントAIが本当に成功するには、完全で現在の顧客プロファイルへのアクセスが必要です。リアルタイムのコンテキストがなければ、最も優れたモデルでも、断片化された、偏った体験が生まれます。
偏見はミラーであり、故障ではありません
AIは偏見を発明しません。それは、データ、トレーニング、ビジネスの優先事項を通じて何を指示されたかを反映しています。那は、整列が重要である理由です。如果あなたのシステムが顧客を中心に設計されていない場合、AIは断片を拡大するだけです。
目標の偏見を完全に取り除くことはできませんが、管理できます。
長期的なロイヤルティをあなたの第一の目標にしてください。他のことはそれに続きます。モデルごとに決定がロイヤルティ、顧客の生涯価値、信頼を通じてフィルタリングされる場合、ガバナンス、顧客の理解、バランスの取れた目標などの他の優先事項は自然に位置付けられます。
今日のためのショートカットは、ほとんどの場合、明日コストを払います。しかし、ロイヤルティを中心とした戦略で進むと、AIは負債から利点に変わります。












