ソートリーダー
‘チャットボット’が汚い言葉であるとき:ビジネスリーダーが抱く会話型AIの3つの誤解
OpenAIのChatGPT、MetaのLlama、AnthropicのClaudeなどのLLMの普及により、様々な用途に応じたチャットボットが登場しました。キャリアアドバイスのためのチャットボット、キャリアアドバイス、将来の自分と話すことができるチャットボット、さらには鶏肉の調理アドバイスを提供するチャットボットなどがあります。
しかし、これらのチャットボットは10年前のものとは異なります。当時、チャットボットは、多くの選択肢や同等の応答を持つ大きなフローチャートに基づく、狭く設定された、堅苦しい「会話」に限定されていました。実質的に、インターネット以前のIVR電話メニューよりもわずかに高度なものでした。
一方、今日の「チャットボット」は、より広範な機能と用途を持つ会話型AIを指すことが多いです。現在、ジェネレーティブAIのハイプサイクルの中にあり、これらの用語は互換的に使用されています。不幸にも、これにより、会話型AIへの投資のリスク、用途、ROIについて、特に金融などの高度に規制された業界のビジネスリーダーの中に多くの誤解が生じています。
したがって、「チャットボット」についての一般的な誤解を明らかにしたいと思います。実際に議論されているのは会話型AIだからです。
神話1:顧客はチャットボットを嫌っている
消費者は、過去10年間で、人間のエージェントとチャットボットのどちらを好むかを繰り返し尋ねられてきました。これは、プロのマッサージを受けるか、ショッピングモールのマッサージチェアに座るかを尋ねるようなものです。
しかし、2022年のChatGPTの登場(およびそれから派生したツール)が、チャットボットの能力に対する私たちの認識を完全に変えました。上で述べたように、古いチャットボットはスクリプトに基づいて動作しており、予定されたパスから外れると、混乱と効果のない応答につながりました。コンテキストとユーザーの意図を理解できないため、提供される答えは一般的で役に立たないもので、情報を収集、保存、提供する能力も限られていました。
一方、会話型AIは、人間の会話を模倣した自然な会話で人々を関与させ、より流暢で直感的なやり取りを可能にします。予期せぬ結果に対する驚くべき柔軟性と適応性を示します。ユーザーの意図を取り巻くコンテキストを理解し、感情を検知して共感的に応答することができます。
このより深いレベルの理解により、今日のAIは、ユーザーを迅速に目標に向けた論理的なパスに沿って導くことができます。必要に応じて、人間のアシスタントに顧客を手渡すことも含みます。また、会話型AIは、高度な情報フィルタ、検索メカニズム、関連データを保持する能力を使用し、問題解決能力を大幅に強化し、ユーザーエクスペリエンスを向上させます。
したがって、顧客はチャットボットを盲目的に嫌っているのではなく、悪いサービスを嫌っているのです。以前のチャットボットは確かにそのようなサービスを提供していました。今日の会話エージェントは非常に高度で、消費者の4分の1以上が、人間とAIエージェントを区別する能力に自信を感じていないという調査結果があります。さらに、AIチャットボットが、特定のタスクで人間の対象者よりも優れていると認識される場合もあります。
私たちの会社は、テストパイロットで、AIエージェントがリード変換率を3倍に増やしたことを確認しています。これは、ボットかどうかではなく、仕事の質が重要であることを示す強力な指標です。
神話2:チャットボットはリスクが高い
ビジネスリーダーとAIについて話し合う際、幻覚、データ保護、偏見が規制違反につながる可能性について懸念が生じます。これらのリスクは、ファインチューニング、Retrieval-Augmented Generation(RAG)、プロンプトエンジニアリングなどのアプローチを通じて軽減できます。
すべてのLLMで利用可能ではないものの、ファインチューニングにより、事前トレーニング済みモデルを特定のタスクまたはドメインに特化させることができます。結果として、特定のニーズに適したAIが生成されます。たとえば、ヘルスケア企業は、医療関連の問い合わせに対してより適切に理解し、応答できるようにモデルをファインチューニングできます。
RAGは、チャットボットの精度を、外部知識を動的に統合することで向上させます。これにより、チャットボットは外部データベースから最新の情報を取得できます。たとえば、金融サービス用のチャットボットは、RAGを使用して株価に関するリアルタイムの回答を提供できます。
最後に、プロンプトエンジニアリングは、チャットボットがより正確またはコンテキストに応じた回答を生成するように、プロンプトを最適化します。たとえば、ECプラットフォームは、顧客の好みや検索履歴に基づいて、パーソナライズされた製品の推奨を提供するようにチャットボットを支援するために、カスタマイズされたプロンプトを使用できます。
これらのアプローチの1つ以上を使用することに加えて、会話型AIの創造性の「温度」を制御して、幻覚を防ぐこともできます。APIコール内で温度を低く設定すると、AIはより決定論的で一貫した回答を提供するようになります。特に、指定された信頼できるデータセットから情報を抽出することを保証するナレッジベースと組み合わせた場合に効果的です。リスクをさらに軽減するために、偏見や誤情報が法的問題につながる可能性のある意思決定役割にAIを配置することは避けます。
データプライバシーについては、外部のAIプロバイダーが規制に準拠していることを確認するか、または自分自身のインフラストラクチャーでオープンソースモデルを展開して、データに対する完全な管理を維持することで、GDPRのコンプライアンスを確保します。
最後に、不確実なシナリオ(たとえば、訴訟の試み)でビジネスを保護できる、専門の賠償保険への投資は常に賢明です。こうした措置を講じることで、ビジネスはAIを活用しながら、ブランドと顧客の安全性を維持できます。
神話3:チャットボットは複雑なタスクに適していない
大手テクノロジー企業がAIツールを展開する際に直面している問題を見ると、中小企業がより容易にAIを導入できるという考えは、ナイーブな考えのように思えるかもしれません。しかし、AIは現在、「万能だが何でも得意ではない」という言葉があまりにも適切な表現です。これは、これらのツールがあまりにも多くの異なるタスクを、AIの効果的な展開に適していない環境で実行しようとしているためです。言い換えると、アイススケートを薄くもろい氷の上で行おうとしているのと同じです。
データがシロ化されたり、整理されていない組織では、AIが古くなった、不正確な、または矛盾する情報を表面化させる可能性が高くなります。これは、実際には複雑さの結果です。古いチャットボットは基本的な情報を線形的に再生するだけでしたが、会話型AIは、複数の影響要因を同時に考慮して、最も適切なパスを推進することができます。
したがって、会話型AIの成功は、データソースとタスクに関する厳格なパラメータと明確な境界に依存しています。適切なトレーニングデータと専門家によるプロンプト設計があれば、会話型AIの機能は、単純なチャットボットの範囲をはるかに超えるものになります。たとえば、会話型AIは、顧客の会話からデータを収集してフィルタリングし、それを使用してCRMを自動的に更新できます。これにより、管理タスクが合理化され、顧客情報が常に正確で最新の状態に保たれます。こうしたタスクを自動化することで、ビジネスは戦略的な活動に重点を置くことができます。
「チャットボット」という用語を続けて使用するのであれば、会話型AIを取り入れたプラットフォームと、昨日の限られたツールを提供するものを区別することが不可欠です。今日、「電話」という言葉が、スパイラルコード付きの固定電話ではなく、タッチスクリーンのスマートフォンのイメージを呼び起こすのと同様に、将来、「チャットボット」は、ぎこちないマルチプルチョイスのアバターではなく、先進的なAIエージェントの概念に取って代わられるのではないでしょうか。












