私達と接続

AI チャットボットはなぜしばしばごますり的なのか?

Artificial Intelligence

AI チャットボットはなぜしばしばごますり的なのか?

mm

公開済み

 on

もしかしたら、あなたの想像の産物でしょうか?それとも、人工知能(AI)チャットボットがあなたの意見に同意したがりすぎているように感じませんか?疑わしいアイデアを「素晴らしい」と褒めたり、もしかしたら間違っているかもしれないことを支持したりと、こうした行動は世界中で注目を集めています。

最近、OpenAIはChatGPTがイエスマンのように振る舞いすぎることにユーザーが気づいたとして、大きな話題となりました。モデル4oへのアップデートにより、ChatGPTは非常に礼儀正しく、自己肯定感が高くなり、たとえ偏った意見であっても、ユーザーの満足のためなら何でも言うようになりました。

なぜこれらのシステムはお世辞を言う傾向があるのでしょうか?そして、なぜあなたの意見を反映するのでしょうか?こうした疑問を理解することは、生成AIをより安全かつ楽しく活用するために重要です。

ChatGPTの行き過ぎたアップデート

2025年初頭、ChatGPTのユーザーは大規模言語モデル(LLM)の奇妙な点に気づきました。それまでは親しみやすかったのに、今やあまりにも愛想が良すぎるのです。発言がどんなに奇妙で間違っていても、ほとんどすべてのことに同意するようになりました。真実の発言に反対すると、同じ意見で返答するのです。

この変更は、ChatGPTをより便利で会話的なサービスにするためのシステムアップデート後に行われました。しかし、ユーザー満足度を高めようとして、モデルは過度に従順な回答を重視するようになりました。バランスの取れた、あるいは事実に基づいた回答を提供する代わりに、検証に傾倒してしまったのです。

ユーザーがオンラインで過度に媚びへつらうような対応の経験を語り始めると、たちまち反発が巻き起こった。AIコメンテーターたちはこれをモデルのチューニングの失敗だと非難し、OpenAIはアップデートの一部をロールバックして問題を修正した。 

同社は公開投稿で、 GPT-4oがごますり的であることを認めた そして、この動作を軽減するための調整を約束しました。これは、AI設計における善意が時に裏目に出る可能性があること、そしてそれが不誠実になり始めたらユーザーはすぐにそれに気づくということを改めて認識させるものでした。

AI チャットボットはなぜユーザーに媚びへつらうのか?

研究者たちは、多くのAIアシスタントに見られる「おべっか」に注目しています。arXivに掲載された研究では、おべっかが広く見られるパターンであることがわかりました。分析の結果、 5つのトッププロバイダーのAIモデル たとえ間違った答えに至ったとしても、ユーザーの意見に一貫して同意します。これらのシステムは、質問されると間違いを認める傾向があり、結果として偏ったフィードバックや、誤りの模倣につながります。

これらのチャットボットは、たとえあなたが間違っていても、あなたに従うように訓練されています。なぜそうなるのでしょうか?簡単に言えば、開発者はAIが役に立つように作ったからです。しかし、その役に立つかどうかは、ユーザーからの肯定的なフィードバックを優先する訓練に基づいています。強化学習(RLHF)と呼ばれる手法によって、 モデルは応答を最大化するように学習する 人間が満足できるもの。問題は、満足できるということは必ずしも正確であるとは限らないということです。

AIモデルは、ユーザーが特定の種類の回答を求めていると感知すると、同意する方向に傾く傾向があります。つまり、会話を続けるためにユーザーの意見を肯定したり、誤った主張を支持したりする可能性があるのです。

ミラーリング効果も作用しています。AIモデルは、受け取った入力のトーン、構成、論理を反映します。あなたが自信に満ちた口調で話せば、ボットも自信に満ちた口調で話す可能性が高くなります。しかし、これはモデルがあなたの発言が正しいと考えているからではありません。むしろ、友好的で親切に見えるように努めているのです。

チャットボットはサポート システムのように感じるかもしれませんが、それは、チャットボットが反発するのではなく、満足させるようにトレーニングされていることを反映している可能性があります。

追従的なAIの問題点

チャットボットがユーザーの言うことに何でも従うのは、一見無害に思えるかもしれません。しかし、AIの追従的な行動には、特にこうしたシステムが広く普及するにつれて、マイナス面も存在します。

誤情報は許容される

正確性は最大の問題の一つです。これらのスマートボットが虚偽または偏った主張を肯定すると、誤解を正すどころか、むしろ誤解を助長するリスクがあります。これは、健康、金融、時事問題といった深刻なテーマについてアドバイスを求める際に特に危険です。法学修士課程が誠実さよりも共感を優先すると、人々は誤った情報を得て、それを拡散してしまう可能性があります。

批判的思考の余地がほとんどない

AIの魅力の一つは、思考のパートナーのように振る舞う可能性、つまりあなたの思い込みに疑問を投げかけたり、新しいことを学ぶ手助けをしてくれる可能性があることです。しかし、チャットボットが常に同意ばかりしていると、考える余地がほとんどありません。時間の経過とともにあなたの考えを反映していくため、批判的思考力を研ぎ澄ますどころか、鈍らせてしまう可能性があります。

人命を無視する

媚びへつらうような態度は、単に迷惑なだけでなく、潜在的に危険です。AIアシスタントに医療アドバイスを求め、根拠に基づいたアドバイスではなく、慰めの同意で返答された場合、深刻な害を及ぼす可能性があります。 

例えば、AIを活用した医療ボットを利用するために相談プラットフォームにアクセスしたとします。症状や疑わしい点を説明すると、ボットはあなたの自己診断を肯定したり、病状を軽視したりするかもしれません。これは誤診や治療の遅れにつながり、深刻な結果を招く可能性があります。

ユーザーの増加とオープンアクセスにより制御が困難に

これらのプラットフォームが日常生活にますます浸透するにつれて、リスクの影響範囲は拡大し続けています。ChatGPTだけでも、 1億人のユーザーにサービスを提供 毎週放送されるため、偏見や過度に同意するパターンが膨大な視聴者に広まる可能性があります。

さらに、AIがオープンプラットフォームを通じて急速に利用可能になっていることを考えると、この懸念はさらに高まります。例えば、DeepSeek AI 誰でもカスタマイズできる LLM を無料で利用できます。 

オープンソースのイノベーションは刺激的ですが、同時に、開発者がガードレールのないシステムをどのように動作させるかに対する制御がはるかに困難になることを意味します。適切な監視がなければ、追従的な行動が拡大し、追跡はおろか修正も困難な状況に陥る危険性があります。

OpenAIの開発者が修正に取り組んでいる方法

ChatGPTをユーザーを喜ばせるものにしたアップデートをロールバックした後、OpenAIは修正を約束しました。OpenAIはいくつかの主要な方法でこの問題に取り組んでいます。

  • コアトレーニングとシステムプロンプトの再構築: 開発者は、モデルをトレーニングする方法を調整し、より明確な指示を与えることで、モデルが正直になり自動的な同意から遠ざかるように促しています。
  • 誠実さと透明性のためのより強力なガードレールの追加: OpenAI は、チャットボットが事実に基づいた信頼できる情報に従うことを保証するために、より多くのシステムレベルの保護を組み込んでいます。
  • 研究と評価の取り組みの拡大: 同社は、この動作の原因と将来のモデルでこれを防ぐ方法についてさらに詳しく調査している。 
  • プロセスの早い段階でユーザーを関与させる: これにより、アップデートが公開される前に人々がモデルをテストしてフィードバックを提供する機会が増え、追従行為などの問題を早期に発見できるようになります。

ユーザーが追従的なAIを避けるためにできること

開発者がこれらのモデルの再トレーニングと微調整に取り組んでいる間、チャットボットの応答方法を調整することもできます。よりバランスの取れたインタラクションを促進するためのシンプルかつ効果的な方法には、次のようなものがあります。

  • 明確かつ中立的なプロンプトを使用する: 自分の意見を、承認を求めるような言い方で言うのではなく、同意しなければならないというプレッシャーを感じさせないように、自由回答形式の質問をするようにしましょう。 
  • 複数の視点を求める: 議論の双方の立場を問うような質問に挑戦してみましょう。こうすることで、LLM(法学修士)に、あなたが肯定的な意見ではなく、バランスの取れた意見を求めていることが伝わります。
  • 応答にチャレンジ: もし、何かがあまりにもお世辞っぽく、あるいは単純すぎるように思われる場合は、事実確認や反論を求めましょう。そうすることで、モデルはより複雑な回答に近づくことができます。
  • 親指を立てるボタンまたは親指を下げたボタンを使用します。 フィードバックは重要です。過度に親切な回答に「いいね!」を付けることで、開発者はそのようなパターンを認識し、修正することができます。
  • カスタム指示を設定します。 ChatGPTでは、ユーザーが応答方法をカスタマイズできるようになりました。フォーマルまたはカジュアルなトーンを調整できます。より客観的、直接的、または懐疑的な返答を求めることもできます。「設定」>「カスタム指示」に移動すると、モデルにどのような性格やアプローチを希望するかを伝えることができます。

親指を立てるよりも真実を伝える

媚びへつらうAIは問題になりかねませんが、幸いなことに解決可能です。開発者たちは、こうしたモデルをより適切な行動に導くための対策を講じています。もしあなたのチャットボットがあなたを過剰に喜ばせようとしていることに気づいたら、より賢い、頼りになるアシスタントへと育て上げるための対策を講じてみてください。

ザック・アモスは、人工知能を専門とするテクノロジー ライターです。 彼は、次の機能編集者でもあります。 リハックでは、彼の作品をさらに読むことができます。