Connect with us

Andersonの視点

AIはなぜ答えを知らないことを認めることができないのか?

mm
Flux1.D Pro, Flux Kontext Pro, Firefly V3.

大規模言語モデルは、質問に答えることができない場合でも、自信を持って答えることが多い。新しい研究によると、これらのモデルは内部的に問題を認識しているが、情報が不足していることやモデル自体の限界など、さまざまな理由で答えが得られないことを認めることができないことが多い。

 

誰でもが、ChatGPTやQwenシリーズなどの先進的な大規模言語モデルとある程度の時間を過ごしたことがある人なら、モデルが間違った答えを出したことがあることを経験しているはずだ。そうでない場合は、モデルが間違った答えを出したときに、単に謝罪しただけだった。

なぜ先進的なLLMが答えを知らないことを認めることができないのかは、小規模だが成長している研究分野である。『自信を持って間違った答え』は、ChatGPTのような高度に検閲されたフィルタリングされたAPIベースのインターフェイスから、特に有害なものになる可能性がある。そうしたモデルは、NSFWやその他の『ルール違反』の入力または出力を積極的にブロックするからだ。

これにより、ユーザーはモデルが決定的なものであり、重要であると思われるが、実際には、拒否は、AIの洞察からではなく、法的責任を最小限に抑えるために設計された従来のヒューリスティックまたはブロックリストベースのフィルタから来ているという誤った印象を与える可能性がある。

…(以下、同じ構造とルールで翻訳を続ける)…

機械学習に関するライター、ヒューマンイメージシンセシスのドメインスペシャリスト。Metaphysic.aiの研究コンテンツ責任者を務めた。