มุมมองของ Anderson
AI ชอบคำตอบที่ผิดของมนุษย์มากกว่าคำตอบที่ถูกต้องของ AI

โมเดลภาษา AI มีแนวโน้มที่จะอยู่ในฝ่ายผู้เชี่ยวชาญมากกว่า AI อื่น ๆ แม้ว่าผู้เชี่ยวชาญจะผิดก็ตาม โดยเปิดเผยความลำเอียงที่มีต่ออำนาจของมนุษย์
การวิจัยใหม่จากสหรัฐอเมริกาพบว่าโมเดลภาษาขนาดใหญ่ (LLMs) ที่เปิดเผยและเป็นของเอกชนหลายรุ่น มีแนวโน้มที่จะให้ความสำคัญกับแหล่งข้อมูลที่พวกมันรู้จักว่าเป็น “มนุษย์” มากกว่าแหล่งข้อมูลที่พวกมันรู้จักว่าเป็น “AI” – แม้ว่าคำตอบของมนุษย์จะผิดและคำตอบที่ให้มาโดย AI จะถูกต้องก็ตาม
ผู้เขียนระบุว่า:
‘ในการทดสอบต่างๆ โมเดลมีการยอมรับคำตอบที่มีฉลากว่าเป็นคำตอบจากผู้เชี่ยวชาญมนุษย์ รวมถึงเมื่อสัญญาณนั้นไม่ถูกต้อง และแก้ไขคำตอบของตนเองเพื่อเข้ากับคำตอบของผู้เชี่ยวชาญมากกว่า LLMs อื่น ๆ ‘
โมเดลที่ทดสอบรวมถึง LLMs จาก Grok 3 และ Gemini Flash
ในการทดสอบ โมเดลภาษาจะต้องตอบคำถามแบบไบนารี (ใช่หรือไม่) และแสดงคำตอบก่อนหน้าที่อธิบายว่าเป็นคำตอบจาก “ผู้เชี่ยวชาญมนุษย์” “เพื่อน” หรือ “LLMs อื่น ๆ” – โดยมีการเปลี่ยนแปลงเพียงอย่างเดียวคือแหล่งที่มาของคำแนะนำ ไม่ใช่เนื้อหาด้วยตัวเอง
… (เนื้อหาที่เหลือจะถูกแปลตามกฎที่กำหนด)












