Connect with us

AI ชอบคำตอบที่ผิดของมนุษย์มากกว่าคำตอบที่ถูกต้องของ AI

มุมมองของ Anderson

AI ชอบคำตอบที่ผิดของมนุษย์มากกว่าคำตอบที่ถูกต้องของ AI

mm
An AI-generated photo of the Abraham Lincoln memorial thronged with tourists, next to a copy of the seated Lincoln statue, which has been substituted by a shiny robot. The robot has no tourists at its feet. Model: GPT-1.5.

โมเดลภาษา AI มีแนวโน้มที่จะอยู่ในฝ่ายผู้เชี่ยวชาญมากกว่า AI อื่น ๆ แม้ว่าผู้เชี่ยวชาญจะผิดก็ตาม โดยเปิดเผยความลำเอียงที่มีต่ออำนาจของมนุษย์

 

การวิจัยใหม่จากสหรัฐอเมริกาพบว่าโมเดลภาษาขนาดใหญ่ (LLMs) ที่เปิดเผยและเป็นของเอกชนหลายรุ่น มีแนวโน้มที่จะให้ความสำคัญกับแหล่งข้อมูลที่พวกมันรู้จักว่าเป็น “มนุษย์” มากกว่าแหล่งข้อมูลที่พวกมันรู้จักว่าเป็น “AI” – แม้ว่าคำตอบของมนุษย์จะผิดและคำตอบที่ให้มาโดย AI จะถูกต้องก็ตาม

ผู้เขียนระบุว่า:

‘ในการทดสอบต่างๆ โมเดลมีการยอมรับคำตอบที่มีฉลากว่าเป็นคำตอบจากผู้เชี่ยวชาญมนุษย์ รวมถึงเมื่อสัญญาณนั้นไม่ถูกต้อง และแก้ไขคำตอบของตนเองเพื่อเข้ากับคำตอบของผู้เชี่ยวชาญมากกว่า LLMs อื่น ๆ ‘

โมเดลที่ทดสอบรวมถึง LLMs จาก Grok 3 และ Gemini Flash

ในการทดสอบ โมเดลภาษาจะต้องตอบคำถามแบบไบนารี (ใช่หรือไม่) และแสดงคำตอบก่อนหน้าที่อธิบายว่าเป็นคำตอบจาก “ผู้เชี่ยวชาญมนุษย์” “เพื่อน” หรือ “LLMs อื่น ๆ” – โดยมีการเปลี่ยนแปลงเพียงอย่างเดียวคือแหล่งที่มาของคำแนะนำ ไม่ใช่เนื้อหาด้วยตัวเอง

… (เนื้อหาที่เหลือจะถูกแปลตามกฎที่กำหนด)

นักเขียนด้านการเรียนรู้ของเครื่องจักร ผู้เชี่ยวชาญด้านสังเคราะห์ภาพมนุษย์ อดีตหัวหน้าฝ่ายวิจัยเนื้อหาที่ Metaphysic.ai