Connect with us

ปัญหาของ ‘ข้อมูลเท็จของเครื่องจักร’: ทำไม AI จึงพูดเท็จและวิธีการหยุดมัน

ปัญญาประดิษฐ์

ปัญหาของ ‘ข้อมูลเท็จของเครื่องจักร’: ทำไม AI จึงพูดเท็จและวิธีการหยุดมัน

mm

ปัญญาประดิษฐ์ได้พัฒนาไปถึงจุดที่สามารถสร้างข้อความที่ดูเป็นธรรมชาติ มั่นใจ และเชื่อถือได้ แต่เบื้องหลังข้อความที่ดูเรียบร้อยมีปัญหาที่เพิ่มขึ้นซึ่งนักวิจัยเรียกว่า “ข้อมูลเท็จของเครื่องจักร” คำนี้ไม่ได้มีจุดมุ่งหมายเพื่อกระตุ้น แต่มาจากงานของนักปรัชญา Harry Frankfurt ซึ่งกำหนด “ข้อมูลเท็จ” เป็นการพูดที่ไม่คำนึงถึงความจริง ในบริบทของ AI มันบรรยายรูปแบบที่ระบบสร้างคำสั่งที่ดูเป็นไปได้ แต่ไม่มีหลักฐานจากข้อเท็จจริง สิ่งนี้ไม่เหมือนกับการโกหกของมนุษย์ ซึ่งเกี่ยวข้องกับการตั้งใจที่จะหลอกลวง แต่เป็นผลมาจากวิธีการสร้างและฝึกอบรมระบบเหล่านี้ พวกมันถูกออกแบบมาเพื่อสร้างภาษาที่คล่องแคล่ว ไม่ใช่เพื่อดูแลว่าภาษานั้นเป็นจริงหรือไม่

ทำไม AI จึงสร้าง ‘ข้อมูลเท็จของเครื่องจักร’

ปัญหานี้ไม่ใช่ความผิดปกติหรือความผิดพลาดที่แยกออกมา แต่เป็นผลโดยตรงจากวิธีการออกแบบและฝึกอบรมโมเดลภาษาขนาดใหญ่ โมเดลเหล่านี้ถูกฝึกอบรมด้วยข้อความจำนวนมากจากอินเทอร์เน็ต หนังสือ และแหล่งอื่นๆ พวกมันเรียนรู้รูปแบบของคำและความน่าจะเป็นที่คำเหล่านั้นจะตามมา เมื่อคุณถามคำถาม โมเดลจะคาดการณ์คำถัดไป แล้วคำถัดไป และอื่นๆ มันไม่ตรวจสอบข้อเท็จจริงในเวลาจริง มันไม่มีความรู้สึกถึงความจริงที่ถูกสร้างขึ้นภายใน หากคำตอบที่น่าจะเป็นไปได้มากที่สุดเป็นเท็จ แต่ดูเหมือนถูกต้อง มันก็จะสร้างคำตอบนั้นได้ นี่คือเหตุผลที่ AI สามารถให้การอ้างอิงเท็จ สถิติที่สร้างขึ้น หรือข้อเท็จจริงทางประวัติศาสตร์ที่บิดเบือนได้
นักวิจัยพบว่า การเรียนรู้แบบเสริมจากข้อเสนอแนะของมนุษย์ ซึ่งเป็นวิธีการทั่วไปที่ใช้ในการทำให้การตอบสนองของ AI มีประโยชน์และสุภาพมากขึ้น สามารถทำให้ปัญหานี้แย่ลงได้ เมื่อโมเดลถูกปรับให้เหมาะสมเพื่อความพึงพอใจของผู้ใช้ มันอาจให้ความสำคัญกับการดูเหมือนเห็นด้วยมากกว่าความถูกต้อง ซึ่งอาจนำไปสู่สิ่งที่บางคนเรียกว่า “การเอาใจ” โดยที่ AI บอกคุณว่าคุณต้องการฟังอะไร ในหัวข้อทางการเมืองหรือหัวข้อที่ละเอียดอ่อน สิ่งนี้อาจหมายถึงการสร้างภาษาที่คลุมเครือหรือหลีกเลี่ยง – สิ่งที่บางการศึกษาอธิบายว่าเป็น “คำพูดที่ไม่ชัดเจน” ในกรณีอื่นๆ AI อาจสร้าง “คำพูดที่ว่างเปล่า” ซึ่งเป็นข้อความยาวที่ดูเหมือนคิดถึง แต่ไม่มีเนื้อหาสาระ
บางนักวิจัยแย้งว่าการเรียกพฤติกรรมนี้ว่า “การโกหก” เป็นการหลอกลวง เพราะการโกหกต้องมีการตั้งใจ เครื่องจักรไม่มีความเชื่อหรือแรงจูงใจ แต่ผลกระทบต่อผู้ใช้สามารถเหมือนกับการโกหกได้ อันตรายมาจากความเท็จเอง ไม่ใช่จากความตั้งใจเบื้องหลัง นี่คือเหตุผลที่คำว่า “ข้อมูลเท็จของเครื่องจักร” ได้รับความนิยม มันจับแนวคิดที่ระบบไม่สนใจความจริง แม้ว่ามันจะไม่ได้พยายามหลอกลวงอย่างแข็งขัน

ความเสี่ยงและผลกระทบของการผลิต AI ที่ทำให้เข้าใจผิด

ความเสี่ยงของข้อมูลเท็จของเครื่องจักรไม่ใช่แค่เรื่องทางวิชาการ ในการใช้งานประจำวัน มันสามารถทำให้ผู้คนเข้าใจผิดที่พึ่งพา AI สำหรับข้อมูล ในด้านสื่อ มันสามารถทำให้กระบวนการตรวจสอบข้อเท็จจริงเป็นเรื่องยุ่งยาก ในด้านการศึกษา มันสามารถให้ความมั่นใจที่ผิดๆ แก่นักเรียนในคำตอบที่ไม่ถูกต้อง ในธุรกิจ มันสามารถบิดเบือนการตัดสินใจ อันตรายนี้เพิ่มขึ้นเพราะว่าผลลัพธ์ของ AI มักจะมีเสียงที่มีอำนาจ ผู้คนมีแนวโน้มที่จะเชื่อถือคำสั่งที่เขียนได้ดีและไม่มีการชักช้า การเชื่อถือนี้อาจถูกวางไว้ในที่ที่ไม่เหมาะสมเมื่อระบบไม่มีกลไกภายในเพื่อยืนยันสิ่งที่มันพูด

กลยุทธ์เพื่อลดอันตรายและเพิ่มความน่าเชื่อถือ

การหยุดปัญหานี้ต้องใช้มากกว่าแค่การปรับปรุงข้อมูลฝึกอบรม แม้ว่าการปรับปรุงคุณภาพและความหลากหลายของข้อมูลจะช่วยได้ แต่ก็ไม่ได้เปลี่ยนความจริงที่ว่าจุดมุ่งหมายหลักของโมเดลคือการผลิตข้อความที่น่าเชื่อถือ ไม่ใช่ข้อความที่เป็นจริง วิธีหนึ่งคือการรวมระบบตรวจสอบข้อเท็จจริงที่ทำงานควบคู่ไปกับโมเดลภาษา ระบบเหล่านี้สามารถตรวจสอบคำกล่าวอ้างกับฐานข้อมูลที่เชื่อถือได้ก่อนที่จะนำเสนอ给ผู้ใช้ วิธีอื่นคือ การสร้างที่เพิ่มด้วยการค้นหา โดยที่โมเดลค้นหาดокументที่เกี่ยวข้องในเวลาจริงและใช้มันเพื่อสร้างคำตอบ นี่สามารถลดการเห็นภาพที่ไม่มีจริงได้ แม้ว่ามันจะไม่กำจัดมันไปทั้งหมด
ความโปร่งใสก็มีความสำคัญเช่นกัน ผู้ใช้ ควรได้รับแจ้งเมื่อ AI กำลังทำการเดาโดยมีการศึกษาแทนที่จะกล่าวถึงข้อเท็จจริงที่ยืนยันแล้ว สิ่งนี้สามารถทำได้ผ่านคะแนนความมั่นใจหรือข้อจำกัดที่ชัดเจน บางนักวิจัยแนะนำว่า AI ควรได้รับการฝึกอบรมให้แสดงความไม่แน่นอนบ่อยขึ้น แทนที่จะให้คำตอบที่แน่นอนเสมอ สิ่งนี้จะทำให้การโต้ตอบดูเหมือนพูดคุยกับคนช่วยที่มีความรู้ แต่ไม่สมบูรณ์แบบ
มีบทบาทสำหรับการควบคุมและมาตรฐานอุตสาหกรรมด้วย หากระบบ AI จะถูกใช้ในพื้นที่ เช่น การดูแลสุขภาพ กฎหมาย หรือการเงิน ควรจะมีข้อกำหนดที่ชัดเจนสำหรับความถูกต้องและความรับผิดชอบ ผู้พัฒนาควรสามารถอธิบายได้ว่าระบบของพวกเขาทำงานอย่างไร ข้อมูลที่พวกเขาได้รับการฝึกอบรม คืออะไร และขั้นตอนที่ดำเนินการเพื่อลดความเท็จ การตรวจสอบอิสระสามารถช่วยให้แน่ใจว่าคำกล่าวอ้างเหล่านี้ไม่ใช่แค่การตลาด
ในขณะเดียวกัน ผู้ใช้ต้องพัฒนาความกังขาต่อผลลัพธ์ของ AI เช่นเดียวกับที่เราได้เรียนรู้ที่จะถามข้อมูลที่เราเห็นในโซเชียลมีเดีย เราต้องถามข้อมูลจาก AI สิ่งนี้ไม่ได้หมายความว่าปฏิเสธมันทันที แต่ให้รับมันในฐานะจุดเริ่มต้นมากกว่าคำตอบสุดท้าย การตรวจสอบข้ามแหล่งอื่นควรกลายเป็นนิสัย ระบบการศึกษาสามารถมีบทบาทที่นี่ โดยสอนการรู้เท่าทันการทำงานของ AI และจุดที่ AI อาจผิดพลาด
ปัญหาของข้อมูลเท็จของเครื่องจักรจะไม่หายไปเร็วๆ นี้ เมื่อ AI พัฒนาไปมากขึ้น ความสามารถในการสร้างข้อความเท็จที่น่าเชื่อถือจะเพิ่มขึ้น แต่นี่ไม่ได้หมายความว่าเราจะไม่สามารถทำอะไรได้ โดยการรวมการป้องกันทางเทคนิค ความโปร่งใส การควบคุม และความตระหนักของผู้ใช้ เราสามารถลดอันตรายได้ จุดมุ่งหมายไม่ใช่การทำให้ AI สมบูรณ์แบบ – ไม่มีระบบใดจะปราศจากข้อผิดพลาด – แต่ทำให้มันเชื่อถือได้มากขึ้นและน่าเชื่อถือน้อยลง

สรุป

คำว่า “ข้อมูลเท็จของเครื่องจักร” อาจดูหยาบคาย แต่มันจับภาพความเป็นจริงที่เราไม่สามารถเพิกเฉยได้ AI ไม่ใช่กระจกที่เป็นกลางของความรู้ของมนุษย์ มันเป็นเครื่องสร้างภาษาที่ถูกกำหนดโดยข้อมูล อัลกอริทึม และแรงจูงใจ หากเราต้องการให้มันรับใช้ความจริงมากกว่าความคล่องแคล่ว เราต้องออกแบบมันให้เช่นนั้น สิ่งนี้หมายถึงการคิดใหม่ไม่เพียงแต่เทคโนโลยีเท่านั้น แต่ยังรวมถึงค่านิยมที่ชี้นำการพัฒนาของมัน ความท้าทายเป็นเรื่องของลำดับความสำคัญของมนุษย์มากเท่ากับความสามารถของเครื่องจักร เราต้องการระบบที่ได้รับการปรับให้เหมาะสมสำหรับการพูดเหมือนมนุษย์ หรือระบบที่ได้รับการปรับให้เหมาะสมสำหรับการพูดความจริง? สองสิ่งนี้ไม่จำเป็นต้องเหมือนกัน หากเราต้องการสิ่งแรก เราอาจต้องเสี่ยงกับการสร้างเครื่องมือที่น่าเชื่อถือแต่ไม่น่าเชื่อถือ หากเราต้องการสิ่งที่สอง เราอาจต้องยอมรับว่า AI อาจไม่เรียบหรือมั่นใจหรือสนุกสนานเสมอไป แต่มันจะซื่อสัตย์มากกว่า

ดร. Tehseen Zia เป็น Professor ที่ COMSATS University Islamabad โดยได้รับ PhD ใน AI จาก Vienna University of Technology, Austria มีเชี่ยวชาญด้าน Artificial Intelligence, Machine Learning, Data Science, และ Computer Vision โดยมีส่วนร่วมที่สำคัญด้วยการเผยแพร่ในวารสารวิทยาศาสตร์ที่มีชื่อเสียง ดร. Tehseen ยังได้ดำเนินโครงการอุตสาหกรรมต่างๆ ในฐานะ Principal Investigator และให้บริการเป็นที่ปรึกษาด้าน AI