ผู้นำทางความคิด
วิธีการที่ AI ของ Facebook กระจายข้อมูลที่ไม่ถูกต้องและคุกคามประชาธิปไตย

Dan Tunkelang ซึ่งดูแลการวิจัย AI ที่ LinkedIn ระบุว่า: “ช่วงเวลาที่คำแนะนำมีอำนาจในการมีอิทธิพลต่อการตัดสินใจ พวกเขาจะกลายเป็นเป้าหมายสำหรับคนหลอกลวงและคนอื่นๆ ที่มีเจตนาไม่ดี”
นี่คือปัญหาที่บริษัทสื่อสังคมอย่าง Facebook กำลังเผชิญ Facebook ใช้ การให้ข้อมูลโดยไม่ชัดเจน เพื่อติดตามการคลิก การดู และพฤติกรรมผู้ใช้ที่วัดได้ ซึ่งใช้ในการออกแบบระบบที่เรียกว่า “ระบบแนะนำ” ระบบ AI ที่มีอำนาจสูงสุดในการตัดสินใจว่าใครจะเห็นเนื้อหาอะไรและเมื่อไหร่
Facebook ได้ปรับระบบแนะนำให้เหมาะสมที่สุดเพื่อเพิ่มการมีส่วนร่วมของผู้ใช้ ซึ่งวัดโดยเวลาที่ใช้กับแพลตฟอร์ม Facebook การเพิ่มเวลาเป็นลำดับความสำคัญเหนือตัวแปรอื่นๆ รวมถึงคุณภาพหรือความถูกต้องของสิ่งที่แนะนำ
ระบบนี้ได้รับการออกแบบมาเพื่อรางวัลหัวข้อที่น่าสนใจซึ่งดึงดูดผู้ใช้โดยใช้ประโยชน์จากความลำเอียงทางจิตวิทยา แม้ว่าหัวข้อเหล่านั้นจะถูกเขียนโดยคนรัสเซียที่มีเจตนาในการแบ่งแยกสังคมหรือมีอิทธิพลต่อการเลือกตั้ง
วิธีการที่ Facebook ใช้ AI
มีความไม่เข้าใจเกี่ยวกับวิธีการที่ Facebook ใช้ AI ในการตัดสินใจว่าผู้ใช้จะเห็นและโต้ตอบกับอะไร สิ่งหนึ่งที่ต้องเข้าใจก่อนคือความลำเอียงในการยืนยัน Psychology Today อธิบาย ว่า:
ความลำเอียงในการยืนยันคือความต้องการที่จะค้นหา ตีความ สนับสนุน และระลึกถึงข้อมูลในลักษณะที่ยืนยันหรือสนับสนุนความเชื่อหรือค่านิยมก่อนหน้าของตน
Facebook รู้ว่าผู้ใช้มีแนวโน้มที่จะคลิกบนข่าวที่ให้อาหารกับความต้องการของมนุษย์ในการยืนยันความลำเอียง ซึ่งสร้างความเสี่ยงสำหรับการแพร่กระจายของทฤษฎีสมคบคิดและการสร้างห้องเสียงที่ผู้ใช้ได้รับอาหารที่ต้องการเห็นโดยไม่คำนึงถึงความถูกต้องหรือผลกระทบต่อสังคมของสิ่งที่เห็น
การศึกษาโดย MIT สามารถแสดงให้เห็นว่าข่าวปลอมบน Twitter แพร่กระจายเร็วกว่าข่าวจริงถึง 6 เท่า
หมายความว่าทั้ง Twitter และ Facebook สามารถถูกใช้เป็นอาวุธได้ ในขณะที่ Twitter อนุญาตให้ใครก็ตามติดตามฟีดที่มีมุมมองแคบหรือลำเอียง Facebook ก้าวไปอีกขั้น โดยผู้ใช้บน Facebook ไม่มีทางควบคุมหรือวัดสิ่งที่เห็น ซึ่งถูกควบคุมโดยระบบแนะนำของ Facebook วิธีการวัดการมีส่วนร่วมของผู้ใช้ และวิธีการเพิ่มการมีส่วนร่วมนั้น
Facebook พยายามที่จะกำหนดและคาดการณ์ความต้องการของผู้ใช้ Facebook ประมาณการว่าผู้ใช้จะชอบหรือไม่ชอบข่าวที่ยังไม่เคยเห็น เพื่อหลีกเลี่ยงการเสียการมีส่วนร่วม Facebook จึงเลือกที่จะข้ามข่าวที่อาจลดการมีส่วนร่วม และเลือกที่จะให้ข่าวที่ให้อาหารความลำเอียงเพื่อให้ได้การคลิก การแสดงความคิดเห็น การชอบ และการแชร์มากขึ้น
Facebook ใช้การกรองร่วมอัตโนมัติของการกระทำและความคิดเห็นของผู้ใช้ในอดีตเพื่อจับคู่ผู้เข้าร่วม (เพื่อน) ที่มีความคิดเห็นคล้ายกัน Facebook ใช้ฟังก์ชันยูทิลิตี้ที่คาดการณ์และจัดอันดับความชอบส่วนบุคคลสำหรับรายการโดยอัตโนมัติ
สิ่งนี้ทำให้ผู้ใช้ตกลงไปในหลุมกระต่าย พวกเขาถูกจับในข่าวปลอมและได้รับเนื้อหาที่เสริมความลำเอียงของพวกเขา เนื้อหาที่นำเสนอถูกออกแบบมาเพื่อมีอิทธิพลต่อการคลิกของคุณ หลังจากที่คุณเชื่อในทฤษฎีสมคบคิดที่บิล เกตส์พยายามจะจับคนโดยใช้วัคซีน ทำไม Facebook จึงควรนำเสนอหลักฐานที่ขัดแย้งซึ่งอาจทำให้คุณไม่โต้ตอบกับแพลตฟอร์ม? หากคุณสนับสนุนผู้สมัครรับเลือกตั้งคนใดคนหนึ่ง ทำไม Facebook จึงควรนำเสนอข่าวที่ขัดแย้งกับมุมมองเชิงบวกของคุณเกี่ยวกับผู้สมัครคนนั้น?
นอกจากสิ่งนี้แล้ว Facebook ยังใช้ “หลักฐานทางสังคม” หลักฐานทางสังคมคือแนวคิดที่ว่าคนจะทำตามการกระทำของคนส่วนใหญ่
Facebook ให้หลักฐานทางสังคมในบริบทของการชอบ การแสดงความคิดเห็น หรือการแชร์ เนื่องจากเพียงบางคนอาจเห็นรายการฟีดข่าว (除非พวกเขาค้นหาโดยเฉพาะ) หลักฐานทางสังคมจึงเสริมความลำเอียงในการยืนยัน
Facebook ยังใช้ ฟองสบู่การกรอง เพื่อจำกัดการเปิดรับมุมมองที่ขัดแย้งกัน
โฆษณา Facebook
ผู้ใช้ Facebook ที่ไม่สงสัยอาจ คลิกโฆษณาโดยไม่รู้ตัว ว่าพวกเขาได้รับโฆษณา สาเหตุของสิ่งนี้คือ หากมีโฆษณาเฉพาะบุคคลที่เห็นโฆษณาแรกจะเห็นคำชี้แจงโฆษณา หากผู้ใช้นั้นแชร์โฆษณา ทุกคนในรายการเพื่อนจะเห็น “การแชร์” เป็นรายการฟีดข่าว โดยที่ Facebook ตัดคำชี้แจงโฆษณาโดยเจตนา
การแชร์ Facebook
สิ่งที่น่าเสียใจคือ สิ่งที่เลวร้ายยิ่งกว่านั้น หากผู้ใช้มีเพื่อน 1000 คนซึ่งแชร์ข้อมูลในเวลาเดียวกัน ระบบแนะนำจะจัดลำดับความสำคัญของเนื้อหาจากรายการน้อยที่มีมุมมองเดียวกัน แม้ว่าเนื้อหานั้นจะประกอบด้วยทฤษฎีสมคบคิดที่ไม่ได้รับการพิสูจน์ ผู้ใช้จะถูกหลอกให้เชื่อว่ารายการฟีดข่าวเหล่านี้ถูกมองเห็นโดยทุกคน โดยการโต้ตอบกับรายการฟีดข่าว ผู้ใช้เหล่านี้จะเพิ่มหลักฐานทางสังคมให้กันและกัน
หากผู้ใช้พยายามที่จะแจ้งให้ผู้ใช้อื่นเกี่ยวกับรายการฟีดข้อมูลที่หลอกลวงหรือปลอม การกระทำของการแสดงความคิดเห็นหรือโต้ตอบกับรายการฟีดข่าวเพียงเพื่อเพิ่มเวลาในการมีส่วนร่วมของผู้ใช้เดิม สิ่งนี้ทำให้เกิดห้องเสียง ฟองสบู่การกรอง โดยที่ผู้ใช้ถูกฝึกให้เชื่อเฉพาะสิ่งที่เห็น ความจริงเป็นเพียงภาพลวงตา
ความรุนแรงของปัญหา
มากกว่า 10 ล้านคน โต้ตอบกับรายการฟีดข่าว ที่อ้างว่าสมเด็จพระสันตะปาปาฟรานซิสสนับสนุนการเลือกตั้งของทรัมป์ในปี 2016 ไม่มีหลักฐานของสิ่งนี้ มันเป็นเพียงเรื่องราวข่าวปลอมที่มาจากประเทศรัสเซีย แต่นี่คือเรื่องราวข่าวที่แชร์มากที่สุดบน Facebook ในสามเดือนก่อนการเลือกตั้งปี 2016
รายการฟีดข่าวถูกสร้างโดยฟาร์มต롤รัสเซียที่เรียกตัวเองว่า “Internet Research Agency” องค์กรเดียวกันนี้รับผิดชอบในการส่งเสริมและการแชร์บน Twitter และ Facebook บทความที่ก่อให้เกิดความไม่สงบทางเชื้อชาติ และอาวุธข่าวปลอมที่เผยแพร่ข้อกล่าวหาที่เป็นเท็จเกี่ยวกับนักการเมืองอเมริกัน
คณะกรรมการการเลือกตั้งแห่งรัฐสภาเผยแพร่ รายงาน 85 หน้า ซึ่งรายละเอียดเกี่ยวกับการรณรงค์มาตรการรัสเซียที่ใช้ในการแทรกแซง และการแทรกแซงการเลือกตั้งปี 2016 ส่วนใหญ่เกี่ยวข้องกับการแพร่กระจายข่าวปลอมและโฆษณาชวนเชื่อที่มีเจตนาเพียงเพื่อแทรกแซงการเลือกตั้งปี 2016 ของสหรัฐฯ
เมื่อข้ามไปที่การเลือกตั้งปี 2020 ปัญหาก็เพิ่มมากขึ้น ในเดือนกันยายน 2020 หลังจากที่ FBI ให้คำแนะนำ Facebook และ Twitter ยุติข้อตกลงบัญชีสื่อ สำหรับองค์กรข่าวที่มีชื่อว่า PeaceData ซึ่งเชื่อมโยงกับการ宣传ของรัฐรัสเซีย
อย่างไม่น่าเชื่อ การปิดบัญชีเป็นวิธีแก้ปัญหาที่ชั่วคราวและไม่มีประสิทธิภาพ บัญชีรัสเซียมักจะมาในรูปแบบคำขอเป็นเพื่อน โดยมีโปรไฟล์ที่น่าดึงดูดซึ่งกำหนดเป้าหมายไปยังผู้ชาย หรือบัญชีผู้ใช้ที่ถูกขโมยไปซึ่งมีประวัติการโพสต์ตามปกติ บัญชีที่ถูกขโมยเหล่านี้จะเปลี่ยนไปสู่โพสต์ทางการเมืองมากขึ้น จนกระทั่งพวกมันถูกครอบงำโดยโฆษณาชวนเชื่อหรือทฤษฎีสมคบคิด
ผู้ใช้ที่ไม่สงสัยอาจไม่รู้ว่าบัญชีเพื่อนของพวกเขาถูกบุกรุก หากผู้ใช้นั้นเปราะบางต่อทฤษฎีสมคบคิด พวกเขาอาจโต้ตอบกับรายการฟีดข้อมูลปลอม ตัวต롤รัสเซียซึ่งมักจะเป็นบอท จะให้หลักฐานทางสังคมเพิ่มเติมในรูปแบบของการชอบหรือการแสดงความคิดเห็น
ผู้ใช้ที่เปราะบางมักจะเป็นคนที่เข้าใจน้อยที่สุดเกี่ยวกับวิธีการทำงานของเทคโนโลยีและ AI ประชากรที่มีอายุ 65 ปีขึ้นไปซึ่งเป็นกลุ่มที่มีแนวโน้มที่จะลงคะแนนเสียงมากที่สุด ก็เป็นกลุ่มที่มีแนวโน้มที่จะแพร่กระจายข่าวปลอมมากที่สุดตามที่ New York Times รายงาน
ตามการศึกษา ผู้ใช้ Facebook ที่มีอายุ 65 ปีขึ้นไปโพสต์บทความจากเว็บไซต์ข่าวปลอมเจ็ดเท่าของผู้ใหญ่ที่มีอายุ 29 ปีหรือน้อยกว่า การขาดการรู้ด้านสื่อใหม่ทำให้กลุ่มอายุนี้ไม่พร้อมสำหรับฟีดข่าวที่ไม่ได้ขึ้นอยู่กับข้อเท็จจริงหรือความถูกต้อง แต่ขึ้นอยู่กับการมีส่วนร่วมของผู้ใช้เท่านั้น
ผู้กระทำที่ไม่ดีใช้ประโยชน์จากเครื่องมือแนะนำของ Facebook ซึ่งใช้ประโยชน์จากความลำเอียงทางจิตวิทยาของเราเพื่อต่อต้านเรา องค์กรเหล่านี้ได้ปรับเปลี่ยนการละเมิด AI ของ Facebook เพื่อแพร่กระจายทฤษฎีสมคบคิดและโฆษณาชวนเชื่อ ทฤษฎีสมคบคิดที่ดูเหมือนเป็นเรื่องง่ายๆ ในตอนแรก มักจะถูกใช้เป็นเครื่องมือในการเข้าสู่ลัทธิหัวขาว ลัทธิชาตินิยมฝ่ายขวาหรือ QAnon ทฤษฎีสมคบคิดที่ไม่มีเหตุผลที่เกี่ยวข้องกับการพยายามของทรัมป์ที่จะช่วยโลกจากคนรักเด็กผู้ล่วงละเมิดของพรรคเดโมแครต ซึ่งเป็นทฤษฎีที่ไม่มีหลักฐานใดๆ
สรุป
Facebook ตระหนักอย่างชัดเจนว่ามีปัญหาและได้ประกาศ ยุทธวิธี ที่มุ่งเน้นไปที่การลบเนื้อหาที่ละเมิดมาตรฐานชุมชนของ Facebook ปัญหาก็คือการลบบัญชีเป็นวิธีแก้ปัญหาที่ชั่วคราวซึ่งไม่มีประสิทธิภาพเมื่อบัญชีถูกสร้างขึ้นจำนวนมากโดยบอทหรือการแฮกบัญชีผู้ใช้大量 นอกจากนี้ยังไม่สามารถแก้ไขปัญหาที่การแชร์ส่วนใหญ่ทำโดยผู้ใช้ทั่วไปที่ไม่ทราบว่าตนเองกำลังแพร่กระจายข้อมูลที่ไม่ถูกต้อง
การเพิ่มป้ายเตือนเพียงเพื่อเสริมทฤษฎีสมคบคิดที่ว่าสื่อโซเชียลยักษ์ใหญ่ลำเอียงต่อผู้รักษาอนุรักษ์นิยม ซึ่งเป็นกลุ่มที่ เสี่ยงต่อข่าวปลอมมากที่สุด
วิธีแก้ปัญหาต้องเป็นเครื่องมือแนะนำใหม่ที่วัดไม่เพียงแต่การมีส่วนร่วมของผู้ใช้เท่านั้น แต่ยังได้รับการปรับให้เหมาะสมสำหรับความสุขของผู้ใช้โดยการนำเสนอความจริงและส่งเสริมการรู้ตัว
ในระหว่างนี้ Facebook ควรปฏิบัติตามเส้นทางที่ Twitter ที่จะห้ามโฆษณาการเมือง
สุดท้าย คำถามที่สำคัญต้องถูกถาม หากผู้คนไม่มีทางเลือกในการเลือกข่าวที่พวกเขาเห็น เมื่อไหร่จะหยุดเป็นการแนะนำและเมื่อไหร่จะกลายเป็นการควบคุมจิตใจ?
การอ่านแนะนำ:
การรณรงค์มาตรการรัสเซียที่ใช้ในการแทรกแซงและการแทรกแซง – รายงานของคณะกรรมการการเลือกตั้งแห่งรัฐสภาสหรัฐฯ
เอกสารที่น่าตกใจที่คาดการณ์ถึงการสิ้นสุดของประชาธิปไตย – โดย Rick Shenkman ผู้ก่อตั้ง George Washington University’s History News Network
ผู้สูงอายุแชร์ข่าวปลอมบน Facebook มากกว่า – โดย New York Times












