ต้นขั้ว นักวิจัยกำลังเริ่มฝึกปัญญาประดิษฐ์เพื่อต่อสู้กับคำพูดแสดงความเกลียดชังทางออนไลน์ - Unite.AI
เชื่อมต่อกับเรา

ปัญญาประดิษฐ์

นักวิจัยกำลังเริ่มฝึกปัญญาประดิษฐ์เพื่อต่อสู้กับคำพูดแสดงความเกลียดชังทางออนไลน์

mm
วันที่อัพเดท on

ข่าวปลอมและคำพูดแสดงความเกลียดชังทางออนไลน์ไม่ได้กลายเป็นปัญหาที่เกิดขึ้นทุกวัน แต่เป็นปัญหาแบบนาทีต่อนาทีทางออนไลน์ IkigaiLab รายงานว่า Facebook และ Twitter เพิ่งต้องปิดบัญชีมากกว่า 1.5 พันล้านและ 70 ล้านรายการตามลำดับ เพื่อพยายามควบคุมการแพร่กระจายของข่าวปลอมและคำพูดแสดงความเกลียดชังไปทั่วโลกเป็นอย่างน้อย

ถึงกระนั้น ในขณะนี้ งานดังกล่าวต้องใช้กำลังคนจำนวนมหาศาลและชั่วโมงการทำงานที่แทบจะตลอดเวลาเพื่อเอาส่วนเล็ก ๆ ของภูเขาน้ำแข็งที่ใช้คำพูดแสดงความเกลียดชัง เพื่อแก้ปัญหานี้ นักวิจัยในห้องแล็บจำนวนมากกำลังเริ่มฝึกปัญญาประดิษฐ์ (AI) เพื่อช่วยในงานที่ใหญ่โตนี้

Ikigai อ้างถึง Rosetta ระบบที่ Facebook ใช้เพื่อทำความเข้าใจความถูกต้องของข่าวสาร รูปภาพ หรือเนื้อหาอื่นๆ ที่อัพโหลดบนโซเชียลมีเดียนั้น ตามที่ได้อธิบายไปแล้ว สิ่งที่ Rosetta ทำคือ สแกน “คำ รูปภาพ ภาษา แบบอักษร วันที่ของโพสต์ ท่ามกลางตัวแปรอื่นๆ และพยายามดูว่าข้อมูลที่นำเสนอเป็นของแท้หรือไม่” หลังจากที่ระบบรวบรวมข้อมูลและทราบว่า AI ยังไม่ “เชี่ยวชาญในการทำความเข้าใจการเสียดสี การอ้างอิง เกร็ดเล็กเกร็ดน้อย และบริบทที่โพสต์เนื้อหา” ผู้ดูแลมนุษย์ เข้าควบคุมและแนะนำระบบ AI เพื่อค้นหาคำพูดแสดงความเกลียดชังและข่าวปลอม

เพื่อพยายามพัฒนาความสามารถของระบบ AI ต่อไปให้สามารถครอบคลุมความแตกต่างที่เป็นไปได้ทั้งหมด  ซึ่งเป็นลักษณะของคำพูดแสดงความเกลียดชัง ทีมนักวิจัยที่ UC Santa Barbara และ Intel ตามที่ TheNextWeb (TNW) รายงานว่า “รับการสนทนานับพันจากชุมชนที่น่ารังเกียจที่สุดใน Reddit และ Gab และใช้พวกเขาเพื่อพัฒนาและฝึกฝน AI เพื่อต่อสู้กับคำพูดแสดงความเกลียดชัง”

ตามที่ รายงานของพวกเขาในการทำเช่นนั้น กลุ่มนักวิจัยร่วมได้สร้างชุดข้อมูลเฉพาะขึ้นมา  เนื้อเรื่อง “การสนทนาหลายพันรายการได้รับการดูแลเป็นพิเศษเพื่อให้แน่ใจว่าพวกเขาจะเต็มไปด้วยคำพูดแสดงความเกลียดชัง” พวกเขายังใช้รายชื่อกลุ่มใน Reddit ซึ่งส่วนใหญ่มีลักษณะการใช้คำพูดแสดงความเกลียดชังที่รวบรวมโดย Justin Caffier จาก Vox

นักวิจัยลงเอยด้วยการเก็บรวบรวม "เพิ่มเติม มากกว่า 22,000 ความคิดเห็นจาก Reddit และมากกว่า 33,000 จาก Gab” พวกเขาค้นพบว่าไซต์ทั้งสองแสดง คำหลักความเกลียดชังยอดนิยมที่คล้ายกัน แต่การกระจายแตกต่างกันมาก

พวกเขาตั้งข้อสังเกตว่าเนื่องจากความแตกต่างเหล่านี้ สื่อสังคมออนไลน์โดยทั่วไปจึงเป็นเรื่องยากมากที่จะแทรกแซงแบบเรียลไทม์ เนื่องจากกระแสของคำพูดแสดงความเกลียดชังมีสูงมากจนต้องใช้บุคคลจริงจำนวนนับไม่ถ้วนในการติดตาม

เพื่อรับปัญหา ทีมวิจัยเริ่มฝึกให้ AI เข้าแทรกแซง ฐานข้อมูลเริ่มต้นของพวกเขาถูกส่งไปยังพนักงานของ Amazon Turk เพื่อติดป้ายกำกับ หลังจากระบุกรณีของคำพูดแสดงความเกลียดชังแต่ละรายการแล้ว พนักงานก็คิดวลีที่ AI จะถูกนำมาใช้ “เพื่อป้องกันไม่ให้ผู้ใช้โพสต์คำพูดแสดงความเกลียดชังที่คล้ายกันในอนาคต”

จากเหตุดังกล่าว ทีมงาน “รันชุดข้อมูลนี้และฐานข้อมูลการแทรกแซงผ่านการเรียนรู้ของเครื่องและระบบประมวลผลภาษาธรรมชาติต่างๆ และสร้างต้นแบบสำหรับ AI การแทรกแซงคำพูดแสดงความเกลียดชังออนไลน์”

ผลลัพธ์ที่ได้นั้นยอดเยี่ยม แต่เนื่องจากการพัฒนายังอยู่ในช่วงเริ่มต้น ระบบจึงยังไม่พร้อมที่จะใช้งานอย่างจริงจัง ตามที่อธิบายไว้ “tตามทฤษฎีแล้ว ระบบควรตรวจจับคำพูดแสดงความเกลียดชังและส่งข้อความไปยังผู้โพสต์ทันทีเพื่อให้พวกเขารู้ว่าเหตุใดจึงไม่ควรโพสต์สิ่งที่แสดงถึงคำพูดแสดงความเกลียดชังอย่างชัดเจน สิ่งนี้อาศัยมากกว่าการตรวจจับคำหลัก – เพื่อให้ AI ทำงานได้ จำเป็นต้องได้รับบริบทที่ถูกต้อง”

 

อดีตนักการทูตและนักแปลของ UN ปัจจุบันเป็นนักข่าว/นักเขียน/นักวิจัยอิสระ โดยเน้นไปที่เทคโนโลยีสมัยใหม่ ปัญญาประดิษฐ์ และวัฒนธรรมสมัยใหม่