ปัญญาประดิษฐ์
ผู้เชี่ยวชาญกล่าวว่า DeepFakes “ของจริงสมบูรณ์แบบ” จะมาในอีก 6 เดือน

Hao Li ผู้อำนวยการฝ่าย Vision and Graphics Lab แห่งมหาวิทยาลัยเซาเธิร์นกล่าวว่า DeepFakes รูปภาพและวิดีโอที่น่าประทับใจแต่เป็นที่ถกเถียงซึ่งถูกจัดการหรือสร้างโดยโครงข่ายประสาทเทียมนั้นมีแนวโน้มที่จะได้รับทั้งสิ่งที่น่าประทับใจและเป็นที่ถกเถียงกันมากขึ้นในอนาคตอันใกล้นี้ แคลิฟอร์เนีย. Li เป็นผู้เชี่ยวชาญด้านคอมพิวเตอร์วิทัศน์และ DeepFakes และ ในการสัมภาษณ์ล่าสุดกับ CNBC เขากล่าวว่า Deepfakes ที่ “สมจริงอย่างสมบูรณ์แบบ” มีแนวโน้มที่จะมาถึงภายในครึ่งปี
Li อธิบายว่า DeepFakes ส่วนใหญ่ยังคงสามารถจดจำได้ว่าเป็นของปลอมด้วยตาจริง และแม้แต่ DeepFakes ที่น่าเชื่อถือกว่านั้นก็ยังต้องใช้ความพยายามอย่างมากในส่วนของผู้สร้างเพื่อทำให้มันดูสมจริง อย่างไรก็ตาม Li เชื่อว่าภายในหกเดือน DeepFakes ที่ดูเหมือนจริงอย่างสมบูรณ์น่าจะปรากฏขึ้นเมื่ออัลกอริทึมมีความซับซ้อนมากขึ้น
ในตอนแรก Li คิดว่าจะใช้เวลาระหว่างสองถึงสามปีกว่าที่ DeepFakes จะกลายเป็นเรื่องธรรมดามากขึ้น ทำให้คาดการณ์ดังกล่าวในการประชุมเมื่อเร็ว ๆ นี้ซึ่งจัดขึ้นที่สถาบันเทคโนโลยีแมสซาชูเซตส์ อย่างไรก็ตาม Li ได้แก้ไขไทม์ไลน์ของเขาหลังจากการเปิดเผยแอพ Zao ของจีนล่าสุดและการพัฒนาล่าสุดอื่น ๆ ที่เกี่ยวข้องกับเทคโนโลยี DeepFakes หลี่ อธิบายกับ CNBC ว่าวิธีการที่จำเป็นในการสร้าง DeepFakes ที่เหมือนจริงนั้นเป็นวิธีการที่ใช้อยู่ในปัจจุบันไม่มากก็น้อย และส่วนประกอบหลักที่จะสร้าง DeepFakes ที่สมจริงคือข้อมูลการฝึกอบรมเพิ่มเติม
Li และเพื่อนนักวิจัยทำงานอย่างหนักเกี่ยวกับเทคโนโลยีการตรวจจับ DeepFake โดยคาดการณ์ถึงการมาถึงของ DeepFakes ที่น่าเชื่อถืออย่างยิ่ง Li และเพื่อนร่วมงานของเขา เช่น Hany Farid จาก University for California Berkely ได้ทดลองอัลกอริธึม DeepFake ที่ทันสมัยเพื่อทำความเข้าใจว่าเทคโนโลยีที่สร้างสิ่งเหล่านี้ทำงานอย่างไร
Li อธิบายกับ CNBC:
“หากคุณต้องการตรวจจับของปลอม คุณต้องดูด้วยว่าขีดจำกัดคืออะไร หากคุณต้องการสร้างเฟรมเวิร์ก AI ที่สามารถตรวจจับสิ่งต่าง ๆ ที่เหมือนจริงมาก สิ่งเหล่านั้นต้องได้รับการฝึกฝนโดยใช้เทคโนโลยีประเภทนี้ ดังนั้นในบางแง่ เป็นไปไม่ได้ที่จะตรวจจับสิ่งเหล่านั้นหากคุณไม่รู้ว่ามันทำงานอย่างไร”
Li และเพื่อนร่วมงานของเขาลงทุนในการสร้างเครื่องมือเพื่อตรวจจับ DeepFakes เพื่อรับทราบปัญหาและอันตรายที่อาจเกิดขึ้นจากเทคโนโลยี Li และเพื่อนร่วมงานไม่ใช่นักวิจัย AI กลุ่มเดียวที่กังวลเกี่ยวกับผลกระทบที่อาจเกิดขึ้นจาก DeepFakes และสนใจที่จะสร้างมาตรการตอบโต้พวกเขา
เมื่อเร็วๆ นี้ Facebook เริ่มเป็นหุ้นส่วนร่วมกัน ร่วมกับ MIT, Microsoft และ University of Oxford เพื่อสร้าง DeepFake Detection Challenge ซึ่งมีจุดมุ่งหมายเพื่อสร้างเครื่องมือที่สามารถใช้ในการตรวจจับเมื่อมีการแก้ไขรูปภาพหรือวิดีโอ เครื่องมือเหล่านี้จะเป็นโอเพ่นซอร์สและใช้งานโดยบริษัท องค์กรสื่อ และรัฐบาล ในขณะเดียวกัน นักวิจัยจากสถาบัน Information Sciences แห่งมหาวิทยาลัย Southern California เพิ่งสร้างชุดอัลกอริทึมที่สามารถแยกแยะวิดีโอปลอมได้ด้วยความแม่นยำประมาณ 96%
อย่างไรก็ตาม Li ยังอธิบายว่าปัญหาของ DeepFakes คือวิธีที่พวกเขาสามารถนำไปใช้ในทางที่ผิดได้ ไม่ใช่ตัวเทคโนโลยีเอง Li สังเกตเห็นการใช้งานที่ถูกต้องตามกฎหมายหลายประการสำหรับเทคโนโลยี DeepFake รวมถึงในอุตสาหกรรมบันเทิงและแฟชั่น
นอกจากนี้ยังใช้เทคนิค DeepFake ทำซ้ำการแสดงออกทางสีหน้า ของผู้คนที่ถูกบดบังด้วยภาพ นักวิจัยใช้ Generative Adnversail Networks เพื่อสร้างใบหน้าใหม่ทั้งหมดที่มีการแสดงออกของวัตถุเหมือนกันในภาพต้นฉบับ เทคนิคที่พัฒนาโดย Norwegian University of Science and Technology สามารถช่วยแสดงสีหน้าระหว่างการสัมภาษณ์กับบุคคลที่มีความละเอียดอ่อนซึ่งต้องการความเป็นส่วนตัว เช่น ผู้แจ้งเบาะแส คนอื่นอาจปล่อยให้ใบหน้าของพวกเขาถูกใช้แทนบุคคลที่ต้องการปกปิดตัวตน แต่ยังสามารถอ่านสีหน้าของบุคคลนั้นได้
เมื่อความซับซ้อนของเทคโนโลยี Deepfake เพิ่มขึ้น กรณีการใช้งานที่ถูกกฎหมายสำหรับ Deepfakes ก็จะเพิ่มขึ้นเช่นกัน อย่างไรก็ตาม อันตรายจะเพิ่มขึ้นด้วย และด้วยเหตุนี้ การตรวจจับ DeepFakes ที่ทำโดย Li และคนอื่นๆ จึงมีความสำคัญมากยิ่งขึ้น