ต้นขั้ว Deepfakes คืออะไร? - Unite.AI
เชื่อมต่อกับเรา

AI 101

Deepfakes คืออะไร?

mm
วันที่อัพเดท on

เนื่องจากการทำ Deepfake ทำได้ง่ายกว่าและมีผลผลิตมากขึ้น จึงให้ความสนใจกับสิ่งเหล่านี้มากขึ้น Deepfakes กลายเป็นประเด็นสำคัญของการอภิปรายที่เกี่ยวข้องกับจริยธรรมของ AI ข้อมูลที่ไม่ถูกต้อง การเปิดกว้างของข้อมูลและอินเทอร์เน็ต และกฎระเบียบ การได้รับแจ้งเกี่ยวกับ Deepfake เป็นเรื่องที่คุ้มค่า และเพื่อให้เข้าใจตามสัญชาตญาณว่า Deepfake คืออะไร บทความนี้จะอธิบายคำจำกัดความของ Deepfake ตรวจสอบกรณีการใช้งาน อภิปรายว่าสามารถตรวจจับ Deepfake ได้อย่างไร และตรวจสอบผลกระทบของ Deepfake ต่อสังคม

Deepfakes คืออะไร?

ก่อนที่จะพูดถึงเรื่อง Deepfake ต่อไป การใช้เวลาและชี้แจงจะเป็นประโยชน์ จริงๆ แล้ว “deepfakes” คืออะไร. มีความสับสนอย่างมากเกี่ยวกับคำว่า Deepfake และบ่อยครั้งคำนี้ถูกนำไปใช้กับสื่อปลอมใดๆ ไม่ว่าสิ่งนั้นจะเป็น Deepfake ของแท้หรือไม่ก็ตาม เพื่อให้มีคุณสมบัติเป็น Deepfake สื่อปลอมที่เป็นปัญหาจะต้องสร้างด้วยระบบการเรียนรู้ของเครื่อง โดยเฉพาะเครือข่ายประสาทลึก

ส่วนประกอบสำคัญของ Deepfakes คือการเรียนรู้ของเครื่อง การเรียนรู้ของเครื่องทำให้คอมพิวเตอร์สามารถสร้างวิดีโอและเสียงได้โดยอัตโนมัติอย่างรวดเร็วและง่ายดาย โครงข่ายประสาทเทียมระดับลึกได้รับการฝึกฝนจากภาพบุคคลจริง เพื่อให้เครือข่ายได้เรียนรู้ว่าผู้คนมองและเคลื่อนไหวอย่างไรภายใต้สภาพแวดล้อมเป้าหมาย จากนั้นเครือข่ายที่ได้รับการฝึกอบรมจะนำไปใช้กับรูปภาพของบุคคลอื่น และเสริมด้วยเทคนิคคอมพิวเตอร์กราฟิกเพิ่มเติมเพื่อรวมบุคคลใหม่เข้ากับภาพต้นฉบับ อัลกอริธึมตัวเข้ารหัสใช้เพื่อกำหนดความคล้ายคลึงกันระหว่างใบหน้าดั้งเดิมและใบหน้าเป้าหมาย เมื่อแยกคุณสมบัติทั่วไปของใบหน้าออกแล้ว อัลกอริธึม AI ตัวที่สองที่เรียกว่าตัวถอดรหัสจะถูกนำมาใช้ ตัวถอดรหัสจะตรวจสอบภาพที่เข้ารหัส (บีบอัด) และสร้างใหม่ตามคุณสมบัติในภาพต้นฉบับ มีการใช้ตัวถอดรหัสสองตัว ตัวหนึ่งบนใบหน้าของเป้าหมายดั้งเดิม และตัวที่สองบนใบหน้าของเป้าหมาย เพื่อที่จะทำการสลับ ตัวถอดรหัสที่ได้รับการฝึกเกี่ยวกับรูปภาพของบุคคล X จะถูกป้อนรูปภาพของบุคคล Y ผลลัพธ์ก็คือใบหน้าของบุคคล Y นั้นถูกสร้างขึ้นใหม่จากการแสดงออกทางสีหน้าและการวางแนวของบุคคล X

ปัจจุบันยังต้องใช้เวลาพอสมควรในการสร้าง Deepfake ผู้สร้างของปลอมต้องใช้เวลานานในการปรับพารามิเตอร์ของโมเดลด้วยตนเอง เนื่องจากพารามิเตอร์ที่ไม่เหมาะสมจะนำไปสู่ความไม่สมบูรณ์ที่เห็นได้ชัดเจนและความบกพร่องของภาพที่ทำให้ธรรมชาติที่แท้จริงของของปลอมหายไป

แม้ว่าบ่อยครั้งจะสันนิษฐานว่า Deepfakes ส่วนใหญ่ทำด้วยโครงข่ายประสาทเทียมประเภทหนึ่งที่เรียกว่า a เครือข่ายปฏิปักษ์กำเนิด (GAN)Deepfakes จำนวนมาก (อาจมากที่สุด) ที่สร้างขึ้นในทุกวันนี้ไม่ได้พึ่งพา GAN ในขณะที่ GAN มีบทบาทสำคัญในการสร้าง Deepfake ในยุคแรก ๆ แต่วิดีโอ Deepfake ส่วนใหญ่ถูกสร้างขึ้นด้วยวิธีทางเลือก ตามข้อมูลของ Siwei Lyu จาก SUNY Buffalo

ต้องใช้ข้อมูลการฝึกอบรมจำนวนมากอย่างไม่เป็นสัดส่วนเพื่อฝึกฝน GAN และ GAN มักจะใช้เวลานานกว่ามากในการแสดงภาพเมื่อเทียบกับเทคนิคการสร้างภาพอื่นๆ นอกจากนี้ GAN ยังดีกว่าสำหรับการสร้างภาพนิ่งมากกว่าวิดีโอ เนื่องจาก GAN มีปัญหาในการรักษาความสม่ำเสมอจากเฟรมหนึ่งไปยังอีกเฟรมหนึ่ง เป็นเรื่องปกติมากที่จะใช้ตัวเข้ารหัสและตัวถอดรหัสหลายตัวเพื่อสร้าง Deepfake

Deepfakes ใช้สำหรับอะไร?

ของปลอมจำนวนมากที่พบทางออนไลน์มีลักษณะเป็นภาพอนาจาร จากการวิจัยของ Deeptrace ซึ่งเป็นบริษัท AI จากตัวอย่างวิดีโอ Deepfake ประมาณ 15,000 วิดีโอที่ถ่ายในเดือนกันยายน 2019 พบว่าประมาณ 95% เป็นวิดีโอลามกอนาจาร นัยที่น่าเป็นห่วงของข้อเท็จจริงนี้คือเมื่อเทคโนโลยีใช้งานง่ายขึ้น เหตุการณ์ของสื่อลามกปลอมเพื่อแก้แค้นอาจเพิ่มขึ้น

อย่างไรก็ตาม ไม่ใช่ว่าของปลอมทั้งหมดจะมีลักษณะเป็นภาพอนาจาร มีการใช้เทคโนโลยี Deepfake ที่ถูกกฎหมายมากขึ้น เทคโนโลยี Deepfake ของเสียงสามารถช่วยให้ผู้คนถ่ายทอดเสียงปกติของตนได้หลังจากที่เสียงเหล่านั้นได้รับความเสียหายหรือสูญหายเนื่องจากการเจ็บป่วยหรือการบาดเจ็บ นอกจากนี้ Deepfakes ยังสามารถใช้ซ่อนใบหน้าของผู้ที่อยู่ในสถานการณ์ที่ละเอียดอ่อนและอาจเป็นอันตรายได้ ในขณะที่ยังสามารถอ่านริมฝีปากและสีหน้าของพวกเขาได้ เทคโนโลยี Deepfake อาจถูกนำมาใช้เพื่อปรับปรุงการพากย์เสียงในภาพยนตร์ภาษาต่างประเทศ ช่วยในการซ่อมแซมสื่อเก่าและสื่อที่เสียหาย และแม้แต่สร้างงานศิลปะรูปแบบใหม่

Deepfakes ที่ไม่ใช่วิดีโอ

ในขณะที่คนส่วนใหญ่นึกถึงวิดีโอปลอมเมื่อได้ยินคำว่า "ดีพเฟค" แต่วิดีโอปลอมก็ไม่ใช่สื่อปลอมชนิดเดียวที่ผลิตด้วยเทคโนโลยีดีพเฟค เทคโนโลยี Deepfake ใช้เพื่อสร้างภาพและเสียงปลอมเช่นกัน ตามที่กล่าวไว้ก่อนหน้านี้ GAN มักถูกใช้เพื่อสร้างภาพปลอม คิดว่ามีหลายกรณีที่โปรไฟล์ LinkedIn และ Facebook ปลอมมีรูปโปรไฟล์ที่สร้างด้วยอัลกอริทึมของ Deepfake

เป็นไปได้ที่จะสร้างการปลอมแปลงเสียงเช่นกัน โครงข่ายประสาทเทียมระดับลึกได้รับการฝึกฝนให้ผลิตเสียงเลียนแบบ/สกินเสียงของบุคคลต่างๆ รวมถึงคนดังและนักการเมือง ตัวอย่างหนึ่งที่โด่งดังของ Deepfake ด้านเสียงคือเมื่อบริษัท AI Dessa ใช้โมเดล AI สนับสนุนโดยอัลกอริธึมที่ไม่ใช่ AI เพื่อสร้างเสียงของโจ โรแกน ผู้ดำเนินรายการพอดแคสต์

วิธีสังเกต Deepfakes

เมื่อ Deepfake มีความซับซ้อนมากขึ้นเรื่อยๆ การแยกแยะสิ่งเหล่านั้นออกจากสื่อของแท้จะยากขึ้นและรุนแรงขึ้น ปัจจุบันมี สัญญาณปากโป้งไม่กี่ ผู้คนสามารถมองหาเพื่อยืนยันว่าวิดีโอนั้นอาจเป็นของปลอมหรือไม่ เช่น การลิปซิงค์ที่ไม่ดี การเคลื่อนไหวที่ไม่เป็นธรรมชาติ การกะพริบบริเวณขอบของใบหน้า และการบิดเบี้ยวของรายละเอียดเล็กๆ เช่น เส้นผม ฟัน หรือแสงสะท้อน สัญญาณอื่นๆ ที่เป็นไปได้ของ Deepfake ได้แก่ ชิ้นส่วนคุณภาพต่ำของวิดีโอเดียวกัน และการกะพริบตาผิดปกติ

แม้ว่าสัญญาณเหล่านี้อาจช่วยให้ใครสังเกตเห็น Deepfake ได้ในขณะนี้ เนื่องจากเทคโนโลยี Deepfake ปรับปรุงตัวเลือกเดียวสำหรับการตรวจจับ Deepfake ที่เชื่อถือได้อาจเป็น AI ประเภทอื่นที่ได้รับการฝึกฝนเพื่อแยกแยะของปลอมออกจากสื่อจริง

บริษัทด้านปัญญาประดิษฐ์ รวมถึงบริษัทเทคโนโลยีขนาดใหญ่หลายแห่ง กำลังค้นคว้าวิธีการตรวจจับของปลอม เมื่อเดือนธันวาคมปีที่แล้ว ความท้าทายในการตรวจจับ Deepfake ได้เริ่มต้นขึ้น โดยได้รับการสนับสนุนจากยักษ์ใหญ่ด้านเทคโนโลยีสามราย ได้แก่ Amazon, Facebook และ Microsoft ทีมวิจัยจากทั่วโลกทำงานเกี่ยวกับวิธีการตรวจจับของปลอม แข่งขันกันเพื่อพัฒนาวิธีการตรวจจับที่ดีที่สุด นักวิจัยกลุ่มอื่นๆ เช่น กลุ่มนักวิจัยที่รวมกันจาก Google และ Jigsaw กำลังทำงานเกี่ยวกับ "การพิสูจน์หลักฐานทางใบหน้า" ประเภทหนึ่งที่สามารถตรวจจับวิดีโอที่มีการเปลี่ยนแปลง ทำให้ชุดข้อมูลเป็นโอเพ่นซอร์ส และสนับสนุนให้ผู้อื่นพัฒนาวิธีการตรวจจับ Deepfake Dessa ที่กล่าวมาข้างต้นได้ทำงานเกี่ยวกับการปรับปรุงเทคนิคการตรวจจับ Deepfake โดยพยายามทำให้แน่ใจว่าโมเดลการตรวจจับทำงานในวิดีโอ Deepfake ที่พบได้ทั่วไป (บนอินเทอร์เน็ต) แทนที่จะเป็นเพียงชุดข้อมูลการฝึกอบรมและการทดสอบที่เขียนไว้ล่วงหน้า เช่น ชุดข้อมูลโอเพ่นซอร์ส Google จัดให้

นอกจากนี้ยังมี กลยุทธ์อื่นๆ ที่กำลังถูกตรวจสอบเพื่อจัดการกับการแพร่กระจายของ Deepfakes ตัวอย่างเช่น การตรวจสอบวิดีโอว่าสอดคล้องกับแหล่งข้อมูลอื่นเป็นกลยุทธ์หนึ่ง คุณสามารถค้นหาวิดีโอของเหตุการณ์ที่อาจถ่ายจากมุมอื่น หรือตรวจสอบรายละเอียดพื้นหลังของวิดีโอ (เช่น รูปแบบสภาพอากาศและสถานที่) เพื่อหาความไม่สอดคล้องกันได้ นอกเหนือจากนี้ ระบบบัญชีแยกประเภทออนไลน์ Blockchain สามารถลงทะเบียนวิดีโอเมื่อสร้างครั้งแรก โดยเก็บเสียงและภาพต้นฉบับไว้เพื่อให้วิดีโอลอกเลียนแบบสามารถตรวจสอบการดัดแปลงได้ตลอดเวลา

ท้ายที่สุด สิ่งสำคัญคือต้องสร้างวิธีการที่เชื่อถือได้ในการตรวจจับของปลอม และวิธีการตรวจจับเหล่านี้ให้ทันกับความก้าวหน้าล่าสุดของเทคโนโลยี Deepfake แม้ว่าจะเป็นเรื่องยากที่จะทราบอย่างแน่ชัดว่าผลกระทบของ Deepfake จะเป็นอย่างไร หากไม่มีวิธีที่เชื่อถือได้ในการตรวจจับ Deepfake (และสื่อปลอมรูปแบบอื่นๆ) ข้อมูลที่ผิดอาจลุกลามและทำให้ความเชื่อมั่นของผู้คนในสังคมและสถาบันลดลง

ผลกระทบของ Deepfakes

อะไรคืออันตรายของการปล่อยให้ของปลอมแพร่ระบาดโดยไม่ได้ตรวจสอบ?

หนึ่งในปัญหาที่ใหญ่ที่สุดที่ Deepfakes สร้างขึ้นในปัจจุบันคือภาพอนาจารที่ไม่ได้รับความยินยอม ซึ่งออกแบบโดยการผสมผสานใบหน้าของผู้คนเข้ากับวิดีโอและภาพอนาจาร นักจริยธรรมของ AI กังวลว่า Deepfakes จะมีประโยชน์มากขึ้นในการสร้างสื่อลามกปลอมเพื่อแก้แค้น นอกเหนือจากนี้ Deepfakes อาจถูกใช้เพื่อกลั่นแกล้งและสร้างความเสียหายต่อชื่อเสียงของใครก็ตาม เนื่องจากสามารถใช้เพื่อทำให้ผู้คนตกอยู่ในสถานการณ์ที่มีการโต้เถียงและประนีประนอม

บริษัทต่างๆ และผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์แสดงความกังวลเกี่ยวกับการใช้ Deepfake เพื่ออำนวยความสะดวกในการหลอกลวง การฉ้อโกง และการขู่กรรโชก ถูกกล่าวหาว่าปลอมแปลงเสียง ใช้ในการโน้มน้าวใจพนักงาน ของบริษัทเพื่อโอนเงินให้พวกสแกมเมอร์

เป็นไปได้ว่าของปลอมอาจมีผลเสียมากกว่าที่ระบุไว้ข้างต้น Deepfakes อาจทำลายความเชื่อมั่นของผู้คนที่มีต่อสื่อโดยทั่วไป และทำให้ผู้คนแยกความแตกต่างระหว่างข่าวจริงและข่าวปลอมได้ยาก หากวิดีโอจำนวนมากบนเว็บเป็นของปลอม รัฐบาล บริษัท และหน่วยงานอื่นๆ จะตั้งข้อสงสัยเกี่ยวกับการโต้เถียงที่ถูกต้องตามกฎหมายและการปฏิบัติที่ผิดจรรยาบรรณได้ง่ายขึ้น

เมื่อพูดถึงรัฐบาล ของปลอมอาจเป็นภัยคุกคามต่อการดำเนินการของระบอบประชาธิปไตย ระบอบประชาธิปไตยกำหนดให้ประชาชนสามารถตัดสินใจเกี่ยวกับนักการเมืองโดยอาศัยข้อมูลที่เชื่อถือได้ ข้อมูลที่ผิดบ่อนทำลายกระบวนการประชาธิปไตย ตัวอย่างเช่น ประธานาธิบดีของกาบอง อาลี บองโก ปรากฏตัวในวิดีโอที่พยายามสร้างความมั่นใจให้กับพลเมืองกาบอง ประธานาธิบดีสันนิษฐานว่าไม่สบายเป็นเวลานานและปรากฏตัวอย่างกะทันหันใน วิดีโอปลอมที่น่าจะเป็นจุดเริ่มต้นของการพยายามทำรัฐประหาร ประธานาธิบดีโดนัลด์ ทรัมป์อ้างว่ามีการบันทึกเสียงที่เขาโม้เกี่ยวกับการจับอวัยวะเพศผู้หญิง เป็นของปลอมแม้จะอธิบายว่าเป็น "การพูดคุยในห้องล็อกเกอร์" เจ้าชายแอนดรูว์ด้วย อ้างว่าภาพที่ทนายของ Emily Maitilis ให้มานั้นเป็นของปลอมแม้ว่าทนายความจะยืนยันในความถูกต้อง

ท้ายที่สุด แม้ว่าจะมีการใช้เทคโนโลยี Deepfake อย่างถูกกฎหมาย แต่ก็ยังมีอันตรายมากมายที่อาจเกิดขึ้นจากการใช้เทคโนโลยีนั้นในทางที่ผิด ด้วยเหตุผลดังกล่าว การสร้างและบำรุงรักษาวิธีการตรวจสอบความถูกต้องของสื่อจึงมีความสำคัญอย่างยิ่ง

บล็อกเกอร์และโปรแกรมเมอร์ที่มีความเชี่ยวชาญด้าน เครื่องเรียนรู้ และ การเรียนรู้ลึก ๆ หัวข้อ Daniel หวังว่าจะช่วยให้ผู้อื่นใช้พลังของ AI เพื่อประโยชน์ทางสังคม