Connect with us

ข้อมูลสังเคราะห์ไม่ได้ปกป้องความเป็นส่วนตัวได้อย่างน่าเชื่อถือ นักวิจัยอ้างว่า

การแพทย์

ข้อมูลสังเคราะห์ไม่ได้ปกป้องความเป็นส่วนตัวได้อย่างน่าเชื่อถือ นักวิจัยอ้างว่า

mm

การวิจัยร่วมใหม่ระหว่างฝรั่งเศสและสหราชอาณาจักร ทำให้เกิดความสงสัยเกี่ยวกับความมั่นใจที่เพิ่มขึ้นในอุตสาหกรรมที่ว่าข้อมูลสังเคราะห์สามารถแก้ไขปัญหาความเป็นส่วนตัว คุณภาพ และความพร้อมใช้งาน (รวมถึงปัญหาอื่นๆ) ที่คุกคามความก้าวหน้าในภาคเครื่องจักรเรียนรู้

ในหมู่จุดสำคัญหลายประการที่กล่าวถึง ผู้เขียนยืนยันว่าข้อมูลสังเคราะห์ที่สร้างแบบจำลองจากข้อมูลจริงยังคงมีข้อมูลที่แท้จริงเพียงพอเพื่อให้ไม่มีการปกป้องความเป็นส่วนตัวที่เชื่อถือได้จากการโจมตีแบบอนุมานและสมาชิก ซึ่งมุ่งหมายที่จะทำให้ข้อมูลไม่มี匿ชื่อและเชื่อมโยงกลับกับบุคคลจริง

นอกจากนี้ บุคคลที่มีความเสี่ยงสูงสุดจากการโจมตีดังกล่าว รวมถึงผู้ที่มีโรคทางการแพทย์ที่รุนแรงหรือค่าใช้จ่ายในโรงพยาบาลสูง (ในกรณีการทำให้บันทึกทางการแพทย์ไม่มี匿ชื่อ) มีแนวโน้มที่จะถูกระบุได้อีกครั้งโดยใช้เทคนิคเหล่านี้ผ่านลักษณะ ‘ผิดปกติ’ ของสภาพของพวกเขา

รายงานวิจัยระบุ:

‘เมื่อได้รับข้อมูลชุดข้อมูลสังเคราะห์ ผู้โจมตีที่มีกลยุทธ์สามารถอนุมานได้ด้วยความมั่นใจสูงเกี่ยวกับการมีอยู่ของบันทึกเป้าหมายในข้อมูลดั้งเดิม’

รายงานยังระบุด้วยว่า ข้อมูลสังเคราะห์ที่มีการปกป้องความเป็นส่วนตัวแบบแตกต่าง ซึ่งบดบังลายเซ็นของบันทึกแต่ละรายการ จริงๆ แล้วปกป้องความเป็นส่วนตัวของบุคคล แต่เพียงแต่โดยการทำให้ระบบการค้นหาข้อมูลที่ใช้มันเสียหายอย่างมาก

หากมีอะไร นักวิจัยสังเกตเห็นว่าแนวทางที่มีการปกป้องความเป็นส่วนตัวแบบแตกต่าง – ซึ่งใช้ ‘ข้อมูลจริง’ ‘ที่ระยะหนึ่ง’ ผ่านข้อมูลสังเคราะห์ – ทำให้สถานการณ์ด้านความปลอดภัย แย่ มากกว่าที่จะเป็นอย่างอื่น:

‘[ชุดข้อมูลสังเคราะห์] ไม่ได้ให้ความโปร่งใสเกี่ยวกับการแลกเปลี่ยนนี้ ไม่สามารถคาดเดาได้ว่าลักษณะข้อมูลใดจะถูกเก็บรักษาและรูปแบบใดจะถูกยับยั้ง’

รายงานวิจัยใหม่ รายงาน ที่มีชื่อว่า ข้อมูลสังเคราะห์ – วันแห่งการทำให้ไม่มี匿ชื่อ มาจากนักวิจัยสองคนจาก École Polytechnique Fédérale de Lausanne (EPFL) ในปารีส และนักวิจัยหนึ่งคนจาก University College London (UCL)

นักวิจัยได้ทำการทดสอบอัลกอริทึมการฝึกอบรมแบบจำลองที่มีการปกป้องความเป็นส่วนตัวที่มีอยู่ และพบว่าการตัดสินใจในการใช้งานบางอย่างละเมิดการรับประกันความเป็นส่วนตัวอย่างเป็นทางการที่ให้ไว้ในโครงสร้าง ทำให้บันทึกที่หลากหลายตกอยู่ในความเสี่ยงจากการโจมตีแบบอนุมาน

ผู้เขียนเสนออัลกอริทึมที่ได้รับการแก้ไขซึ่งอาจช่วยบรรเทาผลกระทบเหล่านี้ และกำลังเผยแพร่ โค้ด เป็นไลบรารีที่เปิดให้ใช้งาน นักวิจัยอ้างว่าสิ่งนี้จะช่วยให้นักวิจัยสามารถประเมินผลประโยชน์ด้านความเป็นส่วนตัวของข้อมูลสังเคราะห์ได้ และเปรียบเทียบวิธีการทำให้ไม่มี

นักเขียนด้านการเรียนรู้ของเครื่องจักร ผู้เชี่ยวชาญด้านสังเคราะห์ภาพมนุษย์ อดีตหัวหน้าฝ่ายวิจัยเนื้อหาที่ Metaphysic.ai