การแพทย์
โมเดล AI ที่ฝึกอบรมด้วยข้อมูลที่มีอคติทางเพศทำงานได้ไม่ดีในการวินิจฉัยโรค

เมื่อเร็วๆ นี้ มีการศึกษา ที่ตีพิมพ์ ในวารสาร PNAS และดำเนินการโดยนักวิจัยจากอาร์เจนตินา ซึ่งบ่งชี้ว่าการมีข้อมูลการฝึกอบรมที่มีอคติทางเพศจะทำให้โมเดลทำงานได้ไม่ดีในการวินิจฉัยโรคและปัญหาทางการแพทย์อื่นๆ ตามที่รายงานโดย Statnews ทีมนักวิจัยได้ทดลองฝึกอบรมโมเดลโดยที่ผู้ป่วยหญิงมีการแสดงออกน้อยหรือไม่มีการแสดงออกเลย และพบว่าแอลกอริทึมทำงานได้ไม่ดีในการวินิจฉัยพวกเขา ในทำนองเดียวกัน เมื่อผู้ป่วยชายถูกแยกออกหรือมีการแสดงออกน้อย การทำงานของโมเดลก็ไม่ดีเช่นกัน
ในช่วง 5 ปีที่ผ่านมา เมื่อโมเดล AI และการเรียนรู้ของเครื่องจักรกลายเป็นที่นิยมมากขึ้น มีการให้ความสนใจกับปัญหาของชุดข้อมูลที่มีอคติและโมเดลการเรียนรู้ของเครื่องจักรที่มีอคติซึ่งเกิดขึ้นจากชุดข้อมูลเหล่านั้น อคติของข้อมูลในโมเดลการเรียนรู้ของเครื่องจักรสามารถนำไปสู่การประยุกต์ใช้ AI ที่ไม่เหมาะสมและกีดกัน แต่เมื่อพูดถึงการประยุกต์ใช้ทางการแพทย์ ชีวิตของผู้คนอาจตกอยู่ในความเสี่ยง อย่างไรก็ตาม แม้ว่าจะมีการรับรู้ถึงปัญหา แต่มีการศึกษาน้อยที่พยายาม量化ความเสียหายที่เกิดจากชุดข้อมูลที่มีอคติ การศึกษาที่ดำเนินการโดยทีมนักวิจัยพบว่าอคติของข้อมูลอาจมีผลกระทบที่รุนแรงกว่าที่ผู้เชี่ยวชาญหลายคนคาดการณ์ไว้ก่อนหน้านี้
หนึ่งในการใช้งาน AI ที่ได้รับความนิยมมากที่สุดในช่วงไม่กี่ปีที่ผ่านมา ในบริบททางการแพทย์ คือการใช้โมเดล AI เพื่อวินิจฉัยผู้ป่วยโดยอาศัยภาพทางการแพทย์ ทีมนักวิจัยได้วิเคราะห์โมเดลที่ใช้ในการตรวจหาการมีอยู่ของสภาวะทางการแพทย์ต่างๆ เช่น ปอดบวม หัวใจโต หรือヘルニアจากภาพเอ็กซ์เรย์ ทีมนักวิจัยได้ศึกษาสถาปัตยกรรมโมเดลที่เปิดกว้างสามแบบ: Inception-v3, ResNet และ DenseNet-121 โมเดลเหล่านี้ได้รับการฝึกอบรมจากภาพเอ็กซ์เรย์จากสองชุดข้อมูลที่เปิดกว้างซึ่งมาจากมหาวิทยาลัยสแตนฟอร์ดและสถาบันสุขภาพแห่งชาติ แม้ว่าชุดข้อมูลเหล่านั้นจะสมดุลเมื่อพูดถึงการแสดงออกทางเพศ แต่นักวิจัยได้บิดเบือนข้อมูลโดยการแบ่งพวกมันออกเป็นชุดย่อยที่มีการไม่สมดุลทางเพศ
ทีมนักวิจัยได้สร้างชุดข้อมูลฝึกอบรมห้าชุด แต่ละชุดประกอบด้วยอัตราส่วนผู้ป่วยชายและหญิงที่แตกต่างกัน ชุดฝึกอบรมห้าชุดนี้แบ่งออกเป็นดังนี้
- ภาพทั้งหมดเป็นของผู้ป่วยชาย
- ภาพทั้งหมดเป็นของผู้ป่วยหญิง
- 25% ผู้ป่วยชายและ 75% ผู้ป่วยหญิง
- 75% ผู้ป่วยหญิงและ 25% ผู้ป่วยชาย
- 50% ผู้ป่วยชายและ 50% ผู้ป่วยหญิง
หลังจากที่โมเดลได้รับการฝึกอบรมจากชุดย่อยหนึ่งแล้ว ก็ได้รับการทดสอบจากชุดภาพเอ็กซ์เรย์ของผู้ป่วยชายและหญิง มีการค้นพบแนวโน้มที่ชัดเจนซึ่งปรากฏขึ้นในหลายๆ สภาวะทางการแพทย์ ความแม่นยำของโมเดลไม่ดีเมื่อข้อมูลการฝึกอบรมมีการบิดเบือนทางเพศอย่างมาก สิ่งที่น่าสนใจคือหากเพศหนึ่งมีการแสดงออกมากเกินไปในข้อมูลการฝึกอบรม เพศนั้นไม่ได้รับประโยชน์จากความโดดเด่นนั้น ไม่ว่าโมเดลจะถูกฝึกอบรมจากข้อมูลที่มีอคติทางเพศหรือไม่ ก็ไม่ได้ทำงานได้ดีกว่าเมื่อถูกฝึกอบรมจากชุดข้อมูลที่ครอบคลุม
ผู้เขียนอาวุโสของการศึกษา Enzo Ferrante ถูกอ้างถึงโดย Statnews ว่าการศึกษานี้เน้นย้ำถึงความสำคัญของข้อมูลการฝึกอบรมที่มีความหลากหลายและเป็นตัวแทนสำหรับประชากรทั้งหมดที่คุณตั้งใจจะทดสอบโมเดล
ไม่ชัดเจนว่าทำไมโมเดลที่ฝึกอบรมจากเพศหนึ่งจึงทำงานได้ไม่ดีเมื่อนำไปใช้กับอีกเพศหนึ่ง บางส่วนของความแตกต่างอาจเกิดจากความแตกต่างทางสรีรวิทยา แต่ปัจจัยทางสังคมและวัฒนธรรมอาจเป็นสาเหตุของความแตกต่างบางส่วน เช่น ผู้หญิงอาจได้รับการเอ็กซ์เรย์ในระยะที่แตกต่างกันของการดำเนินโรคเมื่อเทียบกับผู้ชาย หากเป็นเช่นนั้น จะส่งผลกระทบต่อคุณลักษณะ (และรูปแบบที่โมเดลเรียนรู้) ที่พบในภาพการฝึกอบรม หากเป็นเช่นนั้น จะทำให้นักวิจัยมีความยากลำบากในการทำให้ข้อมูลไม่มีอคติ เนื่องจากอคติจะถูกฝังอยู่ในข้อมูลผ่านกลไกการเก็บข้อมูล
แม้ว่านักวิจัยบางคนจะให้ความสนใจกับความหลากหลายของข้อมูล แต่พวกเขาก็ไม่มีทางเลือกนอกจากต้องทำงานกับข้อมูลที่มีอคติหรือบิดเบือน สถานการณ์ที่มีความไม่เท่าเทียมกันในการวินิจฉัยโรคจะนำไปสู่ข้อมูลที่ไม่สมดุล ตัวอย่างเช่น ข้อมูลเกี่ยวกับผู้ป่วยมะเร็งเต้านมเก็บจากผู้หญิงเกือบทั้งหมด ในทำนองเดียวกัน โรคออทิสติกแสดงออกต่าง ๆ ระหว่างผู้หญิงและผู้ชาย และด้วยเหตุนี้จึงมีการวินิจฉัยในอัตราที่สูงกว่าในเด็กผู้ชายมากกว่าเด็กผู้หญิง
อย่างไรก็ตาม เป็นสิ่งสำคัญอย่างยิ่งที่นักวิจัยจะต้องควบคุมข้อมูลที่มีอคติและอคติของข้อมูลในทางใดก็ตาม เพื่อจุดประสงค์นั้น การศึกษาที่จะเกิดขึ้นในอนาคตจะช่วยให้นักวิจัยสามารถ量化ผลกระทบของข้อมูลที่มีอคติได้












