Connect with us

ปัญหาการกระจายความรับผิดชอบใน AI สุขภาพ

ผู้นำทางความคิด

ปัญหาการกระจายความรับผิดชอบใน AI สุขภาพ

mm

ในด้านสุขภาพ AI ถูกฝังอยู่ในทุกสิ่ง ตั้งแต่การตัดสินใจทางคลินิกไปจนถึงทรัพยากรบุคคลและทางการเงิน แต่หลายองค์กรยังคงไม่มีการจัดการความเสี่ยงและการมอบหมายที่จำเป็นเพื่อให้แน่ใจว่าเครื่องมือ AI ไม่ทำให้เกิดอันตราย การไม่มีการกำกับดูแลที่มีโครงสร้างหมายความว่าการตัดสินใจที่เกี่ยวข้องกับ AI จะถูกทำโดยไม่มีการรับผิดชอบที่ชัดเจน ทำให้องค์กรต่างๆ ตกอยู่ในความเสี่ยงของการละเมิดจริยธรรมและข้อบังคับ

เมื่อไม่มีใครรับผิดชอบต่อการตัดสินใจและการกระทำของ AI จุดบอดจะขยายตัวอย่างรวดเร็ว ผลที่ตามมาของระบบ AI ที่ตัดสินใจโดยไม่มีการกำกับดูแลมีหลายประการและกว้างขวาง โดยเฉพาะอย่างยิ่งเมื่อชีวิตของคนอยู่ในความเสี่ยง

ปัจจุบันช่องว่างการกำกับดูแล AI ดูเหมือนกับจุดเปลี่ยนในอดีตที่ความเร็วของเทคโนโลยีเพิ่มขึ้นเร็วกว่าที่องค์กรสามารถจัดการได้ เราได้ผ่านเรื่องนี้ไปแล้วกับการประมวลผลคลาวด์ ทีมงานได้นำ SaaS, IaaS และ “shadow IT” มาใช้เพื่อเพิ่มความเร็ว ในขณะที่การกำกับดูแลล้าหลังในเรื่องพื้นฐาน เช่น การจำแนกประเภทข้อมูล การจัดการตัวตนและการเข้าถึง ผู้ให้บริการ และการบันทึก/การตรวจสอบ—ดังนั้นความรับผิดชอบจึงกระจายไปทั่วทีม IT ความมั่นคง การจัดซื้อ และธุรกิจ เรายังได้เห็นเรื่องนี้กับการนำเทคโนโลยีไปใช้ในด้านผู้บริโภคและอุปกรณ์เคลื่อนที่/BYOD โดยที่พนักงานนำอุปกรณ์และแอปพลิเคชันใหม่เข้ามาใน môi trườngที่มีการควบคุมก่อนที่องค์กรจะมีนโยบายที่เต็มที่สำหรับการเข้ารหัส การควบคุมจุดสิ้นสุด การตรวจสอบแอปพลิเคชัน และการค้นหาสิ่งที่สูญหาย ในแต่ละกรณี การนำไปใช้นั้นมีเหตุผลและสร้างคุณค่า—แต่การไม่มีการกำหนดความเป็นเจ้าของที่ชัดเจน การควบคุมมาตรฐาน และการกำกับดูแลตลอดวงจรทำให้เกิดความล้มเหลวที่คาดการณ์ได้ บทเรียนสำหรับ AI คือ การกำกับดูแลไม่สามารถเป็นเรื่องรองได้ มันจะต้องถูกสร้างขึ้นเหมือนโครงสร้างพื้นฐานที่สำคัญ—โดยมีการตัดสินใจที่ชัดเจน การตรวจสอบอย่างต่อเนื่อง และการป้องกันที่บังคับใช้ได้

ปัญหาการกระจายความรับผิดชอบ

การนำ AI ไปใช้อย่างรวดเร็วได้แซงหน้าการพัฒนามาตรฐานการกำกับดูแลและความรับผิดชอบ ทำให้เกิดช่องว่าง “การกระจายความรับผิดชอบ” โดยไม่มีหน่วยงานใดที่รับผิดชอบเมื่อ AI ล้มเหลว

ความรับผิดชอบเป็นปัญหาอยู่แล้วในด้านสุขภาพ และ AI ได้นำความท้าทายใหม่เข้ามา AI ไม่มีตัวตนตามกฎหมาย จึงไม่สามารถถูกฟ้องร้องหรือมีการประกันภัย และไม่สามารถจ่ายค่าชดเชยให้กับเหยื่อได้ ในกระบวนการทางกฎหมาย ความผิดจะต้องถูกโอนไปยังบุคคลหรือองค์กร ไม่ใช่เครื่องมือ

นักวิจัยใน The Lancet วารสารวิจัยทางการแพทย์ชั้นนำ ได้โต้แย้งว่า “โครงสร้างความรับผิดชอบของสถาบันต้องกระจายความรับผิดชอบจากแพทย์ไปสู่องค์กรที่ออกแบบและใช้เครื่องมือ AI” มันชัดเจนว่าคำถามเกี่ยวกับความรับผิดชอบจะคงอยู่ในอนาคต

สหภาพยุโรปกำลังพยายามแก้ไขปัญหานี้ในระดับภูมิภาค โดยการนำเสนอเครื่องมือทางกฎหมายสองชิ้นหลัก: การกระทำ AI ซึ่งควบคุมการใช้ AI ตามระดับความเสี่ยงและเน้นการรักษาการกำกับดูแลของมนุษย์ และ การกำหนดนี้ความรับผิดชอบ AI ซึ่งกำหนดกฎใหม่ที่ทำให้ผู้คนสามารถขอค่าชดเชยสำหรับความเสียหายที่เกิดจาก AI ได้ง่ายขึ้น

แต่การควบคุมเพียงอย่างเดียวไม่สามารถแก้ปัญหาได้ โรงพยาบาลดำเนินงานภายในเครือข่ายที่ซับซ้อนของซัพพลายเออร์ แพทย์ ผู้บริหาร และทีม IT ดังนั้นเมื่อระบบ AI สร้างผลลัพธ์ที่เป็นอันตรายหรือมีอคติ ความรับผิดชอบจะถูกส่งต่อไปยังผู้มีส่วนได้ส่วนเสีย: ซัพพลายเออร์อาจชี้ให้เห็นว่าการใช้งานไม่เหมาะสม แพทย์อาจบอกว่าดีไซน์มีข้อบกพร่อง และผู้นำอาจกล่าวหาว่าข้อบังคับไม่ชัดเจน

ทั้งหมดนี้หมายความว่าความรับผิดชอบถูกกระจาย ทำให้โรงพยาบาลตกอยู่ในความเสี่ยงของการปะทะกันทางกฎหมายครั้งใหญ่

ขั้นตอนปฏิบัติในการปิดช่องว่างการกำกับดูแล

ข่าวดีคือ แม้ว่าจะไม่มีการควบคุมที่ครอบคลุม องค์กรด้านสุขภาพสามารถปิดช่องว่างการกำกับดูแล AI ได้โดยการดำเนินการเชิงรุก เพื่อเริ่มต้น ผู้นำสามารถเริ่มต้นด้วยรายงานขององค์การอนามัยโลก ” จริยธรรมและการกำกับดูแล AI สำหรับสุขภาพ” ซึ่งมีจุดมุ่งหมายเพื่อเพิ่มประสิทธิภาพของ AI ในขณะเดียวกันก็ลดความเสี่ยง

ขั้นตอนที่ระบุไว้ในรายงานนี้มีจุดมุ่งหมายเพื่อปกป้องความเป็นอิสระ ส่งเสริมความเป็นอยู่ที่ดีของมนุษย์และความปลอดภัยสาธารณะ รับประกันความโปร่งใสและความสามารถในการอธิบาย และส่งเสริมความรับผิดชอบและความรับผิดชอบ เพื่อแก้ไขช่องว่างการกำกับดูแล มาเน้นที่สองประเด็นหลังสุดกัน

ดำเนินการตามแนวทางที่เป็นเอกภาพในการกำกับดูแล AI โดยให้แน่ใจว่ามีการกำกับดูแลจากบนลงล่างโดยคณะกรรมการหรือผู้เชี่ยวชาญ ปัจจุบันหลายองค์กรปล่อยให้แต่ละฝ่ายใช้ AI ตามที่เห็นสมควร ทำให้ผู้นำไม่สามารถอธิบายได้ว่าองค์กรใช้เครื่องมือเหล่านี้อย่างไรและที่ไหน ความสามารถในการมองเห็นเป็นสิ่งสำคัญ ดังนั้นให้แน่ใจว่าคุณมีรายชื่อเครื่องมือที่ใช้อยู่ที่ไหนและเพื่ออะไร

สิ่งสำคัญไม่แพ้กันคือการกำหนดเส้นความรับผิดชอบที่ชัดเจนในการใช้งาน AI ตลอดวงจร ซึ่งหมายถึงการกำหนดให้บุคคลหรือฝ่ายใดรับผิดชอบตั้งแต่การซื้อ การตรวจสอบ การใช้งาน การติดตาม และการตอบสนองต่อเหตุการณ์ โรงพยาบาลต้องกำหนดให้ซัพพลายเออร์ปฏิบัติตามมาตรฐานความโปร่งใสและความสามารถในการตรวจสอบ และให้แน่ใจว่าทีมภายในได้รับการฝึกอบรมให้เข้าใจทั้งความสามารถและข้อจำกัดของระบบ AI

สุดท้าย การกำกับดูแลจะต้องถูกนำไปปฏิบัติ ไม่ใช่แค่การบันทึกไว้เท่านั้น ให้ฝังนโยบายไว้ในกระบวนการทำงานโดยการรวมการประเมินความเสี่ยงของ AI เข้ากับกระบวนการซื้อ จัดทำการตรวจสอบประสิทธิภาพของ AI เป็นประจำ และสร้างกลไกสำหรับพนักงานในแนวหน้าในการรายงานข้อกังวลโดยไม่มีการขัดขวาง

ในทางปฏิบัติ การปิดช่องว่างการกำกับดูแลเป็นเรื่องของการนำหลักการมาใช้มากกว่าการแนะนำหลักการใหม่ๆ: มาตรฐานวิธีการนำ AI เข้าสู่องค์กร ระบุว่าใครเป็นเจ้าของมันในแต่ละขั้นตอน และให้แน่ใจว่าประสิทธิภาพของมันถูกตรวจสอบอย่างต่อเนื่อง หากไม่มีวินัยนี้ เครื่องมือ AI จะยังคงนำหน้าโครงสร้างที่ออกแบบมาเพื่อรักษาความปลอดภัยให้กับพวกมัน

ความเสี่ยงที่ซ่อนอยู่: คุณภาพข้อมูล

แม้ว่าโครงสร้างความรับผิดชอบจะพร้อมใช้งาน ความเสี่ยงอีกอย่างที่มักถูกมองข้ามคือความสมบูรณ์ของข้อมูลที่ใช้ในการให้อาหารระบบ AI และวิธีการพัฒนาของระบบเหล่านั้นตามเวลา ระบบ AI ใดๆ ก็มีความน่าเชื่อถือเท่ากับข้อมูลที่ใช้ในการฝึกอบรมและเรียนรู้อย่างต่อเนื่อง และสภาพแวดล้อมข้อมูลของโรงพยาบาลมีชื่อเสียงในเรื่องการกระจายตัว การไม่สอดคล้องกัน และช่องว่าง

ระบบบันทึกสุขภาพ อุปกรณ์ภาพ และแพลตฟอร์มการบริหารมักดำเนินงานในซิลโล ทำให้เกิดความไม่เท่าเทียมที่สามารถส่งผลกระทบต่อผลลัพธ์ของ AI ได้โดยตรง โมเดลที่ได้รับการฝึกอบรมจากชุดข้อมูลที่ไม่สมบูรณ์หรือมีอคติสามารถสร้างคำแนะนำที่มีข้อบกพร่อง ซึ่งอาจไม่ถูกสังเกตเห็นจนกว่าความเสียหายจะเกิดขึ้นแล้ว มันเป็นอันตรายเป็นพิเศษในสถานการณ์ทางคลินิก โดยที่ความคลาดเคลื่อนเล็กๆ ในความแม่นยำสามารถแปลเป็นผลลัพธ์ที่สำคัญสำหรับผู้ป่วย

ปัญหานี้ยังถูกขยายโดย “การเปลี่ยนแปลงของโมเดล” ซึ่งเป็นแนวโน้มของโมเดล AI ที่จะเบี่ยงเบนไปจากคำสั่งและบริบทเมื่อมีข้อมูลเข้ามาในระบบมากขึ้น เมื่อประชากรผู้ป่วยเปลี่ยนแปลง โพรโทคอลการรักษาใหม่ถูกนำมาใช้ และปัจจัยภายนอกส่งผลกระทบต่อการดำเนินงาน ความสมมติฐานพื้นฐานของเครื่องมือ AI สามารถเปลี่ยนแปลงได้ หากไม่มีการติดตามและปรับเทียบอย่างต่อเนื่อง ระบบ AI ที่เคยทำงานได้ดีมาก่อนอาจเริ่มดำเนินการหรือแนะนำวิธีแก้ปัญหาที่ไม่สอดคล้องกับการฝึกอบรม

เพื่อแก้ไขปัญหาการเปลี่ยนแปลงของโมเดล โรงพยาบาลจะต้องปฏิบัติต่อระบบ AI เป็นทรัพย์สินแบบไดนามิกและมีความเสี่ยงสูง แทนที่จะเป็นเครื่องมือแบบคงที่ ซึ่งหมายถึงการนำการตรวจสอบประสิทธิภาพอย่างต่อเนื่องมาใช้ การกำหนดเกณฑ์ความแม่นยำที่ยอมรับได้ และการกำหนดความเป็นเจ้าของสำหรับการฝึกอบรมและตรวจสอบใหม่ การกำกับดูแลข้อมูลจะต้องได้รับการเสริมสร้างด้วยการปฏิบัติที่เป็นมาตรฐานสำหรับคุณภาพข้อมูล การเชื่อมต่อ และการตรวจจับอคติ

หากไม่เผชิญกับความเสี่ยงที่เกี่ยวข้องกับคุณภาพข้อมูลและความเสี่ยงของโมเดล การกำกับดูแล AI ที่ดีที่สุดก็จะล้มเหลว สำหรับระบบ AI สุขภาพ ซึ่งมีคุณภาพเท่ากับข้อมูลที่รองรับ การเพิกเฉยต่อชั้นความเสี่ยงนี้จะสร้างความเสี่ยงต่อความล้มเหลวที่เป็นระบบในอนาคต

ทำถูกต้องก่อนที่จะเริ่มใช้งาน

AI มีศักยภาพในการเปลี่ยนแปลงด้านสุขภาพโดยการปรับปรุงประสิทธิภาพ ความแม่นยำ และผลลัพธ์ของผู้ป่วย แต่หากไม่มีการกำหนดความเสี่ยงที่ชัดเจน ศักยภาพนั้นสามารถกลายเป็นความเสี่ยงได้อย่างรวดเร็ว

โรงพยาบาลไม่สามารถรักษาการกำกับดูแล AI ไว้เพียงการปฏิบัติตามข้อบังคับได้ มันจะต้องถูกปฏิบัติตามเป็นลำดับความสำคัญในการดำเนินงานหลัก: การกำหนดความเป็นเจ้าของ การสร้างการกำกับดูแล และการประเมินอย่างต่อเนื่อง เนื่องจากในด้านสุขภาพ เมื่อมีอะไรผิดพลาด ผลที่ตามมาอาจแย่กว่าการระบุผู้ที่มีความผิด

เอร์โรล วายส์ เข้าร่วม Health-ISAC ในปี 2019 ในตำแหน่ง Chief Security Officer คนแรก และสร้างศูนย์ปฏิบัติการภัยคุกคามที่มีสำนักงานใหญ่อยู่ที่ออร์แลนโด้ รัฐฟลอริด้า เพื่อให้ข้อมูลภัยคุกคามที่มีความหมายและสามารถดำเนินการได้สำหรับมืออาชีพด้าน IT และ infosec ในภาคส่วนด้านสุขภาพ

เอร์โรลมีประสบการณ์มากกว่า 25 ปีในด้านความปลอดภัยของข้อมูล โดยเริ่มต้นอาชีพของเขากับ National Security Agency (NSA) ในการทำการทดสอบการเจาะระบบเครือข่ายที่มีการจำแนกประเภท เขาได้สร้างและบริหารจัดการ Citigroup's Global Cyber Intelligence Center และเป็น Senior Vice President Executive ของทีมความปลอดภัยของข้อมูลระดับโลกของ Bank of America