ผู้นำทางความคิด
ปัญหาการกระจายความรับผิดชอบใน AI สุขภาพ

ในด้านสุขภาพ AI ถูกฝังอยู่ในทุกสิ่ง ตั้งแต่การตัดสินใจทางคลินิกไปจนถึงทรัพยากรบุคคลและทางการเงิน แต่หลายองค์กรยังคงไม่มีการจัดการความเสี่ยงและการมอบหมายที่จำเป็นเพื่อให้แน่ใจว่าเครื่องมือ AI ไม่ทำให้เกิดอันตราย การไม่มีการกำกับดูแลที่มีโครงสร้างหมายความว่าการตัดสินใจที่เกี่ยวข้องกับ AI จะถูกทำโดยไม่มีการรับผิดชอบที่ชัดเจน ทำให้องค์กรต่างๆ ตกอยู่ในความเสี่ยงของการละเมิดจริยธรรมและข้อบังคับ
เมื่อไม่มีใครรับผิดชอบต่อการตัดสินใจและการกระทำของ AI จุดบอดจะขยายตัวอย่างรวดเร็ว ผลที่ตามมาของระบบ AI ที่ตัดสินใจโดยไม่มีการกำกับดูแลมีหลายประการและกว้างขวาง โดยเฉพาะอย่างยิ่งเมื่อชีวิตของคนอยู่ในความเสี่ยง
ปัจจุบันช่องว่างการกำกับดูแล AI ดูเหมือนกับจุดเปลี่ยนในอดีตที่ความเร็วของเทคโนโลยีเพิ่มขึ้นเร็วกว่าที่องค์กรสามารถจัดการได้ เราได้ผ่านเรื่องนี้ไปแล้วกับการประมวลผลคลาวด์ ทีมงานได้นำ SaaS, IaaS และ “shadow IT” มาใช้เพื่อเพิ่มความเร็ว ในขณะที่การกำกับดูแลล้าหลังในเรื่องพื้นฐาน เช่น การจำแนกประเภทข้อมูล การจัดการตัวตนและการเข้าถึง ผู้ให้บริการ และการบันทึก/การตรวจสอบ—ดังนั้นความรับผิดชอบจึงกระจายไปทั่วทีม IT ความมั่นคง การจัดซื้อ และธุรกิจ เรายังได้เห็นเรื่องนี้กับการนำเทคโนโลยีไปใช้ในด้านผู้บริโภคและอุปกรณ์เคลื่อนที่/BYOD โดยที่พนักงานนำอุปกรณ์และแอปพลิเคชันใหม่เข้ามาใน môi trườngที่มีการควบคุมก่อนที่องค์กรจะมีนโยบายที่เต็มที่สำหรับการเข้ารหัส การควบคุมจุดสิ้นสุด การตรวจสอบแอปพลิเคชัน และการค้นหาสิ่งที่สูญหาย ในแต่ละกรณี การนำไปใช้นั้นมีเหตุผลและสร้างคุณค่า—แต่การไม่มีการกำหนดความเป็นเจ้าของที่ชัดเจน การควบคุมมาตรฐาน และการกำกับดูแลตลอดวงจรทำให้เกิดความล้มเหลวที่คาดการณ์ได้ บทเรียนสำหรับ AI คือ การกำกับดูแลไม่สามารถเป็นเรื่องรองได้ มันจะต้องถูกสร้างขึ้นเหมือนโครงสร้างพื้นฐานที่สำคัญ—โดยมีการตัดสินใจที่ชัดเจน การตรวจสอบอย่างต่อเนื่อง และการป้องกันที่บังคับใช้ได้
ปัญหาการกระจายความรับผิดชอบ
การนำ AI ไปใช้อย่างรวดเร็วได้แซงหน้าการพัฒนามาตรฐานการกำกับดูแลและความรับผิดชอบ ทำให้เกิดช่องว่าง “การกระจายความรับผิดชอบ” โดยไม่มีหน่วยงานใดที่รับผิดชอบเมื่อ AI ล้มเหลว
ความรับผิดชอบเป็นปัญหาอยู่แล้วในด้านสุขภาพ และ AI ได้นำความท้าทายใหม่เข้ามา AI ไม่มีตัวตนตามกฎหมาย จึงไม่สามารถถูกฟ้องร้องหรือมีการประกันภัย และไม่สามารถจ่ายค่าชดเชยให้กับเหยื่อได้ ในกระบวนการทางกฎหมาย ความผิดจะต้องถูกโอนไปยังบุคคลหรือองค์กร ไม่ใช่เครื่องมือ
นักวิจัยใน The Lancet วารสารวิจัยทางการแพทย์ชั้นนำ ได้โต้แย้งว่า “โครงสร้างความรับผิดชอบของสถาบันต้องกระจายความรับผิดชอบจากแพทย์ไปสู่องค์กรที่ออกแบบและใช้เครื่องมือ AI” มันชัดเจนว่าคำถามเกี่ยวกับความรับผิดชอบจะคงอยู่ในอนาคต
สหภาพยุโรปกำลังพยายามแก้ไขปัญหานี้ในระดับภูมิภาค โดยการนำเสนอเครื่องมือทางกฎหมายสองชิ้นหลัก: การกระทำ AI ซึ่งควบคุมการใช้ AI ตามระดับความเสี่ยงและเน้นการรักษาการกำกับดูแลของมนุษย์ และ การกำหนดนี้ความรับผิดชอบ AI ซึ่งกำหนดกฎใหม่ที่ทำให้ผู้คนสามารถขอค่าชดเชยสำหรับความเสียหายที่เกิดจาก AI ได้ง่ายขึ้น
แต่การควบคุมเพียงอย่างเดียวไม่สามารถแก้ปัญหาได้ โรงพยาบาลดำเนินงานภายในเครือข่ายที่ซับซ้อนของซัพพลายเออร์ แพทย์ ผู้บริหาร และทีม IT ดังนั้นเมื่อระบบ AI สร้างผลลัพธ์ที่เป็นอันตรายหรือมีอคติ ความรับผิดชอบจะถูกส่งต่อไปยังผู้มีส่วนได้ส่วนเสีย: ซัพพลายเออร์อาจชี้ให้เห็นว่าการใช้งานไม่เหมาะสม แพทย์อาจบอกว่าดีไซน์มีข้อบกพร่อง และผู้นำอาจกล่าวหาว่าข้อบังคับไม่ชัดเจน
ทั้งหมดนี้หมายความว่าความรับผิดชอบถูกกระจาย ทำให้โรงพยาบาลตกอยู่ในความเสี่ยงของการปะทะกันทางกฎหมายครั้งใหญ่
ขั้นตอนปฏิบัติในการปิดช่องว่างการกำกับดูแล
ข่าวดีคือ แม้ว่าจะไม่มีการควบคุมที่ครอบคลุม องค์กรด้านสุขภาพสามารถปิดช่องว่างการกำกับดูแล AI ได้โดยการดำเนินการเชิงรุก เพื่อเริ่มต้น ผู้นำสามารถเริ่มต้นด้วยรายงานขององค์การอนามัยโลก ” จริยธรรมและการกำกับดูแล AI สำหรับสุขภาพ” ซึ่งมีจุดมุ่งหมายเพื่อเพิ่มประสิทธิภาพของ AI ในขณะเดียวกันก็ลดความเสี่ยง
ขั้นตอนที่ระบุไว้ในรายงานนี้มีจุดมุ่งหมายเพื่อปกป้องความเป็นอิสระ ส่งเสริมความเป็นอยู่ที่ดีของมนุษย์และความปลอดภัยสาธารณะ รับประกันความโปร่งใสและความสามารถในการอธิบาย และส่งเสริมความรับผิดชอบและความรับผิดชอบ เพื่อแก้ไขช่องว่างการกำกับดูแล มาเน้นที่สองประเด็นหลังสุดกัน
ดำเนินการตามแนวทางที่เป็นเอกภาพในการกำกับดูแล AI โดยให้แน่ใจว่ามีการกำกับดูแลจากบนลงล่างโดยคณะกรรมการหรือผู้เชี่ยวชาญ ปัจจุบันหลายองค์กรปล่อยให้แต่ละฝ่ายใช้ AI ตามที่เห็นสมควร ทำให้ผู้นำไม่สามารถอธิบายได้ว่าองค์กรใช้เครื่องมือเหล่านี้อย่างไรและที่ไหน ความสามารถในการมองเห็นเป็นสิ่งสำคัญ ดังนั้นให้แน่ใจว่าคุณมีรายชื่อเครื่องมือที่ใช้อยู่ที่ไหนและเพื่ออะไร
สิ่งสำคัญไม่แพ้กันคือการกำหนดเส้นความรับผิดชอบที่ชัดเจนในการใช้งาน AI ตลอดวงจร ซึ่งหมายถึงการกำหนดให้บุคคลหรือฝ่ายใดรับผิดชอบตั้งแต่การซื้อ การตรวจสอบ การใช้งาน การติดตาม และการตอบสนองต่อเหตุการณ์ โรงพยาบาลต้องกำหนดให้ซัพพลายเออร์ปฏิบัติตามมาตรฐานความโปร่งใสและความสามารถในการตรวจสอบ และให้แน่ใจว่าทีมภายในได้รับการฝึกอบรมให้เข้าใจทั้งความสามารถและข้อจำกัดของระบบ AI
สุดท้าย การกำกับดูแลจะต้องถูกนำไปปฏิบัติ ไม่ใช่แค่การบันทึกไว้เท่านั้น ให้ฝังนโยบายไว้ในกระบวนการทำงานโดยการรวมการประเมินความเสี่ยงของ AI เข้ากับกระบวนการซื้อ จัดทำการตรวจสอบประสิทธิภาพของ AI เป็นประจำ และสร้างกลไกสำหรับพนักงานในแนวหน้าในการรายงานข้อกังวลโดยไม่มีการขัดขวาง
ในทางปฏิบัติ การปิดช่องว่างการกำกับดูแลเป็นเรื่องของการนำหลักการมาใช้มากกว่าการแนะนำหลักการใหม่ๆ: มาตรฐานวิธีการนำ AI เข้าสู่องค์กร ระบุว่าใครเป็นเจ้าของมันในแต่ละขั้นตอน และให้แน่ใจว่าประสิทธิภาพของมันถูกตรวจสอบอย่างต่อเนื่อง หากไม่มีวินัยนี้ เครื่องมือ AI จะยังคงนำหน้าโครงสร้างที่ออกแบบมาเพื่อรักษาความปลอดภัยให้กับพวกมัน
ความเสี่ยงที่ซ่อนอยู่: คุณภาพข้อมูล
แม้ว่าโครงสร้างความรับผิดชอบจะพร้อมใช้งาน ความเสี่ยงอีกอย่างที่มักถูกมองข้ามคือความสมบูรณ์ของข้อมูลที่ใช้ในการให้อาหารระบบ AI และวิธีการพัฒนาของระบบเหล่านั้นตามเวลา ระบบ AI ใดๆ ก็มีความน่าเชื่อถือเท่ากับข้อมูลที่ใช้ในการฝึกอบรมและเรียนรู้อย่างต่อเนื่อง และสภาพแวดล้อมข้อมูลของโรงพยาบาลมีชื่อเสียงในเรื่องการกระจายตัว การไม่สอดคล้องกัน และช่องว่าง
ระบบบันทึกสุขภาพ อุปกรณ์ภาพ และแพลตฟอร์มการบริหารมักดำเนินงานในซิลโล ทำให้เกิดความไม่เท่าเทียมที่สามารถส่งผลกระทบต่อผลลัพธ์ของ AI ได้โดยตรง โมเดลที่ได้รับการฝึกอบรมจากชุดข้อมูลที่ไม่สมบูรณ์หรือมีอคติสามารถสร้างคำแนะนำที่มีข้อบกพร่อง ซึ่งอาจไม่ถูกสังเกตเห็นจนกว่าความเสียหายจะเกิดขึ้นแล้ว มันเป็นอันตรายเป็นพิเศษในสถานการณ์ทางคลินิก โดยที่ความคลาดเคลื่อนเล็กๆ ในความแม่นยำสามารถแปลเป็นผลลัพธ์ที่สำคัญสำหรับผู้ป่วย
ปัญหานี้ยังถูกขยายโดย “การเปลี่ยนแปลงของโมเดล” ซึ่งเป็นแนวโน้มของโมเดล AI ที่จะเบี่ยงเบนไปจากคำสั่งและบริบทเมื่อมีข้อมูลเข้ามาในระบบมากขึ้น เมื่อประชากรผู้ป่วยเปลี่ยนแปลง โพรโทคอลการรักษาใหม่ถูกนำมาใช้ และปัจจัยภายนอกส่งผลกระทบต่อการดำเนินงาน ความสมมติฐานพื้นฐานของเครื่องมือ AI สามารถเปลี่ยนแปลงได้ หากไม่มีการติดตามและปรับเทียบอย่างต่อเนื่อง ระบบ AI ที่เคยทำงานได้ดีมาก่อนอาจเริ่มดำเนินการหรือแนะนำวิธีแก้ปัญหาที่ไม่สอดคล้องกับการฝึกอบรม
เพื่อแก้ไขปัญหาการเปลี่ยนแปลงของโมเดล โรงพยาบาลจะต้องปฏิบัติต่อระบบ AI เป็นทรัพย์สินแบบไดนามิกและมีความเสี่ยงสูง แทนที่จะเป็นเครื่องมือแบบคงที่ ซึ่งหมายถึงการนำการตรวจสอบประสิทธิภาพอย่างต่อเนื่องมาใช้ การกำหนดเกณฑ์ความแม่นยำที่ยอมรับได้ และการกำหนดความเป็นเจ้าของสำหรับการฝึกอบรมและตรวจสอบใหม่ การกำกับดูแลข้อมูลจะต้องได้รับการเสริมสร้างด้วยการปฏิบัติที่เป็นมาตรฐานสำหรับคุณภาพข้อมูล การเชื่อมต่อ และการตรวจจับอคติ
หากไม่เผชิญกับความเสี่ยงที่เกี่ยวข้องกับคุณภาพข้อมูลและความเสี่ยงของโมเดล การกำกับดูแล AI ที่ดีที่สุดก็จะล้มเหลว สำหรับระบบ AI สุขภาพ ซึ่งมีคุณภาพเท่ากับข้อมูลที่รองรับ การเพิกเฉยต่อชั้นความเสี่ยงนี้จะสร้างความเสี่ยงต่อความล้มเหลวที่เป็นระบบในอนาคต
ทำถูกต้องก่อนที่จะเริ่มใช้งาน
AI มีศักยภาพในการเปลี่ยนแปลงด้านสุขภาพโดยการปรับปรุงประสิทธิภาพ ความแม่นยำ และผลลัพธ์ของผู้ป่วย แต่หากไม่มีการกำหนดความเสี่ยงที่ชัดเจน ศักยภาพนั้นสามารถกลายเป็นความเสี่ยงได้อย่างรวดเร็ว
โรงพยาบาลไม่สามารถรักษาการกำกับดูแล AI ไว้เพียงการปฏิบัติตามข้อบังคับได้ มันจะต้องถูกปฏิบัติตามเป็นลำดับความสำคัญในการดำเนินงานหลัก: การกำหนดความเป็นเจ้าของ การสร้างการกำกับดูแล และการประเมินอย่างต่อเนื่อง เนื่องจากในด้านสุขภาพ เมื่อมีอะไรผิดพลาด ผลที่ตามมาอาจแย่กว่าการระบุผู้ที่มีความผิด












