ต้นขั้ว ใครเป็นผู้รับผิดชอบหาก AI ด้านการดูแลสุขภาพล้มเหลว - Unite.AI
เชื่อมต่อกับเรา

การดูแลสุขภาพ

ใครเป็นผู้รับผิดชอบหาก AI ด้านการดูแลสุขภาพล้มเหลว

mm

การตีพิมพ์

 on

ใครรับผิดชอบเมื่อความผิดพลาดของ AI ในการดูแลสุขภาพทำให้เกิดอุบัติเหตุ การบาดเจ็บ หรือแย่กว่านั้น ขึ้นอยู่กับสถานการณ์ อาจเป็นผู้พัฒนา AI บุคลากรทางการแพทย์ หรือแม้แต่ผู้ป่วย ความรับผิดเป็นปัญหาที่ซับซ้อนและจริงจังมากขึ้นเรื่อยๆ เนื่องจาก AI กลายเป็นเรื่องปกติในวงการแพทย์ ใครเป็นผู้รับผิดชอบเมื่อ AI ผิดพลาด และจะป้องกันอุบัติเหตุได้อย่างไร?

ความเสี่ยงของความผิดพลาดของ AI ในการดูแลสุขภาพ

AI มีประโยชน์ที่น่าทึ่งมากมายในด้านการดูแลสุขภาพ ตั้งแต่ความแม่นยำและความแม่นยำที่เพิ่มขึ้นไปจนถึงเวลาการกู้คืนที่เร็วขึ้น AI กำลังช่วยแพทย์ในการวินิจฉัย ทำการผ่าตัด และให้การดูแลผู้ป่วยของพวกเขาอย่างดีที่สุด น่าเสียดายที่ความผิดพลาดของ AI นั้นเกิดขึ้นได้เสมอ

มีสถานการณ์ที่ผิดพลาดโดย AI มากมายในด้านการดูแลสุขภาพ แพทย์และผู้ป่วยสามารถใช้ AI เป็นเครื่องมือในการตัดสินใจโดยใช้ซอฟต์แวร์เพียงอย่างเดียว หรือ AI สามารถเป็นสมองของอุปกรณ์ทางกายภาพ เช่น หุ่นยนต์ ทั้งสองประเภทมีความเสี่ยง

ตัวอย่างเช่น จะเกิดอะไรขึ้นหากหุ่นยนต์ผ่าตัดที่ขับเคลื่อนด้วย AI ทำงานผิดปกติระหว่างขั้นตอน สิ่งนี้อาจทำให้เกิดการบาดเจ็บรุนแรงหรืออาจถึงขั้นทำให้ผู้ป่วยเสียชีวิตได้ ในทำนองเดียวกัน จะเกิดอะไรขึ้นหากอัลกอริธึมการวินิจฉัยยาแนะนำยาที่ไม่ถูกต้องสำหรับผู้ป่วยและพวกเขาได้รับผลข้างเคียงในทางลบ แม้ว่ายาจะไม่ทำร้ายผู้ป่วย แต่การวินิจฉัยที่ผิดพลาดอาจทำให้การรักษาที่เหมาะสมล่าช้าได้

ต้นตอของความผิดพลาดของ AI เช่นนี้เป็นธรรมชาติของโมเดล AI เอง ปัจจุบัน AI ส่วนใหญ่ใช้ตรรกะ "กล่องดำ" ซึ่งหมายความว่าไม่มีใครสามารถเห็นได้ว่าอัลกอริทึมทำการตัดสินใจอย่างไร AI กล่องดำขาดความโปร่งใส นำไปสู่ความเสี่ยง เช่น ความลำเอียงทางตรรกะการเลือกปฏิบัติและผลลัพธ์ที่ไม่ถูกต้อง น่าเสียดายที่เป็นเรื่องยากที่จะตรวจพบปัจจัยเสี่ยงเหล่านี้จนกว่าจะก่อให้เกิดปัญหาแล้ว

AI ผิดพลาด: ใครจะตำหนิ?

จะเกิดอะไรขึ้นเมื่อเกิดอุบัติเหตุในกระบวนการทางการแพทย์ที่ขับเคลื่อนด้วย AI ความเป็นไปได้ที่ AI จะผิดพลาดจะอยู่ในระดับหนึ่งเสมอ หากมีใครได้รับบาดเจ็บหรือแย่กว่านั้น AI เป็นฝ่ายผิดหรือไม่? ไม่จำเป็น.

เมื่อนักพัฒนา AI เป็นฝ่ายผิด

สิ่งสำคัญคือต้องจำไว้ว่า AI ไม่ใช่แค่โปรแกรมคอมพิวเตอร์ มันเป็นโปรแกรมคอมพิวเตอร์ขั้นสูง แต่ก็ยังเป็นรหัส เช่นเดียวกับซอฟต์แวร์อื่นๆ เนื่องจาก AI ไม่มีความรู้สึกหรือเป็นอิสระเหมือนมนุษย์ จึงไม่สามารถรับผิดชอบต่ออุบัติเหตุได้ AI ไม่สามารถขึ้นศาลหรือถูกตัดสินจำคุกได้

ความผิดพลาดของ AI ในการดูแลสุขภาพน่าจะเป็นความรับผิดชอบของผู้พัฒนา AI หรือผู้เชี่ยวชาญทางการแพทย์ที่ติดตามขั้นตอน ฝ่ายใดเป็นฝ่ายผิดสำหรับอุบัติเหตุอาจแตกต่างกันไปในแต่ละกรณี

ตัวอย่างเช่น นักพัฒนามีแนวโน้มที่จะเป็นฝ่ายผิดหากอคติของข้อมูลทำให้ AI ให้การตัดสินใจหรือการปฏิบัติที่ไม่ยุติธรรม ไม่ถูกต้อง หรือเลือกปฏิบัติ ผู้พัฒนามีหน้าที่รับผิดชอบในการทำให้ AI ทำงานได้ตามที่สัญญาไว้ และให้การรักษาที่ดีที่สุดแก่ผู้ป่วยทุกราย หาก AI ทำงานผิดพลาดเนื่องจากความประมาทเลินเล่อ การกำกับดูแล หรือข้อผิดพลาดในส่วนของผู้พัฒนา แพทย์จะไม่รับผิดชอบ

เมื่อแพทย์หรือแพทย์เป็นฝ่ายผิด

อย่างไรก็ตาม ยังเป็นไปได้ที่แพทย์หรือแม้แต่ผู้ป่วยอาจต้องรับผิดชอบต่อความผิดพลาดของ AI ตัวอย่างเช่น นักพัฒนาซอฟต์แวร์อาจทำทุกอย่างถูกต้อง ให้คำแนะนำอย่างละเอียดแก่แพทย์ และสรุปความเสี่ยงที่เป็นไปได้ทั้งหมด เมื่อถึงเวลาทำหัตถการ แพทย์อาจเหม่อลอย เหนื่อยล้า หลงลืม หรือประมาทเลินเล่อ

การสำรวจแสดง กว่า 40% ของแพทย์ ประสบกับความเหนื่อยหน่ายในการทำงาน ซึ่งอาจนำไปสู่ความไม่ตั้งใจ การตอบสนองช้า และการเรียกคืนความจำที่ไม่ดี หากแพทย์ไม่ตอบสนองความต้องการทางร่างกายและจิตใจของตนเอง และสภาพของแพทย์ทำให้เกิดอุบัติเหตุ นั่นเป็นความผิดของแพทย์

ขึ้นอยู่กับสถานการณ์ ในที่สุดนายจ้างของแพทย์อาจถูกตำหนิว่าเป็นความผิดพลาดของ AI ในด้านการดูแลสุขภาพ ตัวอย่างเช่น จะเกิดอะไรขึ้นหากผู้จัดการในโรงพยาบาลขู่ว่าจะปฏิเสธไม่ให้แพทย์เลื่อนตำแหน่ง หากพวกเขาไม่ยอมรับการทำงานล่วงเวลา สิ่งนี้บังคับให้พวกเขาทำงานหนักเกินไปซึ่งนำไปสู่ความเหนื่อยหน่าย นายจ้างของแพทย์จะต้องรับผิดชอบในสถานการณ์เฉพาะเช่นนี้ 

เมื่อผู้ป่วยเป็นฝ่ายผิด

จะเกิดอะไรขึ้นถ้าทั้งผู้พัฒนา AI และแพทย์ทำทุกอย่างถูกต้อง เมื่อผู้ป่วยใช้เครื่องมือ AI อย่างอิสระ อุบัติเหตุอาจเป็นความผิดของผู้ป่วยได้ AI ผิดพลาดไม่ได้เกิดจากข้อผิดพลาดทางเทคนิคเสมอไป อาจเป็นผลมาจากการใช้งานที่ไม่ดีหรือไม่เหมาะสมได้เช่นกัน

ตัวอย่างเช่น แพทย์อาจอธิบายเครื่องมือ AI ให้ผู้ป่วยฟังอย่างละเอียด แต่พวกเขาเพิกเฉยต่อคำแนะนำด้านความปลอดภัยหรือป้อนข้อมูลที่ไม่ถูกต้อง หากการใช้งานอย่างไม่ระมัดระวังหรือไม่เหมาะสมนี้ส่งผลให้เกิดอุบัติเหตุ ถือว่าเป็นความผิดของผู้ป่วยเอง ในกรณีนี้ พวกเขามีหน้าที่รับผิดชอบในการใช้ AI อย่างถูกต้องหรือให้ข้อมูลที่ถูกต้องและละเลยที่จะทำเช่นนั้น

แม้ว่าผู้ป่วยจะทราบความต้องการทางการแพทย์ของตน แต่พวกเขาอาจไม่ปฏิบัติตามคำแนะนำของแพทย์ด้วยเหตุผลหลายประการ ตัวอย่างเช่น, 24% ของชาวอเมริกันที่ใช้ยาตามใบสั่งแพทย์ รายงานความยากลำบากในการจ่ายค่ายา ผู้ป่วยอาจละเลยการรับประทานยาหรือโกหก AI เกี่ยวกับการรับประทานยา เนื่องจากรู้สึกอายที่ไม่สามารถจ่ายค่ายาได้

หากการใช้งานที่ไม่เหมาะสมของผู้ป่วยเกิดจากการขาดคำแนะนำจากแพทย์หรือผู้พัฒนา AI การตำหนิอาจอยู่ที่อื่น ในที่สุดมันก็ขึ้นอยู่กับว่าอุบัติเหตุหรือข้อผิดพลาดของรูทเกิดขึ้นที่ใด

กฎระเบียบและแนวทางแก้ไขที่เป็นไปได้

มีวิธีป้องกันความผิดพลาดของ AI ในการดูแลสุขภาพหรือไม่? แม้ว่าจะไม่มีขั้นตอนทางการแพทย์ใดที่ปราศจากความเสี่ยงโดยสิ้นเชิง แต่ก็มีวิธีที่จะลดโอกาสที่จะเกิดผลลัพธ์ที่ไม่พึงประสงค์ให้เหลือน้อยที่สุด

กฎระเบียบเกี่ยวกับการใช้ AI ในการดูแลสุขภาพสามารถปกป้องผู้ป่วยจากเครื่องมือและขั้นตอนที่ขับเคลื่อนด้วย AI ที่มีความเสี่ยงสูง อย.ไว้แล้ว กรอบการกำกับดูแลสำหรับอุปกรณ์การแพทย์ AIสรุปข้อกำหนดการทดสอบและความปลอดภัยและกระบวนการตรวจสอบ องค์กรกำกับดูแลด้านการแพทย์ชั้นนำอาจเข้ามาควบคุมการใช้ข้อมูลผู้ป่วยด้วยอัลกอริทึม AI ในอีกไม่กี่ปีข้างหน้า

นอกเหนือจากกฎระเบียบที่เข้มงวด สมเหตุสมผล และละเอียดถี่ถ้วนแล้ว นักพัฒนาควรดำเนินการเพื่อป้องกันสถานการณ์ที่ผิดพลาดโดย AI AI ที่อธิบายได้ หรือที่รู้จักกันในชื่อ white box AI อาจช่วยแก้ปัญหาเรื่องความโปร่งใสและอคติของข้อมูลได้ โมเดล AI ที่อธิบายได้คืออัลกอริทึมที่เกิดขึ้นใหม่ ซึ่งช่วยให้นักพัฒนาและผู้ใช้สามารถเข้าถึงตรรกะของโมเดลได้

เมื่อนักพัฒนา AI แพทย์ และผู้ป่วยสามารถเห็นได้ว่า AI มาถึงข้อสรุปได้อย่างไร การระบุอคติของข้อมูลจะง่ายขึ้นมาก แพทย์ยังสามารถจับข้อเท็จจริงที่ไม่ถูกต้องหรือข้อมูลที่ขาดหายไปได้รวดเร็วยิ่งขึ้น ด้วยการใช้ AI ที่อธิบายได้แทนที่จะเป็น AI แบบกล่องดำ นักพัฒนาและผู้ให้บริการด้านสุขภาพจะสามารถเพิ่มความน่าเชื่อถือและประสิทธิผลของ AI ทางการแพทย์ได้

AI การดูแลสุขภาพที่ปลอดภัยและมีประสิทธิภาพ

ปัญญาประดิษฐ์สามารถทำสิ่งมหัศจรรย์ในวงการแพทย์ได้ แม้กระทั่งการช่วยชีวิต มีความไม่แน่นอนที่เกี่ยวข้องกับ AI อยู่เสมอ แต่นักพัฒนาและองค์กรด้านการดูแลสุขภาพสามารถดำเนินการเพื่อลดความเสี่ยงเหล่านั้นได้ เมื่อเกิดความผิดพลาดของ AI ในด้านการรักษาพยาบาล ที่ปรึกษากฎหมายมักจะกำหนดความรับผิดชอบโดยพิจารณาจากข้อผิดพลาดต้นตอของอุบัติเหตุ

Zac Amos เป็นนักเขียนด้านเทคโนโลยีที่มุ่งเน้นไปที่ปัญญาประดิษฐ์ เขายังเป็นบรรณาธิการคุณสมบัติที่ แฮ็คซึ่งคุณสามารถอ่านผลงานของเขาเพิ่มเติมได้