Connect with us

ใครรับผิดชอบเมื่อ AI ในสาธารณสุขล้มเหลว?

การแพทย์

ใครรับผิดชอบเมื่อ AI ในสาธารณสุขล้มเหลว?

mm

ใครรับผิดชอบเมื่อข้อผิดพลาดของ AI ในสาธารณสุขทำให้เกิดอุบัติเหตุ บาดเจ็บ หรือสิ่งที่เลวร้ายกว่านั้น? ขึ้นอยู่กับสถานการณ์ อาจเป็นผู้พัฒนา AI ผู้เชี่ยวชาญด้านสาธารณสุข หรือแม้แต่ผู้ป่วยเอง ความรับผิดชอบเป็นปัญหาที่ซับซ้อนและร้ายแรงมากขึ้นเมื่อ AI มีบทบาทมากขึ้นในสาธารณสุข ใครรับผิดชอบต่อ AI ที่ผิดพลาดและ如何ป้องกันอุบัติเหตุ?

ความเสี่ยงของข้อผิดพลาด AI ในสาธารณสุข

มีประโยชน์ที่น่าประทับใจมากมายของ AI ในสาธารณสุข ตั้งแต่ความแม่นยำและความถูกต้องที่เพิ่มขึ้น ไปจนถึงการฟื้นตัวที่เร็วขึ้น AI ช่วยแพทย์ในการวินิจฉัย การผ่าตัด และการดูแลผู้ป่วยให้ดีที่สุด อย่างไรก็ตาม ข้อผิดพลาดของ AI เป็นเรื่องที่อาจเกิดขึ้นเสมอ

มีหลายสถานการณ์ที่ AI อาจผิดพลาดในด้านสาธารณสุข แพทย์และผู้ป่วยสามารถใช้ AI เป็นเครื่องมือตัดสินใจแบบซอฟต์แวร์หรือ AI อาจเป็นสมองของอุปกรณ์ทางกายภาพ เช่น หุ่นยนต์ ทั้งสองหมวดหมู่มีความเสี่ยง

ตัวอย่างเช่น หากหุ่นยนต์ผ่าตัดที่ใช้ AI มีข้อผิดพลาดระหว่างการผ่าตัด อาจทำให้ผู้ป่วยบาดเจ็บหรือเสียชีวิตได้ ในทำนองเดียวกัน หากอัลกอริทึมการวินิจฉัยยาที่ใช้ AI แนะนำยาที่ไม่เหมาะสมให้กับผู้ป่วย และผู้ป่วยมีผลข้างเคียงที่ไม่พึงประสงค์ แม้ว่ายาไม่ทำให้ผู้ป่วยบาดเจ็บ แต่การวินิจฉัยที่ไม่ถูกต้องอาจทำให้การรักษาที่เหมาะสมล่าช้า

ที่根ของข้อผิดพลาด AI เหล่านี้คือธรรมชาติของโมเดล AI เอง ปัจจุบัน AI ส่วนใหญ่ใช้ตรรกะ “กล่องดำ” หมายความว่าไม่มีใครสามารถเห็นได้ว่าอัลกอริทึมการตัดสินใจอย่างไร กล่องดำ AI ขาดความโปร่งใส่ นำไปสู่ความเสี่ยง เช่น ความเอนเอียงของตรรกะ การเลือกปฏิบัติ และผลลัพธ์ที่ไม่ถูกต้อง ซึ่งไม่幸ดีที่จะตรวจจับปัจจัยเสี่ยงเหล่านี้จนกว่าจะเกิดปัญหาแล้ว

AI ผิดพลาด: ใครรับผิดชอบ?

เมื่อเกิดอุบัติเหตุในกระบวนการแพทย์ที่ใช้ AI ใครรับผิดชอบ? ความเป็นไปได้ที่ AI ผิดพลาดจะอยู่ในไพ่เสมอ หากมีใครบาดเจ็บหรือแย่กว่านั้น AI ต้องรับผิดชอบหรือไม่? ไม่จำเป็นต้องเป็นเช่นนั้น

เมื่อผู้พัฒนา AI ต้องรับผิดชอบ

จำไว้ว่า AI ไม่ใช่ gìอื่นนอกจากโปรแกรมคอมพิวเตอร์ เป็นโปรแกรมคอมพิวเตอร์ที่ซับซ้อน แต่ก็เป็นเพียงโค้ดเช่นเดียวกับซอฟต์แวร์อื่นๆ เนื่องจาก AI ไม่มีสติหรืออิสระเหมือนมนุษย์ จึงไม่สามารถถือว่ารับผิดชอบต่ออุบัติเหตุได้ AI ไม่สามารถไปศาลหรือถูกตัดสินจำคุก

ข้อผิดพลาดของ AI ในสาธารณสุขมักจะเป็นความรับผิดชอบของผู้พัฒนา AI หรือผู้เชี่ยวชาญด้านสาธารณสุขที่ดูแลกระบวนการ ใครที่มีความผิดในอุบัติเหตุอาจแตกต่างกันไปในแต่ละกรณี

ตัวอย่างเช่น หากข้อมูลที่มีอคติทำให้ AI ตัดสินใจไม่ถูกต้องหรือเลือกปฏิบัติ ผู้พัฒนา AI มักจะเป็นผู้รับผิดชอบ ผู้พัฒนา AI ต้องรับรองว่า AI ทำงานตามที่สัญญาไว้และให้การรักษาที่ดีที่สุดแก่ผู้ป่วยทุกคน หาก AI มีข้อผิดพลาดเนื่องจากการละเลยหรือความผิดพลาดของผู้พัฒนา แพทย์จะไม่ต้องรับผิดชอบ

เมื่อแพทย์หรือผู้เชี่ยวชาญด้านสาธารณสุขต้องรับผิดชอบ

อย่างไรก็ตาม ยังเป็นไปได้ที่แพทย์หรือแม้แต่ผู้ป่วยอาจต้องรับผิดชอบต่อ AI ที่ผิดพลาด ตัวอย่างเช่น ผู้พัฒนา AI อาจทำทุกอย่างถูกต้อง ให้คำแนะนำที่ดีแก่แพทย์ และอธิบายความเสี่ยงต่างๆ เมื่อถึงเวลาการผ่าตัด แพทย์อาจไม่สนใจ อ่อนเพลีย ลืมเลือน หรือเพียงแค่ไม่เอาใจใส่

การสำรวจพบว่า แพทย์มากกว่า 40% มีอาการเบื่อหน่ายในการทำงาน ซึ่งอาจทำให้ไม่สนใจ ช้าในการตอบสนอง และความจำไม่ดี หากแพทย์ไม่ดูแลสุขภาพกายและจิตใจของตนเอง และสภาพของแพทย์ทำให้เกิดอุบัติเหตุ นั่นเป็นความรับผิดชอบของแพทย์

ขึ้นอยู่กับสถานการณ์ ผู้จัดการของแพทย์อาจถือว่าเป็นผู้รับผิดชอบต่อข้อผิดพลาด AI ในสาธารณสุข ตัวอย่างเช่น หากผู้จัดการที่โรงพยาบาลขู่ว่าจะไม่เลื่อนตำแหน่งแพทย์หากไม่ยอมทำงานล่วงเวลา ซึ่งบังคับให้แพทย์ทำงานหนักจนเบื่อหน่าย ผู้จัดการของแพทย์อาจถือว่าเป็นผู้รับผิดชอบในสถานการณ์เช่นนี้

เมื่อผู้ป่วยต้องรับผิดชอบ

อะไรจะเกิดขึ้นหากทั้งผู้พัฒนา AI และแพทย์ทุกคนทำทุกอย่างถูกต้อง? เมื่อผู้ป่วยใช้เครื่องมือ AI โดยไม่ได้รับการดูแล อุบัติเหตุอาจเป็นความรับผิดชอบของผู้ป่วย AI ผิดพลาดไม่ใช่เรื่องของข้อผิดพลาดทางเทคนิคเสมอไป แต่อาจเป็นผลมาจากการใช้ที่ไม่เหมาะสมหรือไม่ถูกต้อง

ตัวอย่างเช่น แพทย์อาจอธิบายเครื่องมือ AI ให้กับผู้ป่วยอย่างละเอียด แต่ผู้ป่วยอาจเพิกเฉยต่อคำแนะนำด้านความปลอดภัยหรือป้อนข้อมูลที่ไม่ถูกต้อง หากการใช้ที่ไม่เหมาะสมหรือไม่ถูกต้องนี้ทำให้เกิดอุบัติเหตุ นั่นเป็นความรับผิดชอบของผู้ป่วย ในกรณีนี้ ผู้ป่วยมีความรับผิดชอบในการใช้ AI อย่างถูกต้องหรือให้ข้อมูลที่ถูกต้อง แต่ไม่ได้ทำเช่นนั้น

แม้ว่าผู้ป่วยจะเข้าใจความต้องการทางการแพทย์ของตนเอง แต่พวกเขาอาจไม่ปฏิบัติตามคำแนะนำของแพทย์จากหลายสาเหตุ ตัวอย่างเช่น 24% ของชาวอเมริกันที่ใช้ยาที่สั่งโดยแพทย์ รายงานว่ามีปัญหาในการจ่ายค่ายา รวมถึงสัดส่วนที่มากกว่าสำหรับผู้ที่มีรายได้น้อย ผู้ป่วยอาจข้ามการรับประทานยาหรือโกหก AI เกี่ยวกับการรับประทานยาเพราะอายที่จะไม่สามารถจ่ายค่ายาได้

หากการใช้ที่ไม่เหมาะสมของผู้ป่วยเกิดจากขาดคำแนะนำจากแพทย์หรือผู้พัฒนา AI ความรับผิดชอบอาจอยู่ที่อีกฝ่ายหนึ่ง สุดท้ายแล้วขึ้นอยู่กับว่าความผิดพลาดหรืออุบัติเหตุเกิดขึ้นที่ไหน

การกำกับดูแลและวิธีแก้ปัญหา

มีวิธีใดที่จะป้องกันข้อผิดพลาด AI ในสาธารณสุขหรือไม่? แม้ว่าไม่มีกระบวนการแพทย์ที่ไม่มีความเสี่ยง แต่ก็มีวิธีลดโอกาสของผลลัพธ์ที่ไม่พึงประสงค์

การกำกับดูแลการใช้ AI ในสาธารณสุขสามารถปกป้องผู้ป่วยจากเครื่องมือหรือกระบวนการที่ใช้ AI ที่มีความเสี่ยงสูง FDA มี โครงสร้างการกำกับดูแลสำหรับอุปกรณ์ทางการแพทย์ที่ใช้ AI ซึ่งระบุถึงข้อกำหนดในการทดสอบและความปลอดภัย以及กระบวนการตรวจสอบ องค์กรกำกับดูแลทางการแพทย์หลักอาจเข้ามาควบคุมการใช้ข้อมูลผู้ป่วยกับอัลกอริทึม AI ในอนาคต

นอกเหนือจากกฎระเบียบที่เข้มงวดและสมเหตุสมผล ผู้พัฒนา AI ควรดำเนินการเพื่อป้องกันสถานการณ์ที่ AI ผิดพลาด AI ที่อธิบายได้ (หรือที่เรียกว่า AI กล่องขาว) อาจแก้ไขปัญหาเรื่องความโปร่งใส่และอคติของข้อมูล โมเดล AI ที่อธิบายได้กำลังเปิดตัว ซึ่งช่วยให้ผู้พัฒนาและผู้ใช้สามารถเข้าถึงตรรกะของโมเดลได้

เมื่อผู้พัฒนา AI แพทย์ และผู้ป่วยสามารถเห็นได้ว่า AI ตัดสินใจอย่างไร จะช่วยให้ระบุอคติของข้อมูลได้ง่ายขึ้น แพทย์สามารถจับข้อผิดพลาดหรือข้อมูลที่ไม่ถูกต้องได้เร็วขึ้น โดยการใช้ AI ที่อธิบายได้แทน AI กล่องดำ ผู้พัฒนาและผู้ให้บริการด้านสาธารณสุขสามารถเพิ่มความน่าเชื่อถือและประสิทธิภาพของ AI ในการแพทย์ได้

AI ในสาธารณสุขที่ปลอดภัยและมีประสิทธิภาพ

AI สามารถทำสิ่งที่น่าประทับใจในด้านสาธารณสุขได้ และอาจช่วยชีวิตผู้คนได้ จะมีความไม่แน่นอนบางอย่างที่เกี่ยวข้องกับ AI แต่ผู้พัฒนาและองค์กรด้านสาธารณสุขสามารถดำเนินการเพื่อลดความเสี่ยงเหล่านั้นได้ เมื่อข้อผิดพลาด AI ในสาธารณสุขเกิดขึ้น ทนายความจะพิจารณาความรับผิดชอบตามข้อผิดพลาดที่เกิดขึ้น

Zac Amos เป็นนักเขียนด้านเทคโนโลยีที่มุ่งเน้นไปที่ปัญญาประดิษฐ์ เขายังเป็น Features Editor ที่ ReHack ซึ่งคุณสามารถอ่านงานของเขาเพิ่มเติม