اتصل بنا للحصول على مزيد من المعلومات

تسخير الذكاء الاصطناعي من أجل عالم أكثر صحة: ضمان تعزيز الذكاء الاصطناعي لرعاية المرضى، وليس تقويضها

قاده التفكير

تسخير الذكاء الاصطناعي من أجل عالم أكثر صحة: ضمان تعزيز الذكاء الاصطناعي لرعاية المرضى، وليس تقويضها

mm

على مدى قرون، شكّلت التقنيات الحديثة الطب. من سماعة الطبيب إلى أجهزة التصوير بالرنين المغناطيسي، غيّر الابتكار طريقة تشخيص المرضى وعلاجهم ورعايتهم. ومع ذلك، قوبلت كل خطوة إلى الأمام بتساؤلات: هل ستخدم هذه التقنية المرضى حقًا؟ هل يمكن الوثوق بها؟ وماذا يحدث عندما تُعطى الأولوية للكفاءة على التعاطف؟

الذكاء الاصطناعي هو أحدث آفاق هذا التطور المستمر. فهو يمتلك القدرة على تحسين التشخيص، وتحسين سير العمل، وتوسيع نطاق الوصول إلى الرعاية الصحية. لكن الذكاء الاصطناعي ليس بمنأى عن الأسئلة الجوهرية نفسها التي رافقت كل تقدم طبي سبقه.

ليس القلق بشأن ما إذا كان الذكاء الاصطناعي سيُغير الصحة، فهو يُحدث تغييرًا بالفعل. السؤال هو: هل سيُحسّن رعاية المرضى أم سيُنشئ مخاطر جديدة تُقوّضها؟ يعتمد الجواب على خيارات التنفيذ التي نتخذها اليوم. مع تزايد انخراط الذكاء الاصطناعي في النظم الصحية، تظل الحوكمة المسؤولة أمرًا حتميًا. يتطلب ضمان تعزيز الذكاء الاصطناعي لرعاية المرضى بدلًا من تقويضها توازنًا دقيقًا بين الابتكار والتنظيم والرقابة الأخلاقية.

معالجة المعضلات الأخلاقية في تقنيات الصحة المعتمدة على الذكاء الاصطناعي 

تُدرك الحكومات والهيئات التنظيمية بشكل متزايد أهمية مواكبة التطورات السريعة في مجال الذكاء الاصطناعي. وتُناقش المناقشات في مؤتمر جائزة الأمير ماهيدول (PMAC) في بانكوك، شدّدت على ضرورة وجود لوائح تنظيمية قائمة على النتائج وقابلة للتكيف، قادرة على التطور مع تقنيات الذكاء الاصطناعي الناشئة. فبدون حوكمة استباقية، ثمة خطر من أن يُفاقم الذكاء الاصطناعي أوجه عدم المساواة القائمة أو يُدخل أشكالاً جديدة من التحيز في تقديم الرعاية الصحية. ويجب معالجة المخاوف الأخلاقية المتعلقة بالشفافية والمساءلة والإنصاف.

إن التحدي الرئيسي هو عدم القدرة على الفهم في العديد من نماذج الذكاء الاصطناعي - والتي تعمل غالبًا كـ "مربعات سوداء"التي تُصدر توصيات دون تفسيرات واضحة. إذا لم يفهم الطبيب تمامًا كيفية وصول نظام الذكاء الاصطناعي إلى التشخيص أو خطة العلاج، فهل ينبغي الوثوق به؟ يثير هذا الغموض تساؤلات جوهرية حول المسؤولية: إذا أدى قرارٌ مدفوعٌ بالذكاء الاصطناعي إلى ضرر، فمن المسؤول - الطبيب، أم المستشفى، أم مطور التكنولوجيا؟ بدون حوكمة واضحة، لا يمكن ترسيخ الثقة العميقة في الرعاية الصحية المدعومة بالذكاء الاصطناعي.

من القضايا المُلحة الأخرى تحيز الذكاء الاصطناعي ومخاوف خصوصية البيانات. تعتمد أنظمة الذكاء الاصطناعي على مجموعات بيانات ضخمة، ولكن إذا كانت هذه البيانات غير كاملة أو غير مُمثلة، فقد تُعزز الخوارزميات الفوارق القائمة بدلاً من تقليصها. إضافةً إلى ذلك، في مجال الرعاية الصحية، حيث تعكس البيانات معلومات شخصية عميقة، يُعدّ حماية الخصوصية أمرًا بالغ الأهمية. فبدون رقابة كافية، قد يُعمّق الذكاء الاصطناعي، دون قصد، أوجه عدم المساواة بدلاً من إنشاء أنظمة أكثر عدلًا وسهولة في الوصول.

من الأساليب الواعدة لمعالجة المعضلات الأخلاقية، إنشاء صناديق تنظيمية تجريبية، تتيح اختبار تقنيات الذكاء الاصطناعي في بيئات مُتحكم بها قبل نشرها بالكامل. تُساعد هذه الأطر على تحسين تطبيقات الذكاء الاصطناعي، وتخفيف المخاطر، وبناء الثقة بين أصحاب المصلحة، مما يضمن بقاء سلامة المرضى على رأس الأولويات. إضافةً إلى ذلك، تُتيح صناديق التنظيم التجريبية فرصةً للمراقبة المستمرة والتعديلات الفورية، مما يُمكّن الجهات التنظيمية والمطورين من تحديد التحيزات المحتملة، والعواقب غير المقصودة، أو نقاط الضعف في مرحلة مُبكرة من العملية. باختصار، تُسهّل هذه الصناديق نهجًا ديناميكيًا وتكراريًا يُمكّن الابتكار ويُعزز المساءلة في الوقت نفسه.

الحفاظ على دور الذكاء البشري والتعاطف

إلى جانب التشخيص والعلاج، للوجود الإنساني في حد ذاته قيمة علاجية. فكلمة مطمئنة، أو لحظة فهم صادق، أو لمسة حنونة، كفيلة بتخفيف القلق وتحسين صحة المريض بطرق لا يمكن للتكنولوجيا تقليدها. فالرعاية الصحية ليست مجرد سلسلة من القرارات السريرية، بل هي مبنية على الثقة والتعاطف والتواصل الشخصي.

الرعاية الفعّالة للمرضى تتطلب حوارات، لا حسابات فحسب. إذا حوّلت أنظمة الذكاء الاصطناعي المرضى إلى نقاط بيانات بدلًا من أفراد ذوي احتياجات فريدة، فإن هذه التقنية تُخفق في تحقيق هدفها الأساسي. تتزايد المخاوف بشأن اتخاذ القرارات بواسطة الذكاء الاصطناعي، لا سيما فيما يتعلق بالتغطية التأمينية. في كاليفورنيا، ما يقرب من ربع من مطالبات التأمين الصحي رُفضت العام الماضي، وهو اتجاهٌ سائدٌ على مستوى البلاد. يحظر قانونٌ جديدٌ الآن على شركات التأمين استخدام الذكاء الاصطناعي وحده لرفض التغطية، مما يضمن حُكمًا بشريًا محوريًا. وقد اشتد هذا الجدل مع رفع دعوى قضائية ضد شركة UnitedHealthcare، زاعمةً أن أداة الذكاء الاصطناعي الخاصة بها، nH Predict، رفضت مطالباتٍ للمرضى المسنين ظلمًا، بنسبة خطأ بلغت 90%. تُؤكد هذه الحالات على ضرورة أن يُكمّل الذكاء الاصطناعي، لا أن يحل محله، الخبرة البشرية في اتخاذ القرارات السريرية، وأهمية الإشراف الدقيق.

لا ينبغي أن يكون الهدف استبدال الأطباء بالذكاء الاصطناعي، بل تمكينهم. يمكن للذكاء الاصطناعي أن يعزز الكفاءة ويقدم رؤى قيّمة، لكن الحكم البشري يضمن أن هذه الأدوات تخدم المرضى بدلًا من... تملي الرعاية الصحية. نادرًا ما يكون الطب إما أبيض أو أسود، فقيود الواقع، وقيم المرضى، والاعتبارات الأخلاقية تُشكل كل قرار. قد يُؤثر الذكاء الاصطناعي على هذه القرارات، لكن الذكاء البشري والتعاطف هما ما يجعل الرعاية الصحية مُركزة حقًا على المريض.

هل يمكن للذكاء الاصطناعي أن يجعل الرعاية الصحية إنسانية مرة أخرى؟ سؤال جيد. في حين أن الذكاء الاصطناعي قادر على التعامل مع المهام الإدارية، وتحليل البيانات المعقدة، وتقديم الدعم المستمر، إلا أن جوهر الرعاية الصحية يكمن في التفاعل البشري - الإنصات، والتعاطف، والفهم. يفتقر الذكاء الاصطناعي اليوم إلى الصفات الإنسانية اللازمة للرعاية الشاملة التي تركز على المريض، وتتسم قرارات الرعاية الصحية بالتعقيد. يجب على الأطباء الموازنة بين الأدلة الطبية، وقيم المرضى، والاعتبارات الأخلاقية، والقيود الواقعية لاتخاذ أفضل القرارات. ما يمكن للذكاء الاصطناعي فعله هو إعفائهم من المهام الروتينية المملة، مما يتيح لهم مزيدًا من الوقت للتركيز على ما يجيدونه.

إلى أي مدى ينبغي أن تكون الذكاء الاصطناعي مستقلاً في مجال الصحة؟

يؤدي كلٌّ من الذكاء الاصطناعي والخبرة البشرية دورًا حيويًا في مختلف قطاعات الصحة، ويكمن مفتاح رعاية المرضى الفعّالة في موازنة نقاط قوتهما. فبينما يُحسّن الذكاء الاصطناعي الدقة والتشخيص وتقييم المخاطر وكفاءة العمليات، يبقى الإشراف البشري بالغ الأهمية. فالهدف، في نهاية المطاف، ليس استبدال الأطباء، بل ضمان أن يكون الذكاء الاصطناعي أداةً تُعزز الرعاية الصحية الأخلاقية والشفافة والمتمحورة حول المريض.

لذلك، يجب تحديد دور الذكاء الاصطناعي في اتخاذ القرارات السريرية بعناية، ويجب تقييم درجة الاستقلالية الممنوحة للذكاء الاصطناعي في مجال الصحة بشكل جيد. هل ينبغي للذكاء الاصطناعي أن يتخذ قرارات العلاج النهائية، أم ينبغي أن يقتصر دوره على الدعم فقط؟إن تحديد هذه الحدود الآن أمر بالغ الأهمية لمنع الاعتماد المفرط على الذكاء الاصطناعي الذي قد يقلل من الحكم السريري والمسؤولية المهنية في المستقبل.

ويميل التصور العام أيضًا إلى الميل نحو هذا النهج الحذر. دراسة أخلاقيات الطب في BMC وجد أن المرضى يشعرون براحة أكبر مع الذكاء الاصطناعي مساعدة بدلاً من أن يحل محل مقدمي الرعاية الصحية، لا سيما في المهام السريرية. في حين أن الكثيرين يعتبرون الذكاء الاصطناعي مقبولاً للوظائف الإدارية ودعم القرار، إلا أن المخاوف لا تزال قائمة بشأن تأثيره على العلاقات بين الطبيب والمريض. يجب علينا أيضاً مراعاة أن الثقة في الذكاء الاصطناعي تختلف باختلاف الفئات السكانية - فالأفراد الأصغر سناً والمتعلمون، وخاصة الرجال، يميلون إلى أن يكونوا أكثر تقبلاً، بينما يُبدي كبار السن والنساء تشككاً أكبر. ومن المخاوف الشائعة فقدان "اللمسة الإنسانية" في تقديم الرعاية.

المناقشات في قمة عمل الذكاء الاصطناعي في باريس، شددت على أهمية هياكل الحوكمة التي تضمن بقاء الذكاء الاصطناعي أداةً للأطباء، لا بديلاً عن اتخاذ القرارات البشرية. يتطلب الحفاظ على الثقة في الرعاية الصحية اهتمامًا مدروسًا، يضمن أن يُعزز الذكاء الاصطناعي، لا أن يُقوّض، العناصر البشرية الأساسية في الطب.

إنشاء الضمانات الصحيحة منذ البداية 

لجعل الذكاء الاصطناعي موردًا قيّمًا في مجال الصحة، يجب بناء الضمانات المناسبة من البداية. ويكمن جوهر هذا النهج في سهولة الشرح. ينبغي إلزام المطورين بتوضيح كيفية عمل نماذج الذكاء الاصطناعي الخاصة بهم - ليس فقط لتلبية المعايير التنظيمية، بل أيضًا لضمان ثقة الأطباء والمرضى بتوصيات الذكاء الاصطناعي وفهمها. يُعدّ الاختبار الدقيق والتحقق من الصحة أمرًا أساسيًا لضمان سلامة أنظمة الذكاء الاصطناعي وفعاليتها وعدالة أدائها. ويشمل ذلك اختبارات التحمل في العالم الواقعي لتحديد التحيزات المحتملة ومنع العواقب غير المقصودة قبل اعتمادها على نطاق واسع.

من غير المرجح أن تُفيد التكنولوجيا المُصممة دون مساهمة من تتأثر بهم. ولكي تُعامل الناس على أنهم أكثر من مجرد مجموع سجلاتهم الطبية، يجب أن تُعزز الرعاية الرحيمة والشخصية والشاملة. ولضمان أن يُراعي الذكاء الاصطناعي الاحتياجات العملية والاعتبارات الأخلاقية، يجب إشراك مجموعة واسعة من الآراء - بما في ذلك آراء المرضى والعاملين في مجال الرعاية الصحية وخبراء الأخلاقيات - في تطويره. ومن الضروري تدريب الأطباء على النظر إلى توصيات الذكاء الاصطناعي بعين ناقدة، بما يعود بالنفع على جميع الأطراف المعنية.

ينبغي وضع حواجز حماية قوية لمنع الذكاء الاصطناعي من إعطاء الأولوية للكفاءة على حساب جودة الرعاية. إضافةً إلى ذلك، تُعد عمليات التدقيق المستمرة ضرورية لضمان التزام أنظمة الذكاء الاصطناعي بأعلى معايير الرعاية، وامتثالها لمبادئ المريض أولاً. ومن خلال موازنة الابتكار مع الرقابة، يُمكن للذكاء الاصطناعي تعزيز أنظمة الرعاية الصحية وتعزيز العدالة الصحية العالمية.

الخاتمة 

مع استمرار تطور الذكاء الاصطناعي، يجب على قطاع الرعاية الصحية تحقيق توازن دقيق بين الابتكار التكنولوجي والتواصل الإنساني. لا يحتاج المستقبل إلى الاختيار بين الذكاء الاصطناعي والتعاطف الإنساني، بل يجب أن يتكاملا، مما يؤدي إلى نظام رعاية صحية فعّال ومركّز على المريض. باحتضان الابتكار التكنولوجي والقيم الأساسية للتعاطف والتواصل الإنساني، يمكننا ضمان أن يكون الذكاء الاصطناعي قوة تحويلية نحو الأفضل في مجال الرعاية الصحية العالمية.

ومع ذلك، يتطلب المضي قدمًا تعاونًا بين مختلف القطاعات، بين صانعي السياسات والمطورين والعاملين في مجال الرعاية الصحية والمرضى. وتُعدّ التنظيمات الشفافة، والنشر الأخلاقي، والتدخلات البشرية المستمرة، عوامل أساسية لضمان أن يكون الذكاء الاصطناعي أداةً تُعزز أنظمة الرعاية الصحية وتُعزز العدالة الصحية العالمية.

الدكتور ريكاردو بابتيستا ليتي طبيبٌ ومدافعٌ عن الصحة العالمية، يتمتع بخبرةٍ في الأمراض المعدية، وأكثر من 15 عامًا في سياسات الصحة. وهو الرئيس التنفيذي لشركة هيلث ايه اي ومؤسس شبكة يونايت للبرلمانيين. عضو سابق في البرلمان البرتغالي، خدم في الخطوط الأمامية خلال جائحة كوفيد-19 والحرب في أوكرانيا. ريكاردو حاصل على شهادات عليا من جامعتي جونز هوبكنز وهارفارد، ويقود حاليًا برامج الصحة العالمية في مستشفى هارفارد شاريتيه وجامعة نوفا.