Connect with us

مشكلة الحسابات الموزعة في تقنيات الصحة الاصطناعية

قادة الفكر

مشكلة الحسابات الموزعة في تقنيات الصحة الاصطناعية

mm

في مجال الصحة، أصبحت تقنيات الصحة الاصطناعية جزءًا لا يتجزأ من كل شيء، بدءًا من القرارات السريرية والإدارة والتمويل. ومع ذلك، لا تزال العديد من المنظمات تفتقر إلى الهياكل اللازمة لإدارة المخاطر اللازمة لضمان أن أدوات الصحة الاصطناعية لا تسبب ضررًا. غياب الإشراف المنظم يعني أن قرارات الصحة الاصطناعية يتم اتخاذها بدون مسؤولية واضحة، مما يعرّض المنظمات لمخاطر انتهاكات أخلاقية وتنظيمية.

عندما لا يكون هناك أحد مسؤولاً عن القرارات والإجراءات التي تتخذها تقنيات الصحة الاصطناعية، سوف تتوسع النقاط العمياء بسرعة. عواقب نظام الصحة الاصطناعية الذي يتخذ قرارات عالية المخاطر بدون إشراف هي عديدة وبعيدة المدى، خاصة عندما تكون حياة الناس على المحك.

اليوم، تشبه الفجوات الحالية في حوكمة الصحة الاصطناعية النقاط التي مررنا بها في الماضي، حيث زادت منحنى التكنولوجيا بسرعة أكبر من قدرة المؤسسات على إدارتها. لقد مررنا بذلك مع الحوسبة السحابية: حيث اعتمدت الفرق السحابية و “التكنولوجيا المظلمة” لتسريع الأمور، في حين تأخر الإشراف في الأمور الأساسية مثل تصنيف البيانات وادارة الهوية والوصول والرقابة على البائعين وسجلات المراقبة ووضوح المسؤولية المشتركة – لذلك أصبحت المسؤولية متفرقة عبر الإدارة والتكنولوجيا والأمن والشراء والإدارة. لقد رأينا ذلك أيضًا مع تكنولوجيا المستهلكين السريعة والجوال/أجهزة الجوال، حيث جلب الموظفون أجهزة جديدة وتطبيقات إلى بيئات خاضعة للتنظيم قبل أن تتمكن المنظمات من وضع سياسات ناضجة لتشفير النقاط النهاية ومراقبة التطبيقات واكتشاف البريد الإلكتروني. في كل حالة، كانت العوامل منطقية وغالبًا ما كانت قيمة خلاقة – لكن غياب الملكية الواضحة والضوابط الموحدة والإشراف على دورة الحياة خلق فشلًا متوقعًا. الدرس لتقنيات الصحة الاصطناعية واضح: لا يمكن أن تكون الحوكمة بعد الفكر؛ يجب بناؤها مثل البنية التحتية الحرجة – عمدًا، مع حقوق القرار المحددة والمراقبة المستمرة والحدود القابلة للتنفيذ.

مشكلة الحسابات الموزعة

تسبق نشر تقنيات الصحة الاصطناعية بسرعة تطوير معايير الحوكمة والمسؤولية، مما يؤدي إلى فجوة “حسابات موزعة” حيث لا يتحمل كيان فردي المسؤولية عند فشل تقنيات الصحة الاصطناعية.

المسؤولية هي بالفعل مشكلة موجودة في مجال الصحة، وقد أضافت تقنيات الصحة الاصطناعية تحديات جديدة. لا توجد هوية قانونية معترف بها لأدوات تقنيات الصحة الاصطناعية، مما يعني أنها لا يمكن أن تُطالب أو تُتأمَن ضد، ولا يمكنها دفع التعويض القانوني للضحايا. في الإجراءات القانونية، يجب نقل الخطأ إلى ممثل إنساني أو شركة، وليس أداة.

يقترح الباحثون في مجلة لانست، وهي مجلة بحثية طبية رائدة، 最近 أن “يجب على هياكل المسؤولية المؤسسية إعادة توزيع المسؤولية من الأطباء إلى المنظمات التي تصمم وتنشر أدوات تقنيات الصحة الاصطناعية”. من الواضح أن هذه الأسئلة حول المسؤولية ستستمر في الوجود في المستقبل.

ت试 الاتحاد الأوروبي معالجة هذه القضايا على نطاق إقليمي. وقد قدمت الكتلة التشريعية两个 أداة تشريعية رئيسية: قانون تقنيات الصحة الاصطناعية، الذي ينظم استخدام تقنيات الصحة الاصطناعية حسب درجة المخاطر ويشدد على الحفاظ على الإشراف البشري؛ وتوجيه مسؤولية تقنيات الصحة الاصطناعية، الذي يُحدد قواعد جديدة تجعل من السهل على الناس الحصول على تعويض عن الأضرار الناجمة عن تقنيات الصحة الاصطناعية.

لكن التنظيم وحده لن يحل المشكلة. تعمل المستشفيات في شبكة معقدة من الموردين والأطباء والإداريين وفرق تكنولوجيا المعلومات، لذلك عندما تنتج نظام تقنيات الصحة الاصطناعية ناتجًا ضارًا أو متحيزًا، يتم نقل المسؤولية مثل الكرة بين أصحاب المصلحة: قد يشير المورد إلى الاستخدام غير الصحيح، وقد يقول الأطباء إن التصميم معيب، وقد يلوم القيادة الغموض التنظيمي.

كل هذا يعني أن المسؤولية موزعة، مما يترك المستشفيات عرضة للمعارك القانونية الكبيرة.

خطوات عملية لسد الفجوات الحوكمة

الخبر السار هو أن المنظمات الصحية يمكن أن تسد الفجوات الحوكمة لتقنيات الصحة الاصطناعية حتى بدون لوائح شاملة. للبدء، يمكن للقادة البدء بتقرير منظمة الصحة العالمية ” الأخلاقيات والحوكمة لتقنيات الصحة الاصطناعية للصحة،” الذي يهدف إلى تحقيق وعد تقنيات الصحة الاصطناعية وتقليل المخاطر.

الخطوات المحددة في هذا التقرير تهدف إلى حماية الاستقلالية وتعزيز رفاهية الإنسان وسلامة العامة، وضمان الشفافية والقابلية للشرح، وتعزيز المسؤولية والمسؤولية. لمعالجة الفجوات الحوكمة، دعنا نركز على النقاطتين الأخيرتين.

نفذ نهجًا موحدًا لإدارة تقنيات الصحة الاصطناعية، مع التأكد من أنه موجه من أعلى بواسطة المجالس أو الخبراء. حاليًا، تسمح العديد من المنظمات للأقسام الفردية باستخدام تقنيات الصحة الاصطناعية حيث يرون مناسبًا، مما يمنع القيادة من شرح كيف وماذا تستخدم هذه الأدوات. الرؤية هي أمر بالغ الأهمية، لذا تأكد من أن لديك قائمة بالدقة بأدوات تستخدم حيث وماذا.

من المهم أيضًا تحديد مسارات واضحة للمسؤولية على مدار دورة حياة تقنيات الصحة الاصطناعية. هذا يعني جعل شخصًا أو قسمًا مسؤولاً عن كل شيء من الشراء والتحقق إلى المراقبة والاستجابة للحوادث. يجب على المستشفيات أن تطلب من الموردين أن يلبيوا معايير الشفافية والمراقبة المحددة، وتضمن أن الفرق الداخلية مدربة على فهم القدرات والقيود الخاصة بنظم تقنيات الصحة الاصطناعية.

أخيرًا، يجب أن تكون الحوكمة تشغيلية، لا مجرد وثائق. ادخل السياسات في سير العمل عن طريق دمج تقييمات مخاطر تقنيات الصحة الاصطناعية في عمليات الشراء، وإجراء مراجعات دورية لأداء تقنيات الصحة الاصطناعية، وإنشاء آليات لتمكين الموظفين في الخطوط الأمامية من الإبلاغ عن المخاوف بدون عائق.

في الممارسة، سد الفجوة الحوكمة أقل حول إدخال مبادئ جديدة وأكثر حول فرض الانضباط: معايير كيفية دخول تقنيات الصحة الاصطناعية إلى المنظمة، تحديد من يملكها في كل مرحلة، وضمان أن أدائها يتم فحصه باستمرار. بدون هذا الانضباط، ستستمر أدوات تقنيات الصحة الاصطناعية في تجاوز الهياكل المصممة لضمان سلامتها.

المخاطر الخفية: جودة البيانات

حتى عندما تكون هياكل المسؤولية موجودة، غالبًا ما يتم تقليل مخاطر أخرى: سلامة البيانات التي تغذي نظم تقنيات الصحة الاصطناعية وكيف تتطور هذه الأنظمة بمرور الوقت. نظام تقنيات الصحة الاصطناعية هو فقط موثوق بنفس البيانات التي يتم تدريبه عليها ويتعلم منها باستمرار، وبيئات بيانات المستشفيات مشهورة بكونها متجزئة وغیر متسقة وملئية بالفجوات.

نظم السجلات الصحية وأجهزة التصوير والأدوات الإدارية غالبًا ما تعمل في منازل، مما يخلق اختلافات يمكن أن تؤثر مباشرة على مخرجات تقنيات الصحة الاصطناعية. يمكن أن ينتج نموذج مدرب على مجموعات بيانات غير كاملة أو متحيزة توصيات معيبة قد تظل غير محسوسة حتى يحدث الضرر. إنها خطيرة بشكل خاص في الإعدادات السريرية، حيث يمكن أن تترجم انحرافات صغيرة في الدقة إلى عواقب كبيرة للمرضى.

يضاف إلى هذه القضية ” انحراف النموذج “:倾向 نظم تقنيات الصحة الاصطناعية إلى الانحراف عن الإرشادات والسياق مع دخول المزيد من البيانات إلى النظام.随着 تطور السكان المرضى وطرح بروتوكولات علاجية جديدة وتأثير العوامل الخارجية على العمليات، يمكن أن تتغير افتراضات أساسية لأدوات تقنيات الصحة الاصطناعية. بدون مراقبة مستمرة وإعادة تعيين، نظام تقنيات الصحة الاصطناعية الذي كان يؤدي أداءً موثوقًا قد يبدأ في اتخاذ إجراءات أو اقتراح حلول تختلف عن تدريبه.

لمعالجة انحراف النموذج، يجب على المستشفيات معاملة نظم تقنيات الصحة الاصطناعية كأصول ديناميكية عالية الخطورة وليس أدوات ساكنة. هذا يعني تنفيذ مراقبة الأداء المستمرة، وإنشاء حدود واضحة للدقة المقبولة، وضمان ملكية إعادة التدريب والتحقق. يجب أيضًا تعزيز حوكمة البيانات، مع ممارسات موحدة لجودة البيانات والتفاعل والكشف عن التحيز.

بدون مواجهة المخاطر المرتبطة بجودة البيانات وانحراف النموذج، ستكون أفضل إطارات حوكمة تقنيات الصحة الاصطناعية ناقصة. بالنسبة لأنظمة تقنيات الصحة الاصطناعية في مجال الصحة، التي لا تكون جيدة إلا بنفس البيانات التي تعتمد عليها، إهمال هذه الطبقة من المخاطر يخلق إمكانية فشل نظامي في وقت ما.

احصل على الأمر الصحيح قبل تشغيله

تملك تقنيات الصحة الاصطناعية إمكانية تحويل مجال الصحة من خلال تحسين الكفاءة والدقة ومخرجات المرضى. لكن بدون ملكية واضحة للمخاطر التي تطرحها، يمكن أن يصبح هذا الإمكانية سريعًا عبئًا.

لا يمكن للمستشفيات أن تعامل حوكمة تقنيات الصحة الاصطناعية كتمرين على الامتثال. يجب أن تعاملها كأولوية تشغيلية أساسية: حدد الملكية، وحدد الإشراف، وتقييم باستمرار. لأن في مجال الصحة، عندما يحدث شيء خاطئ، يمكن أن تكون العواقب أسوأ بكثير من من هو على خطأ.

انضم إرول وايس إلى Health-ISAC في عام 2019 كأول مسؤول أمن رئيسي وقام بإنشاء مركز عمليات التهديدات في أورلاندو، فلوريدا لتوفير استخبارات التهديدات المهمة والقابلة للتنفيذ لمحترفي تكنولوجيا المعلومات وأمن المعلومات في قطاع الرعاية الصحية.

إرول لديه أكثر من 25 عامًا من الخبرة في أمن المعلومات بدءًا من مسيرته المهنية مع وكالة الأمن القومي (NSA) في إجراء اختبارات الاختراق للشبكات المصنفة.قام بإنشاء وتشغيل مركز الاستخبارات السيبرانية العالمي في سيتي جروب و كان نائب الرئيس التنفيذي في فريق أمن المعلومات العالمي في بنك أمريكا.