قادة الفكر
النماذج اللغوية الكبيرة غير الخاضعة للرقابة ومأزق الامتثال الصحي

عبر الصناعات، حققت الذكاء الاصطناعي التوليدي (GenAI) اختراقات سريعة في فترة زمنية قصيرة نسبيا. وتدفع هذه التقدمات من قبل نماذج الأساس، والتي يعرّفها تقرير كاليفورنيا حول سياسة الذكاء الاصطناعي المتقدم على أنها “فئة من التكنولوجيا العامة الغرض التي تتطلب موارد كثيرة لإنتاجها، وتتطلب كميات كبيرة من البيانات والحوسبة لإنتاج قدرات يمكن أن تدفع مجموعة متنوعة من تطبيقات الذكاء الاصطناعي المتدفقة”.
وتظهر هذه النماذج اللغوية الكبيرة العامة، مثل Gemini وChatGPT، قوة متزايدة في تكرار وتجاوز القدرات الإدراكية البشرية في مجالات مثل تحليل البيانات والكتابة والاستدلال. وفي مجال الرعاية الصحية على وجه الخصوص، يرتفع استخدام GenAI حيث يبحث العاملون في مجال الرعاية الصحية إلى التكنولوجيا لتقليل العبء الإداري وتسريع العمليات ودعم اتخاذ القرارات السريرية.
然而، بينما تقدم التكنولوجيا وعدا كبيرا، يطرح استخدام GenAI في الرعاية الصحية مخاطر امتثالية إذا لم يتم تنفيذه أو استخدامه بشكل مسؤول. وعلى وجه الخصوص، يأتي استخدام النماذج اللغوية الكبيرة العامة مع مخاطر امتثالية محددة يجب على منظمات الرعاية الصحية فهمها بشكل كامل لمنع انتهاكات الخصوصية أو الأمان. قد تعتمد هذه النماذج على مصادر بيانات غير موثقة، أو تستخدم معلومات صحية للمرضى بطريقة غير مصرح بها، أو تعزز الانحياز والمعلومات غير الدقيقة.
للحفاظ على خصوصية بيانات المرضى، والامتثال لللوائح المتطورة، وتقليل المخاطر الباهظة، يجب على قادة الرعاية الصحية اتخاذ نهج حاسم لتفكيك “القنبلة الزمنية” لاستخدام النماذج اللغوية الكبيرة “غير الخاضعة للرقابة”.
الحالة الراهنة لاستخدام النماذج اللغوية الكبيرة العامة في الرعاية الصحية
عبر الرعاية الصحية، يعتمد الموظفون بشكل متزايد على النماذج اللغوية الكبيرة لدعم المهام اليومية، من العمل الإداري إلى الاتصال مع المرضى. النماذج اللغوية الكبيرة متعددة الوضع توسع أيضًا على هذه التطبيقات بقدرتهم على معالجة النصوص والصور والصوت بسهولة. بالإضافة إلى الدعم الإداري، نشهد أيضًا زيادة في مقدمي الرعاية الذين يلجأون إلى التكنولوجيا لدعم المزيد من المهام السريرية.
وتظهر هذه النماذج بالفعل نتائج بعض ما قد يُعتبره البعض مثيرًا للإعجاب، حيث أظهرت دراسات عديدة أن أداء النماذج اللغوية الكبيرة يصل أو يتجاوز القدرات البشرية في مجالات محددة. على سبيل المثال، نجح نموذج GPT-4 في امتحان الترخيص الطبي الأمريكي بنسبة 86.7%.
الذكاء الاصطناعي الهجين هو نهج جديد ي出现 في استخدام GenAI في الرعاية الصحية، حيث ي 结ب بين تعلم الآلة والنماذج اللغوية الكبيرة لمعالجة التحليلات المعقدة وترجمة النتائج إلى لغة بسيطة. من خلال دمج كلا النموذجين، يهدف هذا النهج إلى التغلب على عيوب النماذج اللغوية الكبيرة، بما في ذلك الوهم والخطأ والانحياز، في حين اللعب لقوته. الذكاء الاصطناعي الوكيل يرتفع أيضًا في الاستخدام لقدرته على توفير المهام الرئيسية دون مدخلات بشرية، مثل الاستجابة لرسائل المرضى أو جدولة المواعيد.
然而، يبرز الإمكانات التي يقدمها الذكاء الاصطناعي أيضًا حاجة ملحة إلى حوكمة أكثر نشاطًا. كلما أصبح هذه الأدوات متأصلة في عمليات الرعاية الصحية، زادت المخاطر المتعلقة بالدقة والسلامة والامتثال.
مخاطر الامتثال للنماذج اللغوية الكبيرة العامة في الرعاية الصحية
في حين أن تبني التكنولوجيا الرقمية في الرعاية الصحية قد فتح إمكانيات جديدة، فقد كشف أيضًا عن نقاط ضعف رئيسية. بين 1 نوفمبر 2023 و 31 أكتوبر 2024، على سبيل المثال، شهد قطاع الرعاية الصحية 1710 حادثة أمنية، 1542 منها تم الكشف عنها كفضح بيانات.
يعمق عصر الذكاء الاصطناعي هذه الشقوق، ويضيف طبقة جديدة من التعقيد إلى الخصوصية والأمان. على وجه الخصوص، يطرح استخدام النماذج اللغوية الكبيرة العامة في الرعاية الصحية مخاطر امتثالية محددة:
مخاطر #1: عدم الشفافية في تطوير النماذج يمنع المراقبة المستمرة أو التحقق
النماذج المغلقة تفتقر إلى الشفافية حول عملية تطويرها، مثل ما هي البيانات الخاصة بالنموذج أو كيف يتم إجراء التحديثات. هذه الغيبة عن الشفافية تمنع المطورين والباحثين من البحث في النموذج لتحديد مصدر المخاطر أو فهم عمليات اتخاذ القرارات. ونتيجة لذلك، يمكن للنماذج المغلقة أن تتيح استخدام مصادر بيانات طبية غير موثقة وتسمح بوجود ثغرات أمنية غير خاضعة للرقابة.
مخاطر #2: تسرب بيانات المرضى
النماذج اللغوية الكبيرة لا تعتمد دائمًا على بيانات المرضى المجهولة. قد تؤدي التحفيزات أو التفاعلات المتخصصة إلى الكشف عن معلومات صحية معرّفة، مما يخلق انتهاكات محتملة لHIPAA.
مخاطر #3: تعزيز الانحياز والمعلومات غير الدقيقة
في تجربة واحدة، قام الباحثون بحقن نسبة صغيرة من الحقائق الخاطئة في فئة واحدة من قاعدة المعرفة للنموذج البيولوجي، مع الحفاظ على سلوكه في جميع المجالات الأخرى. ووجد الباحثون أن المعلومات الخاطئة انتشرت عبر إخراج النموذج، مما يبرز ضعف النماذج اللغوية الكبيرة للهجمات الخاطئة.
أي عيوب وجدت في النماذج الأساسية تُورث جميع النماذج المعتمدة والتطبيقات الناتجة من النموذج الأب. قد تزيد الاختلافات في الإخراج من عدم المساواة الصحية، مثل النصائح غير الدقيقة للمجموعات غير الممثلة.
مخاطر #4: عدم التطابق التنظيمي
استخدام النماذج اللغوية الكبيرة العامة قد لا يمتثل لHIPAA أو GDPR أو اللوائح المحددة للذكاء الاصطناعي، خاصة إذا لم يتمكن البائعون من التحقق من بيانات التدريب. وتتضاعف هذه المخاطر من قبل موظفي منظمات الرعاية الصحية الذين يستخدمون أدوات الذكاء الاصطناعي غير المعتمدة أو غير الخاضعة للرقابة، أو الذكاء الاصطناعي الخفي. وفقًا لشركة IBM، 20% من المنظمات المستجوبة عبر جميع القطاعات عانت من انتهاك أمني بسبب حوادث أمنية تتعلق بالذكاء الاصطناعي الخفي.
في النهاية، تملك مخاطر النماذج اللغوية الكبيرة العامة في الرعاية الصحية آثارًا حقيقية، بما في ذلك الإجراءات القانونية، وتلف السمعة، وفقدان ثقة المرضى، وتكاليف التقاضي.
أفضل الممارسات: إرشادات النماذج اللغوية الكبيرة والاعتبارات
لتبني GenAI بشكل مسؤول، يجب على قادة الرعاية الصحية إنشاء حواجز واضحة لحماية المرضى والمنظمات على حد سواء. يمكن أن تساعد الممارسات التالية منظمات الرعاية الصحية في وضع أساس لاستخدام الذكاء الاصطناعي المسؤول والامتثال:
أفضل ممارسة #1: اختر التكنولوجيا الذكية بحكمة
اطلب وضوحًا من البائعين حول كيفية تطوير التكنولوجيا الذكية وما هي مصادر البيانات المستخدمة في عملية التطوير. أعد الأولوية للأدوات التي تستخدم فقط المحتوى الطبي المعتمد من الخبراء، ولديها عمليات اتخاذ قرارات شفافة، وتتجنب تدريب النماذج على معلومات صحية للمرضى.
أفضل ممارسة #2: بناء حواجز آمنة في حلقة البشر
اكفئ على أن يراجع العاملون الصحيون أي مخرجات محسنة بالذكاء الاصطناعي التي يمكن أن تؤثر على قرارات الرعاية. يمكن أن يكون الذكاء الاصطناعي أداة قوية، ولكن في صناعة تؤثر مباشرة على حياة المرضى، فإن الإشراف السريري هو مفتاح ضمان استخدام مسؤول ودقة أي معلومات مدعومة بالذكاء الاصطناعي.
أفضل ممارسة #3: التدريب والاستعداد القوي للقوى العاملة
أشر إلى العاملين الصحيين والموظفين على فوائد وrisks من استخدام الذكاء الاصطناعي لتقليل تبني الذكاء الاصطناعي الخفي. يعمل العاملون الصحيون في بيئة معقدة، متأثرة بنقص الموظفين ومعدلات الإجهاد العالي. يسهل عملية تعليم الذكاء الاصطناعي على ضمان الامتثال دون إضافة عبء إضافي إلى حمولتهم.
أفضل ممارسة #4: إنشاء ثقافة الحوكمة
دمج التقييمات الخارجية لحلول الذكاء الاصطناعي لتحقق من السلامة والموثوقية والامتثال. بالإضافة إلى ذلك، نفذ إطارًا واضحًا وشاملًا لمراقبة الذكاء الاصطناعي في المنظمة يحدد الموافقة والاستخدام والمراقبة لتعزيز الثقة في التكنولوجيا ومنع الموظفين من اللجوء إلى أدوات غير مصرح بها.
أفضل ممارسة #5: التوجه مع القيادة على رعاية الذكاء الاصطناعي
تعاون مع القيادة للبقاء في طليعة اللوائح المتطورة، وكذلك التوجيه من إدارة الأغذية والأدوية وإدارة المعلومات الصحية. تظهر الجهود التنظيمية على مستوى الولاية. على سبيل المثال، أصدرت كاليفورنيا قانون الشفافية في الذكاء الاصطناعي المتقدم، الذي يؤكد على الكشف عن المخاطر والشفافية والتخفيف، خاصة في بيئات الرعاية الصحية، وهناك أيضًا قانون كولورادو للذكاء الاصطناعي، الذي يهدف إلى منع التمييز الخوارزمي.
أفضل ممارسة #6: المراقبة المستمرة ودورة التغذية الراجعة
يجب ألا يتم التعامل مع استخدام الذكاء الاصطناعي في بيئة الرعاية الصحية بأفكار “تثبيت و












