Connect with us

يمكن أن يتحدث أي وكيل ذكاء اصطناعي. قليلون يمكن الوثوق بهم

الرعاية الصحية

يمكن أن يتحدث أي وكيل ذكاء اصطناعي. قليلون يمكن الوثوق بهم

mm

الحاجة إلى وكلاء ذكاء اصطناعي في مجال الرعاية الصحية ملحة. في جميع أنحاء الصناعة، الفرق المثقلة بالعمل مشغولة بمهام استهلاك الوقت التي تعوق الرعاية الصحية. يتم بسط الممرضين إلى الحد الأقصى، ومراكز الاتصال بدفعها مشغولة، وترك المرضى في انتظار إجابات للقضايا الفورية.

وكلاء الذكاء الاصطناعي يمكن أن يساعدوا من خلال ملء الفجوات العميقة، وتوسيع نطاق وصول الموظفين السريريين والإداريين، وتقليل الإجهاد لدى موظفي الرعاية الصحية والمرضى على حد سواء. ولكن قبل أن نتمكن من القيام بذلك، نحن بحاجة إلى أساس قوي لبناء الثقة في وكلاء الذكاء الاصطناعي. هذه الثقة لن تأتي من نبرة دافئة أو سلاسة محادثة. إنها تأتي من الهندسة.

حتى مع تزايد الاهتمام بوسائط الذكاء الاصطناعي وترجيح العناوين وعد агентик الذكاء الاصطناعي، قادة الرعاية الصحية – المحاسبون لمرضاهم ومجتمعاتهم – لا يزالون مترددون في نشر هذه التكنولوجيا على نطاق واسع. الشركات الناشئة تروج لقدرات الوكالة التي تتراوح من تلقيم المهام الروتينية مثل جدولة الموعد إلى الاتصالات عالية التأثير والرعاية الصحية. ومع ذلك، لم تثبت معظمها بعد أن هذه التفاعلات آمنة.

الكثير منهم لن يفعل ذلك أبدًا.

الواقع هو أن أي شخص يمكنه تشغيل وكيل صوتي مدعومًا بنموذج لغة كبير (LLM)، وإعطائه نبرة محسنة، وكتابة محادثة مقنعة. هناك منصات كثيرة مثل هذه التي تروج لوسائطها في كل صناعة. قد يبدو وكلاؤهم مختلفين، ولكنهم جميعًا يتصرفون بنفس الطريقة – عرضة للهلوسة، غير قادرين على التحقق من الحقائق الحرجة، وعدم وجود آليات لضمان المساءلة.

هذه النهج – بناء غطاء رقيق حول نموذج LLM التأسيسي – قد تعمل في صناعات مثل البيع بالتجزئة أو الضيافة، ولكنها ستفشل في مجال الرعاية الصحية. النماذج التأسيسية هي أدوات غير عادية، ولكنها في الغالب عامة الغرض؛ لم يتم تدريبها بشكل خاص على البروتوكولات السريرية أو سياسات دافع أو المعايير التنظيمية. حتى وكلاء الأكثر إloquent بنيت على هذه النماذج يمكن أن تتدفق إلى منطقة الهلوسة، والإجابة على الأسئلة التي لا ينبغي لها أن تفعل، أو اختراع الحقائق، أو فشل في التعرف على متى يجب إحضار إنسان إلى الدائرة.

عواقب هذه السلوكيات ليست نظرية. يمكن أن ي混 المرضى، وتعطل الرعاية، وتؤدي إلى إعادة عمل باهظة الثمن. هذا ليس مشكلة ذكاء. إنه مشكلة بنية تحتية.

为了 تشغيل آمن وفعال وموثوق في مجال الرعاية الصحية، وكلاء الذكاء الاصطناعي بحاجة إلى أن يكون أكثر من مجرد أصوات مستقلة في الطرف الآخر من الهاتف. يجب أن يتم تشغيلها بواسطة أنظمة مصممة خصيصًا للسيطرة والسياق والمساءلة. من خبرتي في بناء هذه الأنظمة، هذا ما يبدو عليه في الممارسة.

يمكن أن يجعل التحكم في الاستجابة الهلوسة غير موجودة

وكلاء الذكاء الاصطناعي في مجال الرعاية الصحية لا يمكنهم فقط توليد إجابات معقولة. يجب أن يقدموا الإجابات الصحيحة، كل مرة. هذا يتطلب مجالًا للعمل يمكن السيطرة عليه – آلية تسمح للذكاء الاصطناعي بالفهم وتسهيل المحادثة الطبيعية، ولكن يضمن أن كل استجابة ممكنة محددة بمعايير موافق عليها مسبقًا.

مع معايير التحكم في الاستجابة المدمجة، يمكن لوكلاء الاستجابة فقط الإشارة إلى البروتوكولات الموثقة والإجراءات المحددة مسبقًا والمعايير التنظيمية. يتم استغلال إبداع النموذج لتوجيه التفاعلات بدلاً من إبداع الحقائق. هذا هو كيف يمكن لقادة الرعاية الصحية أن يضمنوا أن خطر الهلوسة يتم القضاء عليه تمامًا – ليس من خلال الاختبار في تجربة أو مجموعة تركيز واحدة، ولكن من خلال تصميم المخاطر من الأرض.

يمكن أن تضمن مخططات المعرفة المتخصصة تبادلات موثوقة

سياق كل محادثة في مجال الرعاية الصحية هو شخصي sâu. شخصان مصابان بداء السكري من النوع 2 قد يعيشان في نفس المنطقة ويناسبون نفس ملف المخاطر. ستختلف أهليتهما لدواء معين بناءً على تاريخهما الطبي، وخطوط إرشادات علاج الطبيب، وخطط التأمين، وقواعد الشكل.

وكلاء الذكاء الاصطناعي ليس فقط بحاجة إلى الوصول إلى هذا السياق، ولكنهم بحاجة إلى القدرة على التفكير معه في الوقت الفعلي. مخطط المعرفة المتخصصة يوفر هذه القدرة. إنه طريقة منظمة لتمثيل المعلومات من مصادر موثوقة متعددة يسمح لوكلاء بالتحقق من ما يسمعونه وضمان أن المعلومات التي يقدمونها دقيقة وشخصية. وكلاء بدون هذه الطبقة قد يبدون على علم، ولكنهم في الواقع يتبعون سير عمل صارم ويملأون الفراغات.

يمكن أن تقيم أنظمة المراجعة القوية الدقة

يمكن أن يغادر مريض مع وكيل الذكاء الاصطناعي ويشعر بالرضا، ولكن العمل لوكيل بعيدًا عن الانتهاء. المنظمات الصحية بحاجة إلى ضمان أن الوكيل لا ينتج فقط معلومات صحيحة، ولكن فهم وفهم التفاعل. هذا هو حيث تأتي أنظمة المعالجة التالية.

يجب أن تكون نظام مراجعة قوي قادرًا على تقييم كل محادثة بنفس مستوى الفحص الدقيق الذي سوف يقدمه مشرف بشري مع كل الوقت في العالم. يجب أن يكون قادرًا على تحديد ما إذا كانت الاستجابة دقيقة، وضمان أن يتم التقاط المعلومات الصحيحة، وتحديد ما إذا كان المتابعة مطلوبة. إذا لم يكن شيء صحيحًا، يجب أن يكون الوكيل قادرًا على رفعها إلى إنسان، ولكن إذا كان كل شيء على ما يرام، يمكن إنهاء المهمة بثقة.

خارج هذه العناصر الأساسية الثلاثة المطلوبة لبناء الثقة، كل بنية وكيل الذكاء الاصطناعي بحاجة إلى إطار أمان وامتثال قوي يحمي بيانات المرضى وضمان أن وكلاء يعملون في حدود المنظمة. يجب أن يتضمن هذا الإطار الالتزام الصارم بمعايير الصناعة الشائعة مثل SOC 2 وHIPAA، ولكن يجب أن يكون لديه أيضًا عمليات بنيت في اختبار التحيز، وتمحو المعلومات الصحية المحمية، وادخار البيانات.

هذه الحماية الأمنية لا تقوم فقط بتحديد مربع الامتثال. إنها تشكل العمود الفقري لنظام موثوق يمكن أن يضمن أن كل التفاعل يتم إدارته على مستوى المرضى والمقدمين.

صناعة الرعاية الصحية لا تحتاج إلى مزيد من الدعاية حول الذكاء الاصطناعي. تحتاج إلى بنية تحتية موثوقة للذكاء الاصطناعي. في حالة وكلاء الذكاء الاصطناعي، لن تكتسب الثقة بقدر ما سوف يتم هندستها.

شايام راجاغوبالان هو المؤسس المشارك والمدير التقني لشركة Infinitus. كما أنه قائد متمرس وعملي، يعمل راجاغوبالان بشكل فعال مع فريقه، يساهم في البرمجة وتقديم الإرشاد بشأن التصميم الفني والمنتج.

قبل انضمامه إلى شركة Infinitus، كان راجاغوبالان مهندسًا برمجيًا، صمم وبنى ونشر أنظمة آمنة للغاية وذات إنتاجية عالية لمشاريع Snap Inc. و منصات تسجيل الدخول وأمان Google. كما قاد فريق الهندسة كمدير للهندسة في شركة القطرا للاستخبارات المتنقلة (التي تم الاستحواذ عليها من قبل Similar Web). بدأ راجاغوبالان مسيرته المهنية في شركة MIPS وNvidia، حيث صمم وبنى معالجات عالية الأداء.