Connect with us

من الكود إلى العلاج: الثورة القادمة في الذكاء الاصطناعي تحتاج إلى يد (وعين)

قادة الفكر

من الكود إلى العلاج: الثورة القادمة في الذكاء الاصطناعي تحتاج إلى يد (وعين)

mm
A diverse female scientist in smart glasses works alongside a sophisticated dual-arm robotic lab system in a futuristic wet lab.

كيف ستتمكن الأنظمة الذكية والنظارات الذكية وآلات الروبوت من تمكين البشر – وليس استبدالهم

نحن نعيش في مفارقة في مجال الذكاء الاصطناعي.

على الشاشات، يبدو الذكاء الاصطناعي خارقًا. يمكن لنموذج اللغة الكبير كتابة رمز بايثون في ثوانٍ. يمكن للنظم التوليدية إنتاج صور ومقاطع فيديو واقعية في دقائق. وقد تنبأت أنظمة حائزة على جائزة نوبل مثل AlphaFold ببنية معظم البروتينات المعروفة. الإنجازات الرقمية تتراكم.

ومع ذلك، في العالم المادي لأبحاث البيولوجيا، يبقى عملية اكتشاف معالجة يدوية مجهدة. لا نشعر بالذكاء الاصطناعي يعجل بالعلم أو الطب، على الأقل ليس بعد. الأرقام تكشف عن عمق المشكلة. وجد استطلاع هام لما يزيد عن 1500 عالم في مجلة نيتشر أن أكثر من 70٪ منهم حاولوا وفشلوا في إعادة إنتاج تجارب باحث آخر. وما هو أكثر إزعاجًا: لم يتمكن أكثر من نصفهم من إعادة إنتاج عملهم الخاص. في علم الأورام على وجه الخصوص، وجد مشروع قابلية إعادة الإنتاج الذي استمر ثماني سنوات أن فقط 40٪ من النتائج ذات التأثير العالي يمكن تكرارها و 68٪ من التجارب تفتقر إلى توثيق كافٍ حتى محاولة التكرار.

هذا هو السر القذر للعلم الحديث: لدينا مشكلة في 捕获 المعرفة، وليس فقط مشكلة اكتشاف. تعيش التفاصيل التجريبية الحيوية في رؤوس الباحثين، وليس في الأوراق. تتغير البروتوكولات. يغادر المعرفة الضمنية الباب عندما يخرج المتدربون.继承 أنظمة الذكاء الاصطناعي جميع هذه الفجوات.

المشكلة الأساسية هي أن نظام الذكاء الاصطناعي يمكنه تصميم بروتين جديد للعلاج من السرطان في محاكاة رقمية، ولكنه لا يستطيع التقاط أنابيب اختبارها. لا يستطيع التنقل في الواقع المزعج وغير المتوقع لمختبر مائي للتحقق من فرضيته. لا يستطيع مشاهدة يدي عالم خبير وتعلم التقنيات الدقيقة التي تجعل التجارب تعمل.

هذه “فجوة التنفيذ” هي أكبر عائق يمنع ثورة الذكاء الاصطناعي من أن تصبح ثورة طبية. في حين أن معظم شركات الروبوتات ما زالت مشغولة بتعليم الآلات طي الملابس أو تحميل غسالات الأطباق، فهي تتقاطع مع القدرات التحويلية الحقيقية لهذه التطورات في مجالات مثل الطب.

للحل هذه المشكلة، يجب أن نتجاوز محادثات الذكاء الاصطناعي وننتقل نحو مساعدي الذكاء الاصطناعي، الأنظمة الذكية التي تصل بين العالم الرقمي والفيزيائي، وتتجاوز التخطيط والترميز إلى التنفيذ الفعلي. في ستانفورد، نحن نطور LabOS، إطار عمل رقمي-فيزيائي يظهر كيف يمكن للوكلاء الذكائيين، والنظارات الذكية، والروبوتات التعاونية أن تتحد لسد هذه الفجوة، وتحويل التجارب العلمية إلى محادثة تعاونية بين الإنسان والآلة، مع التقاط المعرفة التي تفقد عادة.

الفرق الكبير: لماذا يحتاج الذكاء الاصطناعي إلى “عين” و “يد”

许多 من الانتصارات البارزة في الذكاء الاصطناعي حدثت في أماكن يوجد فيها البيئة رقمية بالكامل: مخازن الشفرة، مجموعات البيانات المحددة، أو معايير المحاكاة (حيث يتنافس الذكاء الاصطناعي على تشغيل عمل تجاري افتراضي أو استثمار رقمي في الأسهم).

المختبرات الرطبة مختلفة. البيولوجيا، وعلم الاكتشاف بشكل عام، هو عملية صاخبة جدًا. تتدفق الأدوات، ويتصرف المشغلون، و “البروتوكول” غالبًا ما يعيش جزئيًا في رؤوس الناس. الفرق بين نتيجة نظيفة و تشغيل فاشل يمكن أن يكون زاوية أنابيب، أو نمط دوار، أو استبدال مادة كيميائية، أو احتضان استمر لمدة 10 دقائق طويلة. هذه التفاصيل السياقية نادرًا ما تظهر في ورقة و هي بالضبط ما يحتاجه نموذج الذكاء الاصطناعي إذا كان سيتمeneralizeeyond مجموعة البيانات.

لذلك، يحتاج الذكاء الاصطناعي من الدرجة المختبرية إلى عيون (لمعرفة ما يحدث في السياق) و أيدي (لتحديد وتحسين الخطوات عالية التباين) وذاكرة (لتسجيل ما حدث بالفعل). بدون هذه القدرات، يمكن للنماذج أن توصي بما يجب فعله، ولكنها لا تستطيع ترجمة التوصيات إلى تنفيذ فيزيائي موثوق به أو تفسير الفشل عندما ي расходится الواقع عن الخطة.

ما وراء محادثات الذكاء الاصطناعي: من مساعدي الطيران إلى مساعدي العلم

مصطلح “الذكاء الاصطناعي الوكيل” يُستخدم أحيانًا بشكل فضفاض. في الإعدادات البيولوجية، يجب أن يعني شيئًا دقيقًا: نظام يمكنه تحديد هدف (على سبيل المثال، “تحسين كفاءة تحرير الجينات CRISPR مع تقليل الأهداف غير المستهدفة”)، وتفكيكه إلى تسلسل من المهام، وتنفيذ هذه المهام عبر أدوات، وتقييم النتائج، وتعديل الخطة في ظل القيود والتحكم في اتخاذ القرارات.

هذا يهم لأن سير عمل البحث ليس مكالمة نموذجية واحدة. إنه خطوط أنابيب نهاية إلى نهاية تمتد عبر صياغة الفرضية، وتصميم التجربة، ومعالجة البيانات، واختبار إحصائي، وتفسير. بدأ التفكير الحديث في اكتشاف الأدوية يؤكد على الأنظمة الوكيلية التي يمكنها توسيع هذه الخطوط الأنابيب بدلاً من تسريع الخطوات الفردية (على سبيل المثال، مناقشة Unite.AI للوكلاء في اكتشاف الجزيئات الصغيرة).

في هندسة البرمجيات، لقد رأينا بالفعل أدلة تجريبية أولية أن مساعدي الذكاء الاصطناعي يمكن أن يزيد من إنتاجية المطور. في الطب البيولوجي، الفرصة المماثلة ليست فقط كتابة رمز، بل كتابة و التحقق من البروتوكولات، و بنية البيانات، و مراقبة التنفيذ، و إغلاق الحلقة بين التنبؤ و القياس، و ربط الذكاء الاصطناعي بالعلماء في المختبرات.

LabOS: عندما يعمل الذكاء الاصطناعي على نظام تشغيل للمختبرات في المستقبل

في عملنا في ستانفورد على AI4Science، و الذي يمتد إلى مساعدي تحرير الجينات مثل CRISPR-GPT و أنظمة التنفيذ المشتركة الذكية مثل LabOS التي تساعد العلماء في مختبرات البيولوجيا و العلوم المواد، لقد كنا نستكشف تحولًا معماريًا:

1. تصميم نظام تشغيل مختبري من النهاية إلى النهاية يربط بين مختبر رقمي (جاف) و مختبر فيزيائي (مائي).

الفرضية بسيطة: إذا كانت دفتر مختبر هو ذاكرة العلم، فإن نظام التشغيل المختبري يجب أن يكون طبقة التنفيذ، و التي 捕获 النية، و ترجمتها إلى إجراءات، و مراقبة النتائج، و تحويل كل تشغيل إلى معرفة منظمة.

[…]

لماذا لا يعتبر الذكاء الاصطناعي من الدرجة المختبرية مجرد “ذكاء اصطناعي على مجموعة بيانات”

النظم الذكية للذكاء الاصطناعي للتفوق العلمي في البيولوجيا غالبًا ما تبدو مثيرة للإعجاب في التقييمات الرجعية أو прохsthrough الاختبارات، ثم تؤدي أداءً ضعيفًا في المختبر الفيزيائي. السبب نادرًا ما يكون خطأً واحدًا. إنه عادةً عدم تطابق بين افتراضات النموذج وواقع المختبر.

ثلاث فجوات تظهر بشكل متكرر:

  • فجوة السياق: غالبًا ما تتجاهل مجموعات البيانات المتغيرات السياقية التي يعرفها المشغلون أنها مهمة (انحرافات درجة الحرارة، أرقام مادة كيميائية، انحرافات دقيقة في البروتوكول).
  • فجوة الإجراء: يمكن للعديد من أنظمة الذكاء الاصطناعي أن توصي بما يجب فعله، ولكنها لا تستطيع ترجمة هذه التوصية إلى إجراءات فيزيائية موثوقة.
  • فجوة التغذية الراجعة: بدون تغذية راجعة منظمة وذات جودة عالية من التنفيذ، لا يمكن للنماذج أن تتعلم من哪里 تفشل – ولا يمكن للعلماء أن يفهموا لماذا.

إغلاق هذه الفجوات أقل حول اختراع هيكل شبكي جديد، وأكثر حول بناء الأدوات وواجهات المستخدم و عقود البيانات التي تجعل المختبر مفهومًا للأجهزة، وتمكن الذكاء الاصطناعي من رؤية العمل مع البشر.

الثقة بالتصميم: السلامة والحوكمة للذكاء الاصطناعي الذي يمكنه العمل

الذكاء الاصطناعي الوكيل في أبحاث الاكتشاف لا يثير فقط مخاوف حول الدقة. إنه يطرح أنماط فشل جديدة لأنها يمكن أن تعمل. في مختبر، العمل يعني إمكانية الهدر، أو الضرر، أو الاستنتاجات الخادعة، خاصة عندما تدخل التجارب إلى فرضيات سريرية.

عقلية مفيدة هي معاملة حزمة مختبر مدعومة بالذكاء الاصطناعي كنظام اجتماعي تقني يحتاج إلى ضمان. هناك إطارات موجودة تساعد، ولكنها يجب أن تُترجم إلى واقع المختبر:

  • إدارة المخاطر كعملية مستمرة: يوفر إطار إدارة المخاطر للذكاء الاصطناعي من NIST (AI RMF 1.0) مصطلحًا عمليًا لتحديد وقياس وإدارة مخاطر الذكاء الاصطناعي على مدار دورة حياته.
  • التنظيم للذكاء الاصطناعي المتجاور طبيًا: يوفر عمل إدارة الأغذية والأدوية حول برنامج الذكاء الاصطناعي / البرمجيات كأداة طبية (Action Plan and related guidelines) وجهة نظر محددة حول ما يبدو “ممارسة جيدة” عندما يؤثر الذكاء الاصطناعي على رعاية المرضى.

بالنسبة لتحرير الجينات وغيرها من المجالات ذات العواقب الكبيرة، الحوكمة هي بالفعل محادثة عالمية. يتم مناقشة التوصيات حول تحرير الجينوم البشري، للتأكيد على الحاجة إلى آليات الإشراف المناسبة والحوكمة المسؤولة، مثل تلك التي قدمتها الجمعية الأمريكية لتحرير الجينات والخلايا، أو ASGCT. يجب تصميم أنظمة مثل LabOS لجعل الامتثال أسهل، وليس أكثر صعوبة.

قائمة التحقق: ضوابط للذكاء الاصطناعي الآمن لمساعدي العلم للاكتشاف العلمي

من وجهة نظرنا، يجب أن ي実装 نظام تشغيل مختبري آمن على الأقل التصاميم التالية:

  • الأصل بال mặc: يجب أن تكون كل مجموعة بيانات ونسخة بروتوكول وخرج نموذج قابلة للتعقب إلى الإدخالات و العلامات الزمنية.
  • الاستقلالية المحدودة: يجب أن يكون للنظام صلاحيات صريحة (ما يمكنه فعله بدون تأكيد) و قواعد تصعيد (متى يجب أن يسأل).
  • إلغاء التحكم البشري و التدهور الممتد: عندما تفشل الحساسات أو تيارات البيانات، أو عندما تكون عدم اليقين عالية، يجب أن يعود النظام إلى وضع أكثر أمانًا و أبسط.
  • التحقق المستمر: يجب أن تُقترن التنبؤات داخل الحاسوب مع التحقق الفيزيائي للمختبر؛ يجب أن تشمل تشغيلات المختبر الفيزيائي بوابات تحقق جودة قبل أن تنتشر الاستنتاجات إلى أسفل إلى نماذج ووكلاء الذكاء الاصطناعي في العالم الرقمي.
  • الأمان و الوعي المزدوج: يجب حماية بنية المختبر من التلاعب.

تمكين البشر في كل مكان: هل يمكن لمساعدي الذكاء الاصطناعي أن يوسعوا الساحة?

واحدة من أكثر الوعد بمساعد الذكاء الاصطناعي هو ليس فقط السرعة للمؤسسات النخبوية، بل هو إمكانية الوصول للجميع. فكر في ما يحد حاليًا من مختبرات أصغر، وشركات بدء تشغيل، و عيادات سريرية نائية / ريفية / إقليمية:

  • الوصول المحدود إلى الخبرة المتخصصة لبروتوكولات وأدوات من الدرجة الذهبية.
  • تكلفة أعلى نسبيًا للتدريب، والأخطاء، و الأعمال الإضافية.
  • أدوات متجزئة: دفاتر ملاحظات، و جداول، و سجلات أدوات، و نصوص تحليل نادرًا ما ترتبط بشكل نظيف.

نظام يمكنه توجيه التنفيذ في السياق (من خلال نظارات ذكية)، و التقاط ما حدث تلقائيًا، و اقتراح الخطوة التالية بناءً على التشغيل السابق يمكن أن يجعل الفحوصات المتقدمة أكثر تكرارًا عبر المواقع. في المبدأ، يمكنه أيضًا دعم البحث السريري الموزع حيث يجب تنفيذ البروتوكولات بانتظام، حتى عندما تختلف الموارد.

الجدول الزمني: متى يحصل كل عالم وطبيب على مساعد?

باختصار، نحن أقرب مما يعتقد الكثيرون لبعض المهام القيمة والتكرارية (مثل إنتاج دواء موثوق به في المختبر) وأكثر بعدًا مما يفترضه العرض لآخرين (مثل حل الذكاء الاصطناعي للمشاكل الكبيرة مثل السرطان أو مرض آلزهايمر). خريطة طريق واقعية تبدو هكذا:

  1. في المدى القصير (داخل سنة): مساعدي سير العمل الذين يقللون من العبء الإداري: صياغة البروتوكول، و تلخيص الأدب، و قوالب التحليل، و تقارير الجودة التلقائية. العامل المحدد هو التكامل، وليس قدرة النموذج.
  2. في المدى المتوسط (1-2 سنة): أنظمة التنفيذ المشتركة في المختبر: توجيه نظارات ذكية، و توثيق تلقائي، و روبوتات انتقائية لخطوات التباين العالي. الثقة ستعتمد على سجلات التدقيق و تصميم مشغل بشري دقيق.
  3. في المدى الطويل (3+ سنة): مساعدي البحث عبر المجالات التي تربط الاكتشاف بالترجمة: ربط بيانات المختبر بالنقاط النهائية السريرية، و مراقبة إشارات السلامة، و مساعدة تصميم التجارب – مع الامتثال للتوقعات التنظيمية و الأخلاقية.

من الكود إلى العلاج: المسار الأمامي لاكتشاف علمي 1000x

LabOS هو محاولة للإجابة على سؤال بسيط: ماذا لو تم تشغيل تجربة كمحادثة، حيث يتم ربط النية و التنفيذ و الأدلة بشكل متصل؟ إذا بنينا هذه الأنظمة جيدًا، يمكنها مساعدة في حل فجوة الترجمة التي تبطئ الطب البيولوجي و العديد من التخصصات العلمية الفيزيائية (مثل علم المواد). إذا بنيناها بشكل سيئ، سوف تعزز عدم القابلية للتكرار و تخلق مخاطر جديدة للسلامة.

الأهم من ذلك كله في السنوات القليلة القادمة سيكون العمل التأسيسي: واجهات بيانات وأجهزة معيارية من خلال بناء نظام التشغيل (مثل كيفية تشغيل iOS جميع أنواع التطبيقات)، و بناء معايير الذكاء الاصطناعي التي تشمل التنفيذ و عدم اليقين (مثل معيار LabSuperVision في LabOS)، و البدء في النشر في العالم الحقيقي الذي يشجع على الابتكار مع حماية المرضى و سلامة البحث.

对于 الباحثين و الأطباء، السؤال ليس 是否 سيدخل الذكاء الاصطناعي المختبر. لقد دخل بالفعل. السؤال هو ما إذا كنا سنجمه كمجموعة من الأدوات غير المتصلة أو كنظام موثوق به و قابل للفحص مصمم للواقعية العلمية البيولوجية.

اقتراحات للقراءة و المصادر

Le Cong, PhD, هو أستاذ مساعد في علم الأمراض وعلم الوراثة في جامعة ستانفورد، حيث يطور فريقَه أنظمة الهندسة الوراثية الأصلية بالذكاء الاصطناعي وأنظمة الذكاء الاصطناعي-الواقع المعزز-الروبوتية التي تربط العقلية الرقمية للمختبر بالتنفيذ المادي للمختبر، لتمكين البشر في اكتشاف العلوم.