تقديم العرض الوظيفي
شاهار أزولاي، الرئيس التنفيذي والمؤسس المشارك لشركة جراوندكوفر

شهر أزولاي، شاهار، الرئيس التنفيذي والمؤسس المشارك لشركة Groundcover، قائدٌ متمرس في مجال البحث والتطوير. يتمتع بخبرة واسعة في عالم الأمن السيبراني والتعلم الآلي، حيث شغل مناصب قيادية في شركات رائدة مثل Apple وDayTwo وCymotive Technologies. أمضى شاهار سنوات عديدة في قسم الأمن السيبراني بمكتب رئيس الوزراء الإسرائيلي، ويحمل ثلاث شهادات جامعية في الفيزياء والهندسة الكهربائية وعلوم الحاسوب من معهد التخنيون الإسرائيلي للتكنولوجيا وجامعة تل أبيب. يسعى شاهار إلى توظيف خبراته التقنية المكتسبة من هذه الخلفية الثرية، وتطبيقها في بيئة الحوسبة السحابية المعاصرة بأكثر الطرق ابتكارًا وفعالية، بهدف الارتقاء بعالم تطوير البرمجيات.
غطاء الأرض هي منصة مراقبة سحابية مصممة لتزويد فرق الهندسة برؤية شاملة وفورية لأنظمتهم دون تعقيدات أو تكاليف أدوات المراقبة التقليدية. تعتمد المنصة على تقنية eBPF، حيث تجمع وتربط السجلات والمقاييس والآثار والأحداث عبر بيئات سحابية وبيئات Kubernetes دون أي تغييرات برمجية، مما يتيح تحليلًا أسرع للأسباب الجذرية وفهمًا أوضح للنظام. تتميز المنصة بتسعير ثابت، ونشر مرن يحافظ على البيانات في سحابة العميل، ومراقبة شاملة تغطي البنية التحتية والتطبيقات وأحمال العمل الحديثة المدعومة بالذكاء الاصطناعي.
بالنظر إلى مسيرتك المهنية - من قيادة فرق البحث والتطوير السيبراني في مكتب رئيس الوزراء الإسرائيلي إلى إدارة مبادرات التعلم الآلي في شركة أبل - ما هي التجارب التي دفعتك في النهاية نحو تأسيس شركة groundcover، ومتى أدركت لأول مرة وجود فجوة في إمكانية المراقبة لأنظمة الذكاء الاصطناعي الحديثة؟
بدأ الدافع وراء تأسيس Groundcover خلال فترة عملي في Apple وDayTwo. حتى مع الميزانيات الضخمة، كنا محصورين بين دفع مبالغ طائلة لتسجيل كل شيء أو أخذ عينات عشوائية والعمل بشكل أعمى. حينها، كنا نبحث عن تقنية تحل هذه المشكلة. بمجرد أن تعرفنا على Extended Berkeley Packet Filter (eBPF)، أصبح من الواضح أنها ستغير كل شيء. تتيح لنا eBPF رؤية كل ما يحدث في نواة النظام دون الاعتماد على تغييرات التطبيقات. لم أستطع فهم سبب عدم استفادة أدوات المراقبة من هذه الميزة. اتضحت فجوة الذكاء الاصطناعي لاحقًا. بمجرد نضوج منصة Kubernetes الخاصة بنا، رأينا العملاء يندفعون نحو نشر GenAI بينما يتعاملون مع نماذج التعلم الآلي (LLMs) كصناديق سوداء. كانوا يعرفون أن النموذج يستجيب، لكنهم لم يعرفوا سبب سلوكه غير المتوقع أو سبب ارتفاع التكاليف. أدركنا أن سير العمل الآلي هو ببساطة خدمات مصغرة معقدة وغير حتمية تحتاج إلى نفس مستوى الرؤية التلقائية الذي كنا قد بنيناه بالفعل.
كيف أثرت خلفيتك في مجال الأمن السيبراني والأنظمة المدمجة والبحث والتطوير في مجال التعلم الآلي على الرؤية الكامنة وراء شركة Groundcover، وما هي التحديات المبكرة التي واجهتها في بناء شركة تركز على إمكانية المراقبة للتطبيقات التي تعتمد على التعلم الآلي والتعلم الآلي؟
لقد ساهمت خبرتي في مجال الأمن السيبراني في تشكيل هوية الشركة. في عالم الاستخبارات، يُفترض أنك لا تتحكم في التطبيق. ولهذا السبب، لا تتطلب Groundcover أي أدوات مراقبة. أعلم من واقع خبرتي أن مطالبة المطورين بتعديل الشفرة البرمجية هي أسرع طريقة لعرقلة تبنيها. كان التحدي الأكبر في بداية استخدام نظام مراقبة إدارة دورة حياة التطبيق (LLM) هو الخصوصية. إذ أن إمكانية مراقبة الذكاء الاصطناعي تلتقط تنبيهات قد تحتوي على معلومات شخصية حساسة أو ملكية فكرية. وقد أوضحت لي خبرتي أن المؤسسات لن ترغب في خروج هذه البيانات من بيئتها. لذلك قمنا ببناء بنية سحابية خاصة بنا، مما يسمح لنا بتوفير رؤية شاملة لسلوك الوكلاء مع الحفاظ على جميع البيانات داخل بيئة العميل.
كيف تُعرّف قابلية الملاحظة في التعلم الآلي، وما الذي يجعلها مختلفة عن المراقبة التقليدية أو مراقبة التعلم الآلي؟
تُعدّ مراقبة نماذج اللغة الكبيرة (LLM) ممارسةً لتجهيز ومراقبة أنظمة الإنتاج التي تستخدم نماذج لغوية ضخمة، ما يُمكّنك من رصد السياق الكامل لكل استدلال: الموجه، والسياق، والإكمال، واستخدام الرموز، وزمن الاستجابة، والأخطاء، وبيانات تعريف النموذج، ومثاليًا، التغذية الراجعة أو مؤشرات الجودة اللاحقة. فبدلًا من الاكتفاء بالسؤال "هل الخدمة تعمل بسرعة؟" أو "هل حدث خطأ في هذا الطلب؟"، تُساعدك مراقبة نماذج اللغة الكبيرة على الإجابة عن أسئلة مثل "لماذا نجح هذا الطلب تحديدًا أو فشل؟"، و"ما الذي حدث فعليًا داخل سير العمل متعدد الخطوات هذا؟"، و"كيف تؤثر التغييرات في الموجهات أو السياق أو إصدارات النموذج على التكلفة وزمن الاستجابة وجودة المخرجات؟". يختلف هذا تمامًا عن المراقبة التقليدية أو حتى مراقبة التعلم الآلي الكلاسيكية. فالأساليب القديمة مُصممة للأنظمة الحتمية، ومقاييس البنية التحتية، والعتبات الثابتة. أما تطبيقات نماذج اللغة الكبيرة فهي غير حتمية، ومفتوحة، وتعتمد بشكل كبير على السياق. غالبًا ما يكون النجاح دلاليًا وذاتيًا، وليس مجرد رمز حالة 200 أو 500. وهذا يعني أنه يتعين عليك تتبع المدخلات والمخرجات، وفهم استدعاءات الأدوات وخطوات الاسترجاع، وتقييم الاستجابات لأشياء مثل الهلوسة أو انتهاكات السياسة، وربط التكاليف والتأخيرات على مستوى الرمز المميز بالتطبيق والبنية التحتية المحيطة.
ما هي التحديات التي تطرحها التطبيقات المدعومة بتقنية LLM والتي تجعل أدوات المراقبة التقليدية غير كافية؟
تُطرح الأنظمة المدعومة بتقنية LLM العديد من التحديات التي تكشف عن حدود الأدوات التقليدية:
- سير العمل المعقدة والمتعددة الخطوات انتقلنا من عمليات بسيطة تعتمد على "استدعاء نموذج والحصول على استجابة" إلى عوامل متعددة المراحل، وخطوط أنابيب متعددة الخطوات، واسترجاع مُعزز، وتوليد مُعزز، واستخدام أدوات. أي عطل صامت في أي من هذه الخطوات، مثل الاسترجاع، أو الإثراء، أو التضمين، أو استدعاء الأدوات، أو استدعاء النموذج، قد يُعطل التجربة بأكملها. لا توفر أنظمة المراقبة التقليدية عادةً رؤية شاملة ودقيقة لهذه السلاسل، بما في ذلك التنبيهات والاستجابات.
- مجموعات الذكاء الاصطناعي سريعة التطور تُضيف الفرق نماذج وأدوات وموردين جدد بوتيرة غير مسبوقة. في العديد من الشركات، لا يستطيع أحد تحديد النماذج المستخدمة في الإنتاج بدقة في أي لحظة. عادةً ما تفترض المراقبة التقليدية توفر الوقت الكافي لتجهيز حزم تطوير البرامج (SDKs) وإعادة نشرها ومراجعة البيانات التي يتم قياسها بعناية. وهذا ببساطة لا يواكب سرعة تبني الذكاء الاصطناعي.
- الاقتصاد القائم على الرموز والحصص ترتبط أسعار وحدود معدل الاستخدام بالرموز المميزة وطول السياق، والتي غالبًا ما يتحكم بها المطورون أو المطالبات أو سلوك المستخدم، وليس قسم العمليات المركزي. لا تُصمم الأدوات التقليدية لعرض "من استخدم كم عدد الرموز المميزة على أي نموذج، ولأي سير عمل، وبأي زمن استجابة".
- الصحة الدلالية بدلاً من النجاح الثنائي قد يُعيد نظام إدارة التعلم (LLM) رمز استجابة 200، ومع ذلك قد يُظهر بعض الأخطاء، أو ينحرف عن التعليمات، أو يخالف السياسة. تعتبر الأدوات التقليدية ذلك نجاحًا. أنت بحاجة إلى نظام مراقبة يُتيح لك رصد التعليمات والاستجابات، ويُوفر لك سياقًا كافيًا لفحص السلوك، ومع مرور الوقت، إضافة عمليات فحص جودة آلية.
- بيانات الإدخال الحساسة التي تتدفق إلى جهات خارجية – تدعو أنظمة إدارة التعلم (LLMs) المستخدمين إلى مشاركة معلومات حساسة للغاية عبر واجهات شبيهة بالدردشة. أنت الآن مسؤول عن هذه البيانات، ومكان تخزينها، والجهات التي يمكنها الاطلاع عليها. غالبًا ما تكون أنظمة المراقبة التقليدية القائمة على البرمجيات كخدمة (SaaS)، والتي تُرسل جميع بيانات القياس عن بُعد إلى طرف ثالث، غير مقبولة لهذه الأحمال.
كل هذا يعني أن أنظمة إدارة دورة حياة التعلم تتطلب إمكانية مراقبة تكون واعية بالذكاء الاصطناعي، وغنية بالسياق، وأقل اعتمادًا بكثير على الأدوات اليدوية مقارنة بالأدوات التي تستخدمها معظم الفرق اليوم.
ما هي الإشارات أو المقاييس الأكثر أهمية لفهم أداء وجودة أنظمة إدارة التعلم، بما في ذلك زمن الاستجابة، واستخدام الرموز المميزة، وسلوك الاستجابة الفورية؟
هناك بعض فئات الإشارات التي لها أهمية كبيرة في الممارسة العملية:
زمن الوصول والإنتاجية
- زمن الاستجابة من البداية إلى النهاية لكل طلب، بما في ذلك وقت النموذج ووقت التطبيق المحيط به.
- زمن الاستجابة النهائي (P90، P95، P99) لكل نموذج ولكل سير عمل.
- معدل النقل حسب الطراز والمسار والخدمة، حتى تعرف إلى أين يذهب الحمل فعلاً.
استخدام الرموز المميزة ومحركات التكلفة
- رموز الإدخال والإخراج لكل طلب، مصنفة حسب النموذج.
- استخدام الرموز المجمعة بمرور الوقت لكل نموذج وفريق ومستخدم وسير عمل.
- أحجام السياق لخطوط أنابيب الاسترجاع الثقيلة حتى تتمكن من رؤية متى تنفجر المطالبات.
- هذا ما يسمح لك بالإجابة على سؤال "من الذي ينفق ميزانية الذكاء الاصطناعي لدينا فعلياً وعلى ماذا؟"
السلوك الفوري والاستجابة
- البيانات الفعلية للاستجابة الفورية والاستجابة على مسارات التمثيل، بما في ذلك استدعاءات الأدوات ومسارات الاستدلال.
- ما هي الأدوات التي اختارها برنامج الماجستير في القانون، وبأي ترتيب؟
- التباين في الاستجابات للمطالبات المتشابهة حتى تتمكن من معرفة مدى استقرار السلوك.
الموثوقية والأخطاء
- معدلات وأنواع الأخطاء الخاصة بكل نموذج (أخطاء الموفر، مهلات الانتظار، مشاكل المصادقة، أخطاء الحصة).
- ترتبط حالات الفشل في سير العمل المحيط، مثل انتهاء مهلة الأدوات أو أخطاء الاسترجاع، باستدعاء LLM.
سياق البنية التحتية الكلاسيكية
- مقاييس وحدة المعالجة المركزية والذاكرة والشبكة للحاويات للخدمات التي تنسق مكالمات إدارة دورة حياة التطبيقات (LLM).
- سجلات مترابطة تصف ما كان التطبيق يحاول القيام به.
عندما يمكنك رؤية كل ذلك في مكان واحد، تنتقل إمكانية مراقبة LLM من "أعلم أن شيئًا ما بطيء أو مكلف" إلى "أعرف بالضبط أي نموذج، ونمط موجه، وخدمة مسؤولة ولماذا".
كيف يمكن للمراقبة أن تساعد الفرق في اكتشاف حالات الفشل الصامتة مثل الانحراف الفوري، أو الهلوسة، أو التدهور التدريجي في جودة المخرجات؟
تحدث الأعطال الصامتة في أنظمة إدارة دورة حياة المنتج عادةً عندما يبدو كل شيء "سليمًا" على مستوى البنية التحتية، لكن السلوك الفعلي ينحرف. تساعد المراقبة في ذلك بعدة طرق:
- تتبع سير العمل بالكامل، وليس فقط استدعاء النموذج – من خلال تتبع المسار الكامل لطلب العميل، بدءًا من الخدمة، مرورًا بالاسترجاع، وصولًا إلى النموذج والأدوات، يمكنك تحديد مواضع تغير السلوك. على سبيل المثال، ربما بدأ الاسترجاع بإرجاع عدد أقل من المستندات، أو ربما يفشل استدعاء إحدى الأدوات بشكل متقطع، ويقوم النموذج بتعديل ذلك.
- مع مراعاة التوجيهات والسياق والاستجابات – عندما يمكنك فحص المطالبات والاستجابات جنبًا إلى جنب مع التتبعات، يصبح من الأسهل بكثير اكتشاف الحالات التي أدى فيها إصدار جديد من المطالبات أو تعليمات نظام جديدة أو مصدر سياق جديد إلى تغيير السلوك، على الرغم من أن زمن الوصول ومعدلات الخطأ ظلت كما هي.
- التصفية والتقطيع بناءً على الشروط الدلالية - بمجرد حصولك على بيانات قياس عن بعد غنية من LLM، يمكنك تصفية النتائج إلى أشياء مثل "مكالمات الأساس على مدى ثانية واحدة" أو "الطلبات التي تستخدم عائلة النموذج هذه" أو "الآثار التي تتضمن هذا المسار المحدد"، ثم قراءة المطالبات والاستجابات لمعرفة ما إذا كان النموذج ينحرف أو يهلوس في سيناريو معين.
- التنبيه بشأن أهداف مستوى الخدمة على مستوى الأعمال يمكنك تحديد أهداف مستوى الخدمة (SLOs) مثل "أي مكالمة LLM تتجاوز ثانية واحدة تُعدّ خرقًا لاتفاقية مستوى الخدمة الخاصة بنا والموجهة للمستخدم"، وتفعيل التنبيهات عند استيفاء هذه الشروط. بمرور الوقت، يمكن ربط أهداف مستوى الخدمة المماثلة بتقييمات الجودة أو عمليات التحقق من السياسات، بحيث تتلقى تنبيهات عند تدهور الجودة، وليس فقط عند تعطل البنية التحتية.
لأن طبقة المراقبة لديها إمكانية الوصول إلى كل من الإشارات الخاصة بالذكاء الاصطناعي والسجلات والمقاييس والآثار الكلاسيكية، فإنها تصبح مكانًا طبيعيًا لاكتشاف المشكلات التي من شأنها أن تؤدي إلى تدهور تجربة المستخدم بهدوء.
كيف يدعم نهج Groundcover تشخيص زمن الاستجابة غير المتوقع أو السلوك غير المتوقع ضمن سير عمل الوكيل متعدد الخطوات واستدعاءات الأدوات؟
تعتمد منصة Groundcover على منهجية مصممة خصيصًا لأنظمة الذكاء الاصطناعي الحديثة. نستخدم مستشعرًا قائمًا على بروتوكول eBPF على مستوى نواة النظام لمراقبة حركة البيانات عبر الخدمات المصغرة دون الحاجة إلى أي تغييرات في التعليمات البرمجية أو إعادة نشر. بمجرد تطبيق سير عمل LLM، يمكننا اكتشاف هذه الاستدعاءات تلقائيًا. إذا بدأتَ باستخدام نموذج جديد مثل Anthropic أو OpenAI أو Bedrock غدًا، فستقوم Groundcover بالتقاط حركة البيانات هذه تلقائيًا. وهذا يمنحك:
- تتبع شامل لعمليات سير العمل متعددة المراحل – يمكنك رؤية المسار الكامل للطلب عبر الخدمات، بما في ذلك مكان استخدام LLM أو أداة.
- سياق معمق لكل مكالمة من مكالمات برنامج الماجستير في القانون - تتضمن كل مكالمة النموذج المستخدم، وزمن الاستجابة، واستخدام الرموز المميزة، والمطالبات، والاستجابات، والسجلات المرتبطة ومقاييس البنية التحتية.
- تصفية قوية بناءً على زمن الاستجابة والظروف – على سبيل المثال، يمكنك تصفية جميع مكالمات Claude 3.5 التي تزيد مدتها عن ثانية واحدة وفحص الآثار التي انتهكت اتفاقية مستوى الخدمة الخاصة بك على الفور.
- تنبيهات ولوحات معلومات مرتبطة بسلوك إدارة التعلم مدى الحياة - بمجرد توفر البيانات، يمكنك إنشاء تنبيهات لانتهاكات اتفاقية مستوى الخدمة أو إنشاء لوحات معلومات لتتبع زمن الوصول والإنتاجية واستخدام الرموز والأخطاء.
لأن كل شيء يتم جمعه على الحافة بواسطة eBPF وتخزينه في السحابة الخاصة بك، فإنك تحصل على هذه الرؤية عالية الدقة دون إضافة أدوات داخل كل وكيل أو استدعاء أداة.
ما هي مخاطر أمن البيانات والامتثال التي تراها تظهر في عمليات نشر إدارة دورة حياة البرامج، وكيف يمكن أن تساعد إمكانية المراقبة في تقليل هذه المخاطر؟
تُسبب عمليات نشر إدارة دورة حياة التطبيق (LLM) بعض المخاطر الفريدة المتعلقة بالبيانات:
- إدخال المستخدم غير المحدود – يمكن للمستخدمين إدخال معلومات بالغة الحساسية في برامج الدردشة الآلية والواجهات المدعومة بالذكاء الاصطناعي. وقد يشمل ذلك بيانات شخصية، أو بيانات عملاء، أو معلومات خاضعة للتنظيم لم تكن تنوي جمعها مطلقًا.
- مقدمو نماذج الطرف الثالث بمجرد إرسال تلك البيانات إلى مزود خدمة إدارة دورة حياة البيانات الخارجي، تصبح مسؤولاً عن وجهة البيانات، وكيفية تخزينها، والجهات الفرعية المعالجة لها. وهذا له آثار بالغة على اللائحة العامة لحماية البيانات، وموقع البيانات، وثقة العملاء.
- القياس عن بعد كنسخة ثانية من البيانات الحساسة - إذا كانت مجموعة أدوات المراقبة الخاصة بك ترسل حمولات كاملة إلى بائع SaaS، فستحصل الآن على نسخة أخرى من تلك المعلومات الحساسة موجودة خارج بيئتك.
تم تصميم بنية الغطاء الأرضي لمعالجة هذه المخاوف تحديداً:
- نستخدم نموذج "أحضر سحابتك الخاصة" حيث يعمل نظام المراقبة الخلفي بالكامل داخل حسابك السحابي، في حساب فرعي، كطبقة بيانات مُدارة بالكامل. أما طبقة التحكم التي تُوسّع نطاقها وتُديرها، فنحن نتولى تشغيلها، لكننا لا نصل إلى بيانات القياس عن بُعد الخاصة بك، ولا نخزنها، ولا نعالجها.
- بفضل قدرتنا على التقاط البيانات بأمان في بيئتك الخاصة، يمكنك مراقبة المطالبات والاستجابات وسير العمل دون أن تغادر هذه البيانات سحابتك مطلقًا. لا حاجة لتخزين بيانات تتبع إدارة دورة حياة التطبيقات (LLM) لدى أي طرف ثالث، ولا داعي للقلق بشأن أي نقل إضافي للبيانات.
- بفضل هذه الرؤية، يمكنك معرفة من يقوم بتحميل ماذا وأين يتدفق، واكتشاف الاستخدام غير المتوقع للبيانات الحساسة، وفرض سياسات حول النماذج والمناطق المسموح بها.
بمعنى آخر، لا تصبح إمكانية المراقبة مجرد أداة للموثوقية والتكلفة فحسب، بل تصبح أيضًا نقطة تحكم رئيسية للخصوصية، ومكان إقامة البيانات، والامتثال.
مع توسع المؤسسات من تكامل واحد لإدارة دورة حياة القانون إلى العديد من الخدمات المدعومة بالذكاء الاصطناعي، ما هي التحديات التشغيلية التي تميل إلى الظهور فيما يتعلق بالرؤية والموثوقية والتكلفة؟
عادةً ما يكون التكامل الأول عبارة عن نموذج واحد ضمن سير عمل واحد. في هذه المرحلة، تبدو الأمور قابلة للإدارة. ولكن بمجرد أن ترى الفرق قيمةً، يزداد الاستخدام بشكل كبير وتظهر العديد من التحديات:
- انتشار النماذج والبائعين – تقوم الفرق باختبار النماذج الجديدة باستمرار. وسرعان ما يصبح من غير الواضح أي منها قيد الإنتاج وكيف يتم استخدامها.
- مفاجآت التكلفة الناتجة عن استخدام الرموز يزداد استهلاك الرموز مع طول السياق وتعقيد سير العمل. وبدون رؤية واضحة لاستخدام الرموز لكل نموذج وسير عمل، يصبح التحكم في التكاليف أمراً بالغ الصعوبة.
- الاعتماد على الموثوقية من قبل مزودين خارجيين – تصبح واجهات برمجة التطبيقات التي يتعامل معها المستخدم حساسة لزمن استجابة النموذج أو الأخطاء، مما قد يؤدي إلى تعطيل اتفاقيات مستوى الخدمة حتى عندما تكون البنية التحتية الأساسية سليمة.
- تزايد ديون الأجهزة – تفترض المراقبة التقليدية إمكانية إضافة أدوات القياس عند الحاجة. في بيئات الذكاء الاصطناعي سريعة التطور، نادراً ما يجد المطورون الوقت لذلك.
تعالج شركة Groundcover هذه المشكلات من خلال اكتشاف حركة مرور الذكاء الاصطناعي تلقائيًا ثم تزويدك بما يلي:
- رؤية مركزية للنماذج والموردين المستخدمين.
- لوحات معلومات تعرض زمن الاستجابة، ومعدل نقل البيانات، واستخدام الرموز المميزة بمرور الوقت.
- العلاقة بين سلوك إدارة التعلم مدى الحياة والخدمات التي تعتمد عليه
- تنبيهات بشأن انتهاكات اتفاقيات مستوى الخدمة المدفوعة بالذكاء الاصطناعي.
وهذا يجعل من السهل جدًا الانتقال من "ميزة ذكاء اصطناعي رائعة واحدة" إلى "دمج الذكاء الاصطناعي في عشرات الخدمات الحيوية" دون فقدان السيطرة.
بالنظر إلى المستقبل، كيف تتوقع أن تتطور إمكانية مراقبة التعلم القائم على التعلم الآلي خلال السنوات الخمس القادمة مع تسارع الذكاء الاصطناعي الفاعل، وتنسيق النماذج المتعددة، والضغوط التنظيمية؟
ما زلنا في البداية. أتوقع خلال السنوات الخمس القادمة بعض التحولات الكبيرة:
- من مستوى الطلب إلى مستوى فهم الوكيل – ستتوسع إمكانية المراقبة لتشمل التقاط تسلسلات الأدوات ومسارات الاستدلال ومنطق إعادة المحاولة، وليس فقط استدعاءات النموذج.
- إشارات دلالية وسياسية أكثر ثراءً – ستصبح عمليات فحص الجودة الآلية للهلوسة، وقضايا السلامة، ومواءمة العلامة التجارية مقاييس قياسية.
- تعزيز الترابط مع الحوكمة والخصوصية – مع تزايد التنظيم، ستعمل إمكانية المراقبة أيضًا كطبقة إنفاذ ومراجعة لمكان وجود البيانات والاحتفاظ بها واستخدام النموذج المعتمد.
- تحسين متعدد النماذج ومتعدد الموردين – ستقوم الفرق بتوجيه حركة المرور عبر النماذج بشكل ديناميكي بناءً على الأداء والتكلفة، مسترشدة ببيانات المراقبة في الوقت الفعلي.
- أدوات يدوية أقل – ستصبح تقنيات مثل جمع البيانات القائم على eBPF والاكتشاف التلقائي هي الوضع الافتراضي، حتى تتمكن الفرق من الابتكار دون إبطاء وتيرة العمل.
باختصار، ستتطور إمكانية مراقبة إدارة دورة حياة المنتج من مجرد "لوحات معلومات جيدة للذكاء الاصطناعي" إلى الجهاز العصبي المركزي الذي يربط بين الموثوقية والتحكم في التكاليف وإدارة البيانات وجودة المنتج في كل ما تقوم به المؤسسة باستخدام الذكاء الاصطناعي.
شكرا لك على المقابلة الرائعة ، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا غطاء الأرض.












