تقديم العرض الوظيفي
نيكولاوس فاسيليوغلو، نائب رئيس قسم أبحاث التعلم الآلي في شركة RelationalAI - سلسلة مقابلات

نيكولاوس فاسيلوغلو يشغل منصب نائب رئيس قسم أبحاث التعلم الآلي في شركة RelationalAI. وقد أمضى مسيرته المهنية في تطوير برمجيات التعلم الآلي وقيادة مشاريع علوم البيانات في قطاعات التجزئة والإعلان عبر الإنترنت والأمن السيبراني. وهو عضو في مؤتمرات ICLR وICML وNeurIPS وUAI وMLconf/
الذكاء الاصطناعي العلائقي هي شركة متخصصة في الذكاء الاصطناعي للمؤسسات، تُطوّر منصة ذكاء قرارات مصممة لمساعدة المؤسسات على تجاوز تحليل البيانات نحو اتخاذ قرارات آلية عالية الجودة. تتكامل تقنيتها مباشرةً مع بيئات البيانات مثل Snowflake، حيث تجمع بين قواعد البيانات العلائقية، ومخططات المعرفة، وأنظمة الاستدلال المتقدمة لإنشاء "نموذج دلالي" للأعمال - يُجسّد بشكل أساسي كيفية عمل الشركة، وعلاقاتها، ومنطقها. يُمكّن هذا أنظمة الذكاء الاصطناعي (بما في ذلك وكلاء اتخاذ القرار مثل "Rel") من تحليل البيانات المعقدة والمترابطة، وتوليد رؤى تنبؤية وتوجيهية، مما يُتيح للمؤسسات اتخاذ قرارات أسرع وأكثر استنارة دون نقل بياناتها خارج بيئات الحوسبة السحابية الآمنة.
لقد حظيتَ بمسيرة مهنية فريدة شملت التعلم الآلي الأكاديمي، والتطبيقات الصناعية واسعة النطاق، والأدوار القيادية في شركات مثل سيمانتك، وأيسيرا، والآن ريليشنال إيه آي. كيف أثرت هذه التجارب على رؤيتك لكيفية التقاء أبحاث التعلم الآلي بالأنظمة الواقعية اليوم؟
لقد حالفني الحظ بالعمل في مجالات أعمال متنوعة، من تجارة التجزئة والأمن، وصولاً إلى الإعلان عبر الإنترنت. ساعدني ذلك على فهم كيف يتكامل التعلم الآلي والذكاء الاصطناعي كعامل مشترك. كنا نعلم منذ أوائل الألفية الثانية أن البرمجيات تسيطر على العالم، وأن البيانات تستحوذ على ذكاء اتخاذ القرارات، ومع ذلك، لم تكن سوى قلة من الشركات، بما فيها جوجل، تعتقد أن خوارزميات التعلم الآلي المتقدمة ستسيطر في نهاية المطاف على كل شيء. في عام ٢٠٠٨، كان يُنظر إلى الحضور في مؤتمر NeurIPS على أنهم مهووسون بالتكنولوجيا وحالمون لا يفهمون الواقع، مجرد أشخاص يحبون العبث بالألعاب. كان هذا صحيحًا إلى حد ما، لكنني كنت أعتقد أن هذا الوضع في طريقه للتغيير. على عكس الآخرين، لم أتخلَّ عن المشاركة الفعالة في تحويل البحث الأكاديمي إلى صناعة.
تحليلك لـ نيوربس 2025 استخدمت برامج مساعدة في البرمجة مثل Claude Code وOpenAI Codex وNotebookLM لمعالجة المؤتمر بأكمله. ما الذي أثار دهشتك أكثر من غيره عند استخدام أنظمة الذكاء الاصطناعي لتحليل أبحاث الذكاء الاصطناعي نفسها؟
كان من السهل بشكلٍ مذهل بناء برنامج لاستخراج البيانات، وقراءتها آليًا، وتصنيفها إلى أقسام، بل وتلخيصها وشرحها بطريقة بديهية للغاية. أنظمة الذكاء الاصطناعي العام (GenAI) بارعة في سرد القصص، لكنها لا تجيد سردها. يُعدّ NotebookLM الأفضل في تحليل أي مجال وتقديم نتائج مذهلة. مع ذلك، لا يمكنك التحكم في القصة، أو الرسومات، أو التركيز. اكتشفتُ أن الأدوات ليست مثالية لإنشاء شرائح PowerPoint، لذا اضطررتُ إلى إنشاء ملفات HTML ثم تحويلها إلى PDF. كان التحدي الأكبر هو إنشاء الرسوم البيانية - كان توليد الانتشار بطيئًا للغاية، وغير موثوق، ومكلفًا، دون أي تحكم. من المثير للدهشة أن النماذج جيدة جدًا في إنشاء رسومات SVG برمجيًا باستخدام matplotlib وplotly ومكتبات Python الأخرى. هذه التقنية قابلة للتوسع، لكنها تطلبت عدة محاولات لتصحيح أخطاء التصور. ستكون النماذج أفضل بحلول العام المقبل.
من أبرز المواضيع في تحليلك التحول من توسيع نطاق الحساب أثناء التدريب إلى توسيعه أثناء الاستدلال. لماذا يبرز توسيع نطاق الحساب أثناء الاختبار كأداة فعّالة لتحسين أداء النموذج؟
قوانين التوسع هي بوصلتنا. لقد بلغ حجم النموذج وبيانات التدريب المسبق أقصى حدودهما. قادتنا قوانين التوسع من الجيل الأول إلى GPT-4، وهي التي ساعدت OpenAI على إطلاق ثورة الذكاء الاصطناعي العام. سرعان ما أدركنا وجود بُعد آخر يسمح للنموذج بتوليد العديد من الرموز قبل الوصول إلى إجابة. هذه طريقة أخرى لتحسين كفاءة نماذج التعلم الموجه. غالبًا ما يُعبَّر عن حجم النموذج وطول عملية الاستدلال بنظامي التفكير 1 و2 (دانيال كانيمان). تُعد آثار الاستدلال طريقة أخرى لزيادة قدرة النموذج. إذا تأملنا الأمر، نجد أن إنجازات البشر بدأت من الغرائز (معدل ذكاء عالٍ)، لكن النجاح كان دائمًا نتيجةً للاستدلال المطوّل والمضني. نلاحظ هذا النمط: النماذج الأصغر ذات فترات التفكير الطويلة تتفوق على النماذج الأكبر منها بمئة ضعف. لذا، يُعد التفكير أهم من معدل الذكاء في نماذج التعلم الموجه.
تسلط الضوء على التحول من النماذج المتجانسة إلى الأنظمة الفاعلة القادرة على التخطيط والتنفيذ والتحقق من مخرجاتها. ما مدى قربنا من أن يصبح الذكاء الاصطناعي الفاعل نموذجًا إنتاجيًا موثوقًا به بدلًا من كونه نموذجًا أوليًا بحثيًا؟
نحرز تقدماً كبيراً في هذا الاتجاه. تكمن أكبر التحديات في الموثوقية والسلامة، لكي نتمكن من الوثوق بها كأنظمة ذاتية القيادة. إذا دققت النظر في محتوى مؤتمر NeurIPS، ستجد أنظمة ذاتية القيادة تُجري أبحاثاً، وتحل مسائل رياضية، وتواجه تحديات برمجية، لكنك لن تجد سيارة ذاتية القيادة ذكية، على سبيل المثال. أحدث التجارب مع كتاب مالت بوك سلطت إحدى الشبكات الاجتماعية لوكلاء الذكاء الاصطناعي الضوء على تحديات الذكاء الاصطناعي المستقل. ومع ذلك، يُعد اكتشاف أدوية ومواد جديدة باستخدام الذكاء الاصطناعي إنجازًا هائلاً، لذا دعونا نحتفل به ونركز عليه في الوقت الحالي.
يبدو أن الكفاءة محرك رئيسي للابتكار، حيث تحقق النماذج الأصغر أداءً تنافسيًا من خلال تحسينات في بنيتها واستراتيجيات استدلال أكثر ذكاءً. هل ندخل حقبةً تُصبح فيها إنجازات الكفاءة أهم من حجم النموذج الخام؟
مع توسع نطاق الذكاء الاصطناعي ليشمل الإنتاج، تزداد أهمية الهندسة. فالاعتماد على النماذج التجريبية المتقدمة غير مستدام. صحيح أنها مثالية للعروض التوضيحية، لكن الشركات تواجه الواقع المرير عند رؤية التكلفة الباهظة للنماذج الكبيرة. ولأول مرة، أصبحت النماذج الأصغر حلاً أكثر جدوى. هناك قوة خفية تُغير الوضع الراهن في هذه الصناعة. حتى الآن، احتكرت NVIDIA سوق وحدات معالجة الرسومات (GPU) وحافظت على ارتفاع الأسعار. أما AMD، فتشق طريقها في السوق برقائق عالية الجودة، مما سيؤدي إلى انخفاض الأسعار. لا تزال الطاقة تشكل تحديًا، لكننا نشهد بعض التحركات في السوق. ومع ارتفاع تكلفة المختبرات التجريبية المتقدمة، أصبح حل النماذج الأصغر على وحدات معالجة الرسومات المستأجرة أكثر جدوى.
يشير عرضك التقديمي إلى أن المجال قد انتقل من القياس أحادي المحور (المعلمات) إلى القياس متعدد الأبعاد الذي يشمل المعلمات والبيانات والبنية والاستدلال. كيف ينبغي للباحثين والممارسين التفكير في هذا النموذج الجديد للقياس؟
بالنسبة لمعظم المحترفين، تقع بنية النظام ومعاييره خارج نطاق سيطرتهم. سيقود الابتكارَ مُنتجو النماذج الذين يملكون رأس المال اللازم. وسيُحدد الإنفاق الرأسمالي لمؤسساتهم طول استدلال الرموز. أما ما يبقى تحت سيطرتهم فهو البيانات. سنشهد تركيزًا أكبر على إنشاء البيانات وتنظيمها وتصحيح أخطائها (وخاصةً تتبعات الاستدلال). سيكون هذا محور العمليات اليومية. وبالطبع، سيحتاجون إلى متابعة مؤتمر NeurIPS والمؤتمرات الكبرى الأخرى لمواكبة أحدث اتجاهات البنى الجديدة.
في ملخصك لمؤتمر NeurIPS، أشرتَ إلى أن نسبة متزايدة من الأبحاث تركز على الاكتشافات العلمية المدعومة بالذكاء الاصطناعي، بدءًا من علم الأحياء وصولًا إلى نمذجة المناخ. هل ترى أن استخدام الذكاء الاصطناعي في خدمة العلوم هو الأفق الرئيسي التالي لأبحاث التعلم الآلي؟
أعتقد أن الأمر يتجاوز البحث الأكاديمي. نحن بصدد موجة تنقيب عن الذهب جديدة. في عام ١٨٤٩، بلغت حمى الذهب في كاليفورنيا ذروتها. كل ما كان على الناس فعله هو تصفية مياه الأنهار بلا كلل للعثور على الذهب. نعلم الآن أن الكثيرين لم يعثروا على الذهب، لكن ما نشهده اليوم واقعٌ ملموس. أتوقع ظهور موجة كبيرة من الشركات الناشئة الصغيرة، التي تضم شخصين أو ثلاثة، تستخدم نماذج اللغة لاكتشاف مواد وأدوية ومكونات منتجات جديدة. يمكن أن يحقق حرق الرموز الرقمية بأذكى الطرق عوائد ضخمة. بإمكان مساعدي البرمجة مثل Claude Code وOpenAI Codex وGoogle Antigravity إزالة العائق أمام شركات البرمجيات كخدمة (SaaS)، مما يتيح لجيل كامل من علماء الحاسوب المتميزين فرصة البحث العلمي. إذا كنت تعمل في منظمة غير ربحية مثل First Principles أو Bio[hub]، فستتاح لك فرص لاكتشاف قوانين ونظريات فيزيائية جديدة، أو تقديم إسهامات أخرى في علم الأحياء. إذا كنت ترغب في تحقيق إيرادات، فستعمل على ابتكار منتجات جديدة قائمة على العلم، مثل المستحضرات الصيدلانية والمواد والبطاريات، وغيرها.
يُسلط عملك الضوء أيضاً على فجوة متزايدة في التحقق، حيث تحقق النماذج نتائج قوية في الاختبارات المعيارية، لكنها تفشل في مواجهة اختلافات بسيطة في العالم الحقيقي. ما الذي تكشفه هذه الفجوة عن القيود الحالية لنماذج اللغة الكبيرة؟
يبدو أن لديهم ذاكرة مذهلة، وقدرة فائقة على التعميم. تُعدّ المعايير المرجعية مفيدة في بداية البحث. بمجرد تجاوز عتبة معينة، نتعلم المعيار المرجعي وليس المشكلة. لقد كنا بارعين على مر السنين في إعادة ضبط المعايير المرجعية وجعلها أكثر صعوبة لتجاوز الحدود. تكمن مشكلة المعايير المرجعية في أننا في مرحلة ما، نبدأ بالمبالغة في التقييم، وفي النهاية قد نلجأ إلى الغش. الهدف الأساسي هنا هو جعل المنافسين أكثر نزاهة. شخصيًا، لا أولي اهتمامًا كبيرًا للمعايير المرجعية بعد حدوث بعض التطورات. قد يكون لديك منتج جيد ولكنه ليس حتى ضمن أفضل عشرة منتجات في قائمة المتصدرين. كما رأيت العديد من المنتجات دون المستوى المطلوب والتي تتفوق في المعايير المرجعية.
يشير العرض التقديمي إلى أن نماذج اللغة الصغيرة، بالإضافة إلى توسيع نطاق الاستدلال والبنى الوكيلة، قد تُمكّن أنظمة الذكاء الاصطناعي القوية من العمل خارج مراكز البيانات الضخمة. فهل يُمكن لهذا التوزيع اللامركزي أن يُعيد تشكيل كيفية نشر الذكاء الاصطناعي في مختلف القطاعات؟
لقد لاحظنا تركيزًا كبيرًا على نشر الحوسبة الطرفية. سنشهد بالتأكيد أجهزة أكثر ذكاءً من حولنا. تعمل مايكروسوفت منذ سنوات على معالج LLM أحادي البت، الذي يحقق ضغطًا يصل إلى 30 ضعفًا، مما يسمح بتشغيل نماذج متطورة للغاية على شريحة واحدة في المستقبل. لقد تابعنا هذا العمل لسنوات، والتقدم المحرز مذهل، لا سيما في مجال الأجهزة القابلة للارتداء.
من بين المواضيع التي تناولها مؤتمر NeurIPS العام الماضي فكرة دمج نماذج الحوسبة الطرفية الضعيفة مع نماذج الحوسبة الطرفية المتقدمة. يتيح هذا دمج نماذج الحوسبة الطرفية مع نماذج الحوسبة الطرفية المتقدمة، مما يسمح بتعديل قدرة الاستدلال بناءً على عرض النطاق الترددي المتاح في نطاق متصل. وكشفت ورشة عمل الاتصالات الأولى في مؤتمر NeurIPS عن توجه نحو وضع وحدات معالجة الرسومات (GPUs) على أبراج الاتصالات، وهو أمر مثير للاهتمام لأن برج الاتصالات ليس مركز بيانات ولا جهازًا طرفيًا، مما يُضيف طبقة جديدة إلى التسلسل الهرمي للحوسبة.
من الأمور الأخرى التي لم تُدرج في نماذج التعلم الموجه (LLMs) التدريب الموزع للنماذج (ولا أقصد هنا تدريب جوجل لنموذج جيميني في مراكز بيانات بعيدة). ثمة اتجاه مثير للاهتمام يتزايد، حيث تقوم جهات مستقلة بتدريب نماذجها الخاصة، ويقوم المستخدمون بدمجها معًا لبناء نماذج أكبر وأكثر قوة. هذه بنية معيارية واعدة للغاية. هكذا تُدرَّب النماذج الكبيرة، إذ تقوم فرق مختلفة ببناء نماذج متخصصة، ثم تُدمجها معًا في النهاية.
بعد تحليل آلاف الأوراق البحثية في مؤتمر NeurIPS، أين تعتقد أن مجتمع أبحاث الذكاء الاصطناعي يتنبأ بدقة بالتقدم، وأين قد يغفل عن أهم التحولات القادمة؟
لا يُقدم مجتمع البحث العلمي تنبؤات. فلكل باحث دوافعه الخاصة، من فضول ومصادر تمويل، إلى الصدفة، وبالطبع، حدسه. قد يغفلون عن بعض التوجهات المهمة، لكن من شبه المؤكد أن يكتشفها أحدهم في المستقبل. وهذا أمر متوقع وصحي. يُطلب من المديرين التنفيذيين والمستثمرين والمهندسين تحديد الاتجاهات الناشئة لاتخاذ القرارات الصائبة والاستثمار الأمثل. خلال فترة تحليلي التي امتدت لخمس سنوات، رُصدت بعض الاتجاهات مبكرًا، بينما فاتت أخرى. ولا يزال أمام بعضها متسع من الوقت للاستفادة من الفرص المتاحة.
أتابع أسواق البيانات منذ سنوات، وقد شهدت قفزة نوعية هذا العام. كان العنصر المفقود هو تحديد مصادر البيانات. الآن، أصبح بإمكاننا تحديد بيانات التدريب التي ساهمت في مسابقة ماجستير القانون بشكل فوري. هذا يعني إمكانية تحقيق أرباح مجزية. لقد أضاع الناشرون، الذين يواجهون دعاوى قضائية جماعية بسبب نماذجهم الرائدة، هذه الفرصة. اضطر بعضهم للرضوخ لاتفاقيات ترخيص ثابتة، بينما أعتقد أن لديهم فرصة لتحقيق إيرادات مستدامة من خلال نموذج تحديد مصادر البيانات.
يشهد مجال الروبوتات ثورةً قادمة. فالنماذج العالمية التي أعلنت عنها NVIDIA وغيرها تُجري محاكاةً فيزيائيةً دقيقةً وقابلةً للتطوير. لذا، توقعوا أن يصبح الذكاء الاصطناعي أكثر ارتباطاً بالفيزياء في المستقبل.
اندمجت بنية المحول في نهاية المطاف مع نماذج فضاء الحالة مثل الشبكات العصبية المتكررة (RNNs) ونموذج مامبا (Mamba) وغيرها، وأنتجت نماذج خطية لغوية صغيرة مذهلة. نعرف الآن القيود الدقيقة للمحول التي تلعب دورًا رئيسيًا في الأداء، لكننا ما زلنا نفتقر إلى الخطوة التالية. ستأتي هذه الخطوة عندما يُثبت أن المحول متين للغاية وقادر على التكيف. ما لا نعرفه هو ما إذا كان الإنسان أم المحول هو من سيصمم البنية الجديدة للنموذج الخطي اللغوي! لقد وحّد المحول جميع البنى المتفرقة في معالجة اللغات الطبيعية (نعم، لا تنسَ أن الذكاء الاصطناعي العام بدأ من مهام معالجة لغات طبيعية بدائية، مثل تصنيف الكيانات). لقد نجح في الرياضيات، ونجح هذا العام في الجداول، لكنه لم ينجح في الفيزياء. لقد أحصيت أكثر من 15 بنية مختلفة. لذا، قد تكون البنية الجديدة التي توحد الفيزياء هي التي ستحل محل المحول في مسيرة الذكاء الاصطناعي العام.
شكرا لك على المقابلة الرائعة ، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا الذكاء الاصطناعي العلائقي.












