تقديم العرض الوظيفي
عمري جيلر ، الرئيس التنفيذي والشريك المؤسس لـ Run: AI - Interview Series

عمري جيلر هو الرئيس التنفيذي والشريك المؤسس في تشغيل: AI
تشغيل: يقوم الذكاء الاصطناعي بإضفاء الطابع الافتراضي على الذكاء الاصطناعي وتسريعه من خلال تجميع موارد حساب GPU لضمان الرؤية ، وفي النهاية ، التحكم في تحديد أولويات الموارد وتخصيصها. يضمن ذلك تعيين مشاريع الذكاء الاصطناعي لأهداف العمل وتحقيق تحسن كبير في إنتاجية فرق علوم البيانات ، مما يسمح لهم ببناء وتدريب نماذج متزامنة دون قيود على الموارد.
ما الذي جذبك في البداية إلى الذكاء الاصطناعي؟
عندما بدأت دراستي للحصول على درجة البكالوريوس في الهندسة الكهربائية والإلكترونية في جامعة تل أبيب ، اكتشفت أشياء رائعة عن الذكاء الاصطناعي كنت أعرف أنها ستساعدنا في الانتقال إلى الخطوة التالية في إمكانيات الحوسبة. من هناك ، عرفت أنني أريد استثمار نفسي في مجال الذكاء الاصطناعي. سواء كان ذلك في مجال أبحاث الذكاء الاصطناعي ، أو فتح شركة من شأنها أن تساعد في تقديم طرق جديدة لتطبيق الذكاء الاصطناعي في العالم.
هل كان لديك دائمًا اهتمام بأجهزة الكمبيوتر؟
عندما تلقيت أول جهاز كمبيوتر مع معالج Intel 486 في سن السادسة أو السابعة ، كنت مهتمًا على الفور بمعرفة كيفية عمل كل شيء ، على الرغم من أنني ربما كنت أصغر من أن أفهمه حقًا. بصرف النظر عن الرياضة ، أصبحت أجهزة الكمبيوتر واحدة من أكبر هواياتي أثناء نشأتي. منذ ذلك الحين ، قمت ببناء أجهزة كمبيوتر ، وعملت معهم ، وذهبت للدراسة في هذا المجال بسبب شغفي عندما كنت طفلاً.
ما هو مصدر إلهامك لإطلاق Run: AI؟
عرفت منذ وقت مبكر أنني أريد استثمار نفسي في مجال الذكاء الاصطناعي. في العامين الماضيين ، شهدت الصناعة نموًا هائلاً في الذكاء الاصطناعي ، وجاء الكثير من هذا النمو من علماء الكمبيوتر ، مثلي ، والأجهزة التي يمكن أن تدعم المزيد من التطبيقات. أصبح من الواضح لي أنني سأبدأ شركة حتمًا - ومع المؤسس المشارك لي رونين دار - لمواصلة الابتكار والمساعدة في جلب الذكاء الاصطناعي إلى المزيد من الشركات المؤسسية.
يتيح Run:AI لمتخصصي التعلم الآلي الحصول على نوع جديد من التحكم في تخصيص موارد GPU باهظة الثمن. هل يمكنك شرح كيف يعمل هذا؟
ما نحتاج إلى فهمه هو أن مهندسي التعلم الآلي ، مثل الباحثين وعلماء البيانات ، بحاجة إلى استهلاك قوة الحوسبة بطريقة مرنة. لا يقتصر الأمر على أن أحدث العمليات الحسابية اليوم تتطلب عمليات حوسبية مكثفة للغاية فحسب ، ولكن هناك أيضًا مهام سير عمل جديدة تُستخدم في علم البيانات. تستند تدفقات العمل هذه إلى حقيقة أن علم البيانات يعتمد على التجارب وتشغيل التجارب.
من أجل تطوير حلول جديدة لإجراء تجارب أكثر كفاءة ، نحتاج إلى دراسة اتجاهات سير العمل هذه عبر الوقت. على سبيل المثال: يستخدم عالم البيانات ثمانية وحدات معالجة رسومات (GPU) في يوم واحد ، ولكن في اليوم التالي قد يستخدموا صفرًا ، أو يمكنهم استخدام وحدة معالجة رسومات واحدة لفترة طويلة من الوقت ، ولكنهم يحتاجون بعد ذلك إلى استخدام 100 وحدة معالجة رسومات لأنهم يريدون إجراء 100 تجربة بالتوازي. بمجرد أن نفهم سير العمل هذا لتحسين قوة المعالجة لمستخدم واحد ، يمكننا البدء في توسيع نطاقه ليشمل عدة مستخدمين.
في الحوسبة التقليدية، يُخصص عدد محدد من وحدات معالجة الرسومات (GPUs) لكل مستخدم، دون مراعاة استخدامها. بهذه الطريقة، غالبًا ما تبقى وحدات معالجة الرسومات باهظة الثمن خاملة دون أن يتمكن أي شخص آخر من الوصول إليها، مما يؤدي إلى انخفاض عائد استثمارها. نحن نتفهم الأولويات المالية للشركات، ونقدم حلولاً تتيح تخصيصًا ديناميكيًا لهذه الموارد وفقًا لاحتياجات المستخدمين. من خلال توفير نظام مرن، يمكننا تخصيص طاقة إضافية لمستخدم معين عند الحاجة، وذلك باستخدام وحدات معالجة الرسومات غير المستخدمة من قبل مستخدمين آخرين، مما يحقق أقصى عائد استثمار لموارد الحوسبة في الشركة، ويسرع الابتكار ويسرع طرح حلول الذكاء الاصطناعي في السوق.
تتمثل إحدى وظائف Run: AI في أنها تتيح تقليل النقاط العمياء الناتجة عن التخصيص الثابت لوحدة معالجة الرسومات. كيف يتم تحقيق ذلك؟
لدينا أداة تمنحنا رؤية كاملة لمجموعة الموارد. باستخدام هذه الأداة ، يمكننا ملاحظة وفهم ما إذا كانت هناك نقاط عمياء ، ثم استخدام وحدات معالجة الرسومات الخاملة هذه للمستخدمين الذين يحتاجون إلى التخصيص. تعمل الأداة نفسها التي توفر الرؤية في الكتلة والتحكم في الكتلة أيضًا على التأكد من تخفيف تلك النقاط العمياء.
في خطاب حديث ، قمت بتسليط الضوء على بعض الفروق بين سير عمل البناء والتدريب ، هل يمكنك شرح كيفية تشغيل: يستخدم الذكاء الاصطناعي آلية إدارة قائمة انتظار GPU لتخصيص إدارة الموارد لكليهما؟
نموذج الذكاء الاصطناعي مبني على مرحلتين. أولاً ، هناك مرحلة البناء ، حيث يقوم عالم البيانات بكتابة الكود لبناء النموذج الفعلي ، بنفس الطريقة التي يقوم بها المهندس ببناء السيارة. والثاني هو مرحلة التدريب ، حيث يبدأ النموذج المكتمل في التعلم ويتم "التدريب" على كيفية تحسين مهمة معينة. على غرار شخص يتعلم قيادة السيارة بعد تجميعها.
لبناء النموذج نفسه ، ليست هناك حاجة إلى قدر كبير من قوة الحوسبة. ومع ذلك ، في النهاية ، قد يحتاج إلى قوة معالجة أقوى لبدء اختبارات داخلية أصغر. على سبيل المثال ، الطريقة التي قد يرغب المهندس في نهاية المطاف في اختبار المحرك بها قبل تثبيته. بسبب هذه الاحتياجات المميزة خلال كل مرحلة ، يسمح Run.AI بتخصيص GPU بغض النظر عما إذا كانوا يقومون ببناء النموذج أو تدريبه ، ومع ذلك ، كما ذكرنا سابقًا ، يلزم استخدام GPU بشكل أكبر لتدريب النموذج بينما يلزم أقل لبنائه .
ما مقدار وقت / موارد الحوسبة الخام التي يمكن لمطوري الذكاء الاصطناعي توفيرها الذين يرغبون في دمج Run.AI في أنظمتهم؟
يمكن أن تحسن حلولنا في Run.ai من رقمنة الموارد ، بحوالي مرتين إلى ثلاث مرات ، مما يعني إنتاجية إجمالية أفضل مرتين أو ثلاث مرات.
شكرا لك على المقابلة ، يمكن للقراء الذين يرغبون في معرفة المزيد أن يزوروا تشغيل: AI.












