مقابلات
بلير نيومان، رئيس قسم التكنولوجيا في Neuton – سلسلة المقابلات

بلير نيومان، هو رئيس قسم التكنولوجيا في Neuton، وهي إطار شبكة عصبية متجاوزة و自動 تعلم الآلة (AutoML) حل أكثر فعالية من أي إطار أو خوارزمية غير عصبية أو منتج AutoML متاح في السوق. إنه يجعل الذكاء الاصطناعي (AI) متاحًا للجميع.
ماذا جذبك في البداية إلى تعلم الآلة وعلوم البيانات؟
من منظور شخصي، لقد كنت دائمًا مهتمًا بإمكانيات ما يمكن أن توفره ML/علوم البيانات، مثل – من المدن الذكية – السيارات المتصلّة والآن ما يمكن أن تقدمه TinyML أيضًا. الآن مع توفير الديمقراطية للذكاء الاصطناعي، نحن نشهد حرفيًا ML في كل مكان.
يمكنك أن تشارك قصة ولادة Neuton؟
قررنا أن نبدأ رحلتنا في جعل الذكاء الاصطناعي متاحًا “لكل شخص” بعد سنوات عديدة من تنفيذ مشاريع متعددة من منظور تعلم الآلة. خلال هذه الفترة، حددنا عددًا من الحواجز المختلفة التي تقييد النمو الأسي. لذلك، من أجل جعل تعلم الآلة متاحًا للجميع… كنا بحاجة إلى معالجة بعض الحواجز الفنية التي كانت موجودة…. متطلبات كميات كبيرة من البيانات لأداء التدريب… حل سحابي تلقائي لإزالة الحاجة إلى الخبرة الفنية…. ثم أخيرًا، جعل منصتنا متاحة مجانًا لإزالة الحاجز الأخير.
للمقاطع الذين قد لا يكونون على دراية بهذه المصطلحات، يمكنك أن تعرفنا ما هو TinyML؟
أنا عادة ما أحافظ على البساطة…. العالم المادي يلتقي العالم الرقمي…. ومن حيث تقاطع هذه الكيانين… هو عالم TinyML…. TinyML يجلب الذكاء مباشرة إلى هذا الحد.
ما الذي يمنع تسريع TinyML في مجتمع الذكاء الاصطناعي؟
TinyML يتطلب عادةً كمية هائلة من رأس المال من منظور الموارد. HW، مهندسي التضمين، مهندسي تعلم الآلة، مطورو البرمجيات للتكامل…. واحدة من المجالات التي نتفوق فيها هي أننا نخفض هذه المتطلبات بشكل كبير.
كيف يخلق Neuton نماذج مضغوطة بدون المساس بالدقة؟
الإطارات التقليدية والأكثر شهرة (مثل TensorFlow) تبدأ ببنية موجودة مسبقًا والتي تتضمن بالفعل الفاقد. بالإضافة إلى ذلك، بناء نموذج غالبًا ما يكون عملية تكرارية جدًا والتي بمجرد بناء النموذج يجب تحسينها قبل التكامل. هذا ما أسميه نهجًا من الأعلى إلى الأسفل. مع Neuton، نقلب هذا المنهج رأسًا على عقب لأننا نبني كل نموذج من الأسفل إلى الأعلى، خلية عصبية واحدة في كل مرة، مما يؤدي إلى القضاء على الفاقد المتأصل في الإطارات الأخرى. هذا راجع إلى أن هيكل الشبكة لا يتم تعريفها مسبقًا، ولكنها تنمو من خلية عصبية واحدة خلال التدريب. نقترن هذا النهج مع التحقق المتقاطع المستمر مع كل خلية عصبية يتم تطبيقها على النموذج الناتج. لذلك، يتم بناء النموذج النهائي دائمًا لغرض، بدون فاقد ودقيق عند الانتهاء.
Neuton لا يستخدم التخفيض العكسي أو الانحدار العشوائي، ما هو السبب وراء تجنب هذه المناهج الشهيرة؟
نهجنا المملوك بالبراءة يستخدم منهجية تحسين عالمي يؤدي إلى القضاء على الحاجة لتطبيق هذه المناهج.
كم عدد مرات كفاءة حل Neuton مقارنة بالمناهج التقليدية لتعلم الآلة؟
في جميع المعايير الرئيسية مثل وقت إنشاء النموذج، الدقة، حجم النموذج وبالتالي وقت السوق. نحن نرى باستمرار أننا نتفوق على الإطارات والمنصات الأخرى…. عادة ما نرى أن نماذجنا تكون في كثير من الأحيان 1000 مرة أصغر مع تقليل وقت السوق بنسبة تزيد عن 70%. وأخيرًا، مكتبنا لشرحability هو الثاني في تقديم الشفافية الكاملة لأنماطنا جنبًا إلى جنب مع كل تنبؤ فردي.
يمكنك أن تقدم بعض التفاصيل حول قابلية تفسير الذكاء الاصطناعي التي يقدمها منصة Neuton؟
مكتبنا لشرحability يأتي في عدة أشكال. يبدأ أولاً بأداة تحليل البيانات الاستكشافي (EDA) التي توفر نظرة أولية على إحصائيات البيانات قبل التدريب. من هناك، يتيح لنا مصفوفة أهمية الميزة تحديد ما هي أفضل 10 ميزات التي تؤثر على تنبؤاتك وأيضًا ما هي أسوأ 10 ميزات التي تؤثر بشكل ضعيف على تنبؤاتك. من هناك، نقدم لزبائننا مستوى متقدم من الشفافية لأنماطهم الناتجة لأنهم قادرون على تحليل كل تنبؤ فردي لمعرفة كيف يمكن أن تتغير تنبؤاتك إذا تغيرت قيمة ميزة معينة. وأخيرًا، نقدم أداة إدارة دورة حياة (مؤشر صحة النموذج إلى البيانات) التي تنبه زبائننا بشكل استباقي عندما يبدأ نموذجهم في التدهور ويتطلب إعادة التدريب.
هل هناك أي شيء آخر تود أن تشاركه حول Neuton؟
مهمتنا هنا في Neuton هي جعل الذكاء الاصطناعي متاحًا للجميع. نحن نعتقد أننا قد نجحنا في开始 تحقيق هذه الإمكانيات. سواء كان ذلك بتمكين غير علماء البيانات أو تمكين علماء البيانات المخضرمين من خلال تقديم حل سحابي بدون رمز. الآن مع تسريع TinyML، نحن على طريقنا جيدًا لتحقيق ديمقراطية الذكاء الاصطناعي.
شكرًا على المقابلة الرائعة، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا Neuton.












