رطم يوتام أورين ، الرئيس التنفيذي والشريك المؤسس لـ Mona Labs - سلسلة مقابلات - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

مقابلات

يوتام أورين ، الرئيس التنفيذي والشريك المؤسس لـ Mona Labs - سلسلة مقابلات

mm

تم النشر

 on

يوتام أورين هو الرئيس التنفيذي والشريك المؤسس لـ مختبرات منى، منصة تمكن المؤسسات من تحويل مبادرات الذكاء الاصطناعي من تجارب معملية إلى عمليات تجارية قابلة للتطوير من خلال الفهم الحقيقي لكيفية تصرف نماذج التعلم الآلي في العمليات والتطبيقات التجارية الحقيقية.

تقوم منى تلقائيًا بتحليل سلوك نماذج التعلم الآلي الخاصة بك عبر قطاعات البيانات المحمية وفي سياق وظائف العمل، من أجل اكتشاف التحيز المحتمل للذكاء الاصطناعي. توفر منى القدرة على إنشاء تقارير عدالة كاملة تلبي معايير ولوائح الصناعة، وتوفر الثقة في أن تطبيق الذكاء الاصطناعي متوافق وخالي من أي تحيز.

ما الذي جذبك في البداية إلى علوم الكمبيوتر؟

يعد علم الكمبيوتر مسارًا وظيفيًا شائعًا في عائلتي ، لذلك كان دائمًا في مؤخرة ذهني كخيار قابل للتطبيق. بالطبع ، الثقافة الإسرائيلية موالية للتكنولوجيا للغاية. نحتفل بالتقنيين المبتكرين وكان لدي تصور دائمًا أن علوم الكمبيوتر ستوفر لي مدرجًا للنمو والإنجاز.

على الرغم من ذلك ، فقد أصبح شغفًا شخصيًا فقط عندما وصلت إلى سن الجامعة. لم أكن أحد هؤلاء الأطفال الذين بدأوا البرمجة في المدرسة الإعدادية. في شبابي ، كنت مشغولاً للغاية بلعب كرة السلة بحيث لا يمكنني الاهتمام بأجهزة الكمبيوتر. بعد المدرسة الثانوية ، أمضيت ما يقرب من 5 سنوات في الجيش ، في الأدوار القيادية العملياتية / القتالية. لذا ، بطريقة ما ، بدأت بالفعل في تعلم المزيد عن علوم الكمبيوتر فقط عندما احتجت إلى اختيار تخصص أكاديمي في الجامعة. ما لفت انتباهي على الفور هو أن علوم الكمبيوتر تجمع بين حل المشكلات وتعلم لغة (أو لغات). شيئين كنت مهتمًا بهما بشكل خاص. ومنذ ذلك الحين ، أصبحت مدمن مخدرات.

من عام 2006 إلى عام 2008 ، عملت على رسم الخرائط والملاحة لشركة صغيرة ناشئة ، ما هي بعض النقاط الرئيسية التي استخلصتها من هذه الحقبة؟

كان دوري في Telmap هو بناء محرك بحث أعلى بيانات الخريطة والموقع.

كانت هذه الأيام الأولى لـ "البيانات الضخمة" في المؤسسة. لم نكن نسميها كذلك ، لكننا كنا نكتسب مجموعات بيانات هائلة ونحاول استخلاص الرؤى الأكثر تأثيرًا وذات الصلة لعرضها على مستخدمينا النهائيين.

كان أحد الإنجازات المذهلة التي حصلت عليها هو أن الشركات (بما في ذلك نحن) استخدمت القليل جدًا من بياناتها (ناهيك عن البيانات الخارجية المتاحة للجمهور). كان هناك الكثير من الإمكانات للحصول على رؤى جديدة وعمليات وتجارب أفضل.

كانت النتيجة الأخرى هي أن القدرة على الحصول على المزيد من بياناتنا تعتمد ، بالطبع ، على وجود بنى أفضل وبنية تحتية أفضل وما إلى ذلك.

هل يمكنك مشاركة قصة التكوين وراء مختبرات منى؟

نحن الثلاثة ، المؤسسون المشاركون ، كانوا حول منتجات البيانات طوال حياتهم المهنية.

نيمو ، كبير مسؤولي التكنولوجيا ، هو صديقي الجامعي وزميلي ، وأحد أوائل موظفي Google في تل أبيب. بدأ هناك منتجًا يسمى Google Trends ، والذي كان يحتوي على الكثير من التحليلات المتقدمة والتعلم الآلي بناءً على بيانات محرك البحث. كان إيتاي ، الشريك المؤسس الآخر وكبير مسؤولي الإنتاج ، في فريق نيمو في Google (وقد التقيت أنا وهو من خلال نيمو). كان الاثنان يشعران بالإحباط دائمًا لأن الأنظمة التي يحركها الذكاء الاصطناعي تُركت دون مراقبة بعد التطوير والاختبار الأوليين. على الرغم من صعوبة اختبار هذه الأنظمة بشكل صحيح قبل الإنتاج ، ما زالت الفرق لا تعرف مدى جودة أداء النماذج التنبؤية بمرور الوقت. بالإضافة إلى ذلك ، يبدو أن المرة الوحيدة التي سمعوا فيها عن أي تعليقات حول أنظمة الذكاء الاصطناعي كانت عندما سارت الأمور على ما يرام وتم استدعاء فريق التطوير لإجراء "تدريب على الحرائق" لإصلاح المشكلات الكارثية.

في نفس الوقت تقريبًا، كنت مستشارًا في شركة McKinsey & Co، وكان أحد أكبر العوائق التي رأيتها أمام توسيع نطاق برامج الذكاء الاصطناعي والبيانات الضخمة في المؤسسات الكبيرة هو عدم ثقة أصحاب المصلحة في الأعمال في تلك البرامج.

أصبح الخيط المشترك هنا واضحًا لنيمو وإيتاي وأنا في المحادثات. احتاجت الصناعة إلى البنية التحتية لمراقبة أنظمة الذكاء الاصطناعي / التعلم الآلي في الإنتاج. لقد توصلنا إلى رؤية لتوفير هذه الرؤية من أجل زيادة ثقة أصحاب المصلحة في الأعمال ، وتمكين فرق الذكاء الاصطناعي من التحكم دائمًا في كيفية أداء أنظمتهم والتكرار بشكل أكثر كفاءة.

وذلك عندما تأسست منى.

ما هي بعض المشاكل الحالية مع نقص الشفافية في الذكاء الاصطناعي؟

في العديد من الصناعات ، أنفقت المؤسسات بالفعل عشرات الملايين من الدولارات على برامج الذكاء الاصطناعي الخاصة بها ، وشهدت بعض النجاح الأولي في المختبر وفي عمليات النشر الصغيرة. لكن التوسع وتحقيق التبني الواسع وجعل الأعمال تعتمد فعليًا على الذكاء الاصطناعي كان تحديًا كبيرًا للجميع تقريبًا.

لماذا يحدث هذا؟ حسنًا ، يبدأ الأمر بحقيقة أن الأبحاث الرائعة لا تُترجم تلقائيًا إلى منتجات رائعة (أخبرنا أحد العملاء ذات مرة ، "نماذج ML تشبه السيارات ، في اللحظة التي يغادرون فيها المختبر ، يفقدون 20٪ من قيمتها"). المنتجات الرائعة لها أنظمة داعمة. هناك أدوات وعمليات لضمان الحفاظ على الجودة بمرور الوقت ، وأن يتم اكتشاف المشكلات مبكرًا ومعالجتها بكفاءة. تحتوي المنتجات الرائعة أيضًا على حلقة ملاحظات مستمرة ، ولديها دورة تحسين وخريطة طريق. وبالتالي ، تتطلب المنتجات الرائعة شفافية أداء عميقة ومستمرة.

عندما يكون هناك نقص في الشفافية ، ينتهي بك الأمر بـ:

  • المشكلات التي تظل مخفية لبعض الوقت ثم تنفجر في السطح مسببة "تدريبات على الحريق"
  • التحقيقات وعمليات التخفيف المطولة واليدوية
  • برنامج ذكاء اصطناعي غير موثوق به من قبل مستخدمي الأعمال والجهات الراعية ويفشل في النهاية في التوسع

ما هي بعض التحديات الكامنة وراء جعل النماذج التنبؤية شفافة وجديرة بالثقة؟

الشفافية عامل مهم في تحقيق الثقة بالطبع. يمكن أن تأتي الشفافية بأشكال عديدة. هناك شفافية تنبؤ واحدة قد تتضمن عرض مستوى الثقة للمستخدم ، أو تقديم تفسير / سبب منطقي للتنبؤ. تهدف شفافية التنبؤ الفردي في الغالب إلى مساعدة المستخدم على الشعور بالراحة مع التنبؤ. وبعد ذلك ، هناك شفافية شاملة قد تتضمن معلومات حول الدقة التنبؤية والنتائج غير المتوقعة والمشكلات المحتملة. يحتاج فريق الذكاء الاصطناعي إلى الشفافية الشاملة.

يتمثل الجزء الأكثر تحديًا في الشفافية الشاملة في اكتشاف المشكلات مبكرًا ، وتنبيه أعضاء الفريق ذي الصلة حتى يتمكنوا من اتخاذ الإجراءات التصحيحية قبل وقوع الكوارث.

لماذا يعتبر اكتشاف المشكلات مبكرًا أمرًا صعبًا:

  • غالبًا ما تبدأ المشكلات صغيرة وتنضج ، قبل أن تنفجر في النهاية على السطح.
  • غالبًا ما تبدأ المشكلات بسبب عوامل خارجية لا يمكن السيطرة عليها ، مثل مصادر البيانات.
  • هناك العديد من الطرق "لتقسيم العالم" وقد يؤدي البحث الشامل عن المشكلات في جيوب صغيرة إلى الكثير من الضوضاء (إجهاد التنبيه) ، على الأقل عندما يتم ذلك بأسلوب ساذج.

يتمثل أحد الجوانب الصعبة الأخرى لتوفير الشفافية في الانتشار الهائل لحالات استخدام الذكاء الاصطناعي. هذا يجعل من المستحيل تقريبًا اتباع أسلوب مقاس واحد يناسب الجميع. قد تتضمن كل حالة استخدام للذكاء الاصطناعي هياكل بيانات مختلفة ودورات عمل مختلفة ومقاييس نجاح مختلفة وغالبًا ما تكون أساليب تقنية مختلفة وحتى مجموعات.

إذن ، إنها مهمة ضخمة ، لكن الشفافية أساسية جدًا لنجاح برامج الذكاء الاصطناعي ، لذا عليك القيام بذلك.

هل يمكنك مشاركة بعض التفاصيل حول حلول NLU / NLP Models & Chatbots؟

الذكاء الاصطناعي للمحادثة هو أحد القطاعات الأساسية في منى. نحن فخورون بدعم الشركات المبتكرة من خلال مجموعة واسعة من حالات استخدام الذكاء الاصطناعي للمحادثة ، بما في ذلك نماذج اللغة وروبوتات الدردشة والمزيد.

العامل المشترك عبر حالات الاستخدام هذه هو أن النماذج تعمل بالقرب (وأحيانًا مرئية) للعملاء ، وبالتالي فإن مخاطر الأداء غير المتسق أو السلوك السيئ تكون أعلى. يصبح من المهم جدًا لفرق الذكاء الاصطناعي للمحادثة فهم سلوك النظام على مستوى حبيبي ، وهو مجال نقاط القوة في حل المراقبة منى.

إن ما يفعله حل منى فريد تمامًا هو غربلة مجموعات المحادثات بشكل منهجي وإيجاد جيوب تسيء فيها النماذج (أو الروبوتات) التصرف. يتيح ذلك لفرق الذكاء الاصطناعي للمحادثة تحديد المشكلات مبكرًا وقبل أن يلاحظها العملاء. هذه القدرة هي محرك قرار حاسم لفرق الذكاء الاصطناعي للمحادثة عند اختيار حلول المراقبة.

لتلخيص ذلك ، توفر منى حلاً شاملاً لمراقبة المحادثة بالذكاء الاصطناعي. يبدأ بضمان وجود مصدر واحد للمعلومات لسلوك الأنظمة بمرور الوقت ، ويستمر بالتتبع المستمر لمؤشرات الأداء الرئيسية ، والرؤى الاستباقية حول جيوب سوء السلوك - مما يتيح للفرق اتخاذ تدابير تصحيحية وقائية وفعالة.

هل يمكنك تقديم بعض التفاصيل حول محرك منى البصيرة؟

بالتأكيد. لنبدأ بالدافع. الهدف من محرك البصيرة هو إظهار الحالات الشاذة للمستخدمين ، مع المقدار الصحيح من المعلومات السياقية وبدون إحداث ضوضاء أو التسبب في إجهاد التنبيه.

محرك البصيرة هو سير عمل تحليلي فريد من نوعه. في سير العمل هذا ، يبحث المحرك عن الحالات الشاذة في جميع أجزاء البيانات ، مما يسمح بالكشف المبكر عن المشكلات عندما لا تزال "صغيرة" ، وقبل أن تؤثر على مجموعة البيانات بأكملها ومؤشرات الأداء الرئيسية للأعمال النهائية. ثم يستخدم خوارزمية خاصة للكشف عن الأسباب الجذرية للحالات الشاذة والتأكد من تنبيه كل حالة شاذة مرة واحدة فقط حتى يتم تجنب الضوضاء. أنواع الشذوذ المدعومة تشمل: شذوذ السلاسل الزمنية ، والانحرافات ، والقيم المتطرفة ، وتدهور النموذج والمزيد.

محرك البصيرة قابل للتخصيص بدرجة كبيرة من خلال تهيئة منى سهلة الاستخدام بدون رمز / رمز منخفض. تجعل قابلية تكوين المحرك منى الحل الأكثر مرونة في السوق ، حيث يغطي مجموعة واسعة من حالات الاستخدام (على سبيل المثال ، الدُفعات والبث ، مع / بدون تعليقات العمل / الحقيقة الأساسية ، عبر إصدارات النموذج أو بين التدريب والاستدلال ، والمزيد ).

أخيرًا ، يتم دعم محرك الإحصاءات هذا من خلال لوحة معلومات التصور ، حيث يمكن عرض الرؤى ، ومجموعة من أدوات التحقيق لتمكين تحليل السبب الجذري والمزيد من استكشاف المعلومات السياقية. تم أيضًا دمج محرك البصيرة بشكل كامل مع محرك الإشعارات الذي يتيح تغذية الأفكار لبيئات العمل الخاصة بالمستخدمين ، بما في ذلك البريد الإلكتروني ومنصات التعاون وما إلى ذلك.

في 31 يناير ، كشف النقاب عن منى حل عدالة الذكاء الاصطناعي الجديد ، هل يمكنك مشاركتنا تفاصيل حول ماهية هذه الميزة ولماذا هي مهمة؟

تتعلق عدالة الذكاء الاصطناعي بضمان أن الخوارزميات والأنظمة التي يحركها الذكاء الاصطناعي بشكل عام تتخذ قرارات غير متحيزة ومنصفة. تعتبر معالجة ومنع التحيزات في أنظمة الذكاء الاصطناعي أمرًا بالغ الأهمية ، لأنها يمكن أن تؤدي إلى عواقب كبيرة في العالم الحقيقي. مع بروز الذكاء الاصطناعي المتزايد ، سيكون التأثير على حياة الناس اليومية مرئيًا في المزيد والمزيد من الأماكن ، بما في ذلك أتمتة قيادتنا ، واكتشاف الأمراض بشكل أكثر دقة ، وتحسين فهمنا للعالم ، وحتى خلق الفن. إذا لم نتمكن من الثقة في أنه عادل وغير متحيز ، فكيف نسمح له بالاستمرار في الانتشار؟

أحد الأسباب الرئيسية للتحيزات في الذكاء الاصطناعي هو ببساطة قدرة بيانات التدريب النموذجية على تمثيل العالم الحقيقي بالكامل. يمكن أن ينبع هذا من التمييز التاريخي ، أو التمثيل الناقص لمجموعات معينة ، أو حتى التلاعب المتعمد بالبيانات. على سبيل المثال ، من المحتمل أن يكون لنظام التعرف على الوجه المُدرب على الأفراد ذوي البشرة الفاتحة معدل خطأ أعلى في التعرف على الأفراد ذوي البشرة الداكنة. وبالمثل ، فإن نموذج اللغة المُدرَّب على بيانات نصية من مجموعة ضيقة من المصادر قد يؤدي إلى تحيزات إذا كانت البيانات منحرفة نحو وجهات نظر معينة للعالم ، حول موضوعات مثل الدين والثقافة وما إلى ذلك.

يمنح حل العدالة للذكاء الاصطناعي من منى الذكاء الاصطناعي وفرق العمل الثقة في أن الذكاء الاصطناعي لديهم خالٍ من التحيزات. في القطاعات الخاضعة للتنظيم ، يمكن لحل منى إعداد فرق للاستعداد للامتثال.

يعد حل منى للعدالة خاصًا لأنه موجود على منصة Mona - جسر بين بيانات ونماذج الذكاء الاصطناعي وآثارها في العالم الحقيقي. تنظر منى في جميع أجزاء عملية الأعمال التي يخدمها نموذج الذكاء الاصطناعي في الإنتاج ، للربط بين بيانات التدريب وسلوك النموذج والنتائج الواقعية الواقعية من أجل تقديم التقييم الأكثر شمولاً للعدالة.

ثانيًا ، يحتوي على محرك تحليلي فريد من نوعه يسمح بتقسيم البيانات بشكل مرن للتحكم في المعلمات ذات الصلة. يتيح ذلك إجراء تقييمات دقيقة للارتباطات في السياق الصحيح ، وتجنب مفارقة سيمبسون وتوفير "درجة تحيز" حقيقية عميقة لأي مقياس أداء وأي ميزة محمية.

لذلك ، بشكل عام ، أود أن أقول إن منى عنصر أساسي للفرق التي تحتاج إلى بناء ذكاء اصطناعي مسؤول وتوسيع نطاقه.

ما هي رؤيتك لمستقبل الذكاء الاصطناعي؟

هذا هو السؤال الكبير.

أعتقد أنه من السهل التنبؤ بأن الذكاء الاصطناعي سيستمر في النمو في الاستخدام والتأثير عبر مجموعة متنوعة من قطاعات الصناعة وجوانب حياة الناس. ومع ذلك ، من الصعب التعامل بجدية مع رؤية مفصلة وفي نفس الوقت تحاول تغطية جميع حالات الاستخدام والآثار المترتبة على الذكاء الاصطناعي في المستقبل. لأنه لا أحد يعرف حقًا ما يكفي لرسم تلك الصورة بمصداقية.

ومع ذلك ، فإن ما نعرفه على وجه اليقين هو أن الذكاء الاصطناعي سيكون في أيدي المزيد من الأشخاص وسيخدم أغراضًا أكثر. لذلك ستزداد الحاجة إلى الحوكمة والشفافية بشكل كبير.

الرؤية الحقيقية للذكاء الاصطناعي وكيفية عمله ستلعب دورين أساسيين. أولاً ، سيساعد في غرس الثقة في الناس ورفع حواجز المقاومة من أجل اعتماد أسرع. ثانيًا ، سيساعد كل من يقوم بتشغيل الذكاء الاصطناعي على التأكد من أنه لن يخرج عن نطاق السيطرة.

شكرا لك على المقابلة الرائعة ، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا مختبرات منى.

شريك مؤسس في unite.AI وعضو في مجلس تكنولوجيا فوربس ، أنطوان أ المستقبلي من هو شغوف بمستقبل الذكاء الاصطناعي والروبوتات.

وهو أيضًا مؤسس Securities.io، موقع ويب يركز على الاستثمار في التكنولوجيا الثورية.