Connect with us

يارون سينجر، الرئيس التنفيذي في Robust Intelligence وأستاذ علوم الحاسوب في جامعة هارفارد – سلسلة المقابلات

مقابلات

يارون سينجر، الرئيس التنفيذي في Robust Intelligence وأستاذ علوم الحاسوب في جامعة هارفارد – سلسلة المقابلات

mm

يارون سينجر هو الرئيس التنفيذي لشركة Robust Intelligence وأستاذ علوم الحاسوب والرياضيات التطبيقية في جامعة هارفارد. يُعرف يارون بتحقيقه نتائج كبرى في تعلم الآلة والخوارزميات والتحسين. في السابق، عمل يارون في بحث جوجل وحصل على الدكتوراه من جامعة كاليفورنيا في بيركلي.

ما الذي جذبك في البداية إلى مجال علوم الحاسوب وتعلم الآلة؟

بدأت رحلتي مع الرياضيات، التي أدتني إلى علوم الحاسوب، والتي وضعتني على طريق تعلم الآلة. جذبتني الرياضيات في البداية لأن نظامها المبني على الأxioms أتاح لي khảية إنشاء عوالم جديدة. مع علوم الحاسوب، تعلمت عن البراهين الوجودية، ولكن أيضًا الخوارزميات وراءها. من منظور إبداعي، علوم الحاسوب هي رسم الحدود بين ما يمكننا فعله وما لا يمكننا فعله.

لقد كانت اهتماماتي دائمًا متجذرة في اهتمام بالبيانات الحقيقية، شبه الجانب المادي منها. أخذ الأشياء من العالم الحقيقي ونمذجتها لجعل شيء ذي معنى. يمكننا حرفيًا هندسة عالم أفضل من خلال نمذجة ذي معنى. لذلك، أتاح لي الرياضيات أساسًا ل証 اثبات الأشياء، وتساعدني علوم الحاسوب على رؤية ما يمكننا فعله وما لا يمكننا فعله، وتعلم الآلة تمكني من نمذجة هذه المفاهيم في العالم.

حتى وقت قريب كنت أستاذًا لعلوم الحاسوب والرياضيات التطبيقية في جامعة هارفارد، ما هي بعض النتائج الرئيسية التي توصلت إليها من هذه التجربة؟

أكبر استخلاص توصلت إليه من كوني عضو هيئة تدريس في جامعة هارفارد هو أن ذلك يطور رغبة الفرد في القيام بأشياء كبيرة. تقليدًا على جامعة هارفارد، فإن الهيئة التدريسية الصغيرة وتوقعات المسار الوظيفي للتدريس هي مواجهة مشاكل كبيرة وإنشاء مجالات جديدة. عليك أن تكون جريئًا. هذا يعد استعدادًا رائعًا لإنشاء شركة ناشئة تُحدد فئة جديدة. لا أوصي بالضرورة بالمرور عبر مسار هيئة التدريس في جامعة هارفارد أولًا، ولكن إذا نجوت من ذلك، فإن بناء شركة ناشئة يكون أسهل.

يمكنك وصف لحظة “أها” عندما أدركت أن أنظمة الذكاء الاصطناعي المتطورة معرضة للبيانات السيئة، مع بعض الآثار البعيدة المدى المحتملة؟

عندما كنت طالب دراسات عليا في جامعة كاليفورنيا في بيركلي، أخذت بعض الوقت لإنشاء شركة ناشئة بنى نماذج تعلم الآلة للتسويق في الشبكات الاجتماعية. كان ذلك في عام 2010. لدينا كميات هائلة من البيانات من وسائل الإعلام الاجتماعية، وبرمجنا جميع النماذج من الصفر. كانت الآثار المالية للبائعين مهمة جدًا، لذا تابعنا أداء النماذج عن كثب.由于 استخدامنا بيانات من وسائل الإعلام الاجتماعية، كان هناك العديد من الأخطاء في الإدخال، بالإضافة إلى الانجراف. رأينا أن الأخطاء الصغيرة الناتجة عن التغييرات الكبيرة في إخراج النموذج يمكن أن تؤدي إلى نتائج مالية سيئة للبائعين الذين يستخدمون المنتج.

عندما انتقلت إلى العمل على جوجل+ (من أجل أولئك منا الذين يتذكرون)، رأيت نفس الآثار بشكل أكثر درامية. في أنظمة مثل AdWords التي تقدم تنبؤات حول احتمال أن ينقر الناس على إعلان لكلمات رئيسية، لاحظنا أن الأخطاء الصغيرة في الإدخال تؤدي إلى تنبؤات سيئة جدًا. عندما تشهد هذه المشكلة بمقياس جوجل، تفهم أن المشكلة عالمية.

شكلت هذه التجارب تركيز بحثي بشكل كبير، وقضيت وقتي في جامعة هارفارد في تحقيق سبب أخطاء نماذج الذكاء الاصطناعي، وأهم من ذلك، كيفية تصميم خوارزميات يمكنها منع النماذج من الأخطاء. هذا، بالطبع، أدى إلى المزيد من لحظات “أها”، وأخيرًا، إلى إنشاء Robust Intelligence.

يمكنك مشاركة قصة ولادة Robust Intelligence؟

بدأت Robust Intelligence مع بحث حول ما كان في البداية مشكلة نظرية: ما هي الضمانات التي يمكننا الحصول عليها لاتخاذ القرارات باستخدام نماذج الذكاء الاصطناعي. كان Kojin طالبًا في جامعة هارفارد، وعملنا معًا، في البداية، في كتابة أوراق بحثية. لذلك، يبدأ الأمر بكتابة أوراق تُحدد ما هو ممكن وفهم ما هو مستحيل نظريًا. ثم استمرت هذه النتائج إلى برنامج لتصميم خوارزميات ونماذج قادرة على تحمل فشل الذكاء الاصطناعي. بعد ذلك، بنينا أنظمة يمكنها تشغيل هذه الخوارزميات في الممارسة. بعد ذلك، كان البدء في شركة حيث يمكن للمنظمات استخدام نظام مثل هذا خطوة طبيعية.

يمكنك وصف أخطاء صامتة، ما هي هذه الأخطاء وما الذي يجعلها خطيرة جدًا؟

قبل تقديم تعريف تقني لأخطاء صامتة، من المفيد اتخاذ خطوة إلى الوراء لفهم لماذا يجب أن نهتم بأخطاء الذكاء الاصطناعي في المقام الأول. السبب في اهتمامنا بأخطاء نماذج الذكاء الاصطناعي هو عواقب هذه الأخطاء. العالم يعتمد على الذكاء الاصطناعي لآلية القرارات الحرجة: من يحصل على قروض تجارية وبأي سعر فائدة، من يحصل على تغطية التأمين الصحي وبأي سعر، أي أحياء يجب على الشرطة патрулиها، من هو المرشح المثالي للوظيفة، كيف يجب تنظيم أمن المطار، وما إلى ذلك. حقيقة أن نماذج الذكاء الاصطناعي معرضة للأخطاء بشكل كبير يعني أننا عندما نعتمد على الذكاء الاصطناعي لآلية هذه القرارات، نحصل على مخاطر كبيرة. في Robust Intelligence، نسمي هذا “مخاطر الذكاء الاصطناعي”، ورسالتنا في الشركة هي القضاء على مخاطر الذكاء الاصطناعي.

أخطاء صامتة هي أخطاء نماذج الذكاء الاصطناعي حيث يستقبل النموذج إدخالًا ويُنتج تنبؤًا أو قرارًا خاطئًا أو متحيزًا كإخراج. لذلك، على السطح، كل شيء يبدو على ما يرام بالنسبة للنظام، في أن النموذج يقوم بما هو مفترض أن يفعله من منظور وظيفي. لكن التنبؤ أو القرار هو خاطئ. هذه الأخطاء هي صامتة لأن النظام لا يعرف أن هناك خطأ. يمكن أن يكون هذا أسوأ من حالة التي لا ينتج فيها نموذج الذكاء الاصطناعي إخراجًا، لأنها يمكن أن تأخذ وقتًا طويلاً من المنظمات للا意识 بأن نظام الذكاء الاصطناعي الخاص بهم معيب. ثم يصبح خطر الذكاء الاصطناعي فشلًا في الذكاء الاصطناعي، والذي يمكن أن يكون له عواقب وخيمة.

لقد صممت Robust Intelligence بشكل أساسي جدار ناري للذكاء الاصطناعي، وهي فكرة كانت تعتبر من قبل مستحيلة. لماذا تُعد هذه تحديًا تقنيًا؟

أحد الأسباب التي تجعل جدار النار للذكاء الاصطناعي تحديًا هو أنه يتعارض مع نمط المجتمع الذكاء الاصطناعي السابق. كان نمط المجتمع الذكاء الاصطناعي السابق هو أنه من أجل القضاء على الأخطاء، يتعين إطعام المزيد من البيانات، بما في ذلك البيانات السيئة، إلى النماذج. من خلال القيام بذلك، سيتعلم النماذج من تلقاء نفسها ويتعلم كيفية تصحيح الأخطاء. المشكلة مع هذا النهج هو أنه يؤدي إلى انخفاض دقة النموذج بشكل كبير. أفضل النتائج المعروفة للصور، على سبيل المثال، تؤدي إلى انخفاض دقة نموذج الذكاء الاصطناعي من 98.5٪ إلى حوالي 37٪.

يقدم جدار النار للذكاء الاصطناعي حلًا مختلفًا. نفصل مشكلة تحديد الخطأ عن دور إنشاء التنبؤ، مما يعني أن جدار النار يمكنه التركيز على مهمة محددة: تحديد ما إذا كان نقطة البيانات ستنتج تنبؤًا خاطئًا.

كان هذا تحديًا في حد ذاته بسبب صعوبة إعطاء تنبؤ على نقطة بيانات واحدة. هناك العديد من الأسباب التي تجعل النماذج تُخطئ، لذلك بناء تكنولوجيا يمكنها التنبؤ بهذه الأخطاء لم يكن مهمة سهلة. نحن محظوظون جدًا أن لدينا المهندسين الذين لدينا.

كيف يمكن للنظام مساعدة منع تحيز الذكاء الاصطناعي؟

ينشأ تحيز النموذج من عدم مطابقة البيانات التي تم تدريب النموذج عليها وبياناته التي يستخدمها لاتخاذ التنبؤات. العودة إلى خطر الذكاء الاصطناعي، التحيز هو مشكلة رئيسية يُعزى إليها أخطاء صامتة. على سبيل المثال، غالبًا ما يكون هذا مشكلة مع السكان غير الممثّلين. قد يكون نموذج معيب بسبب أن لديه بيانات أقل من هذا السكان، مما يؤثر بشكل كبير على أداء النموذج ودقة تنبؤاته. يمكن لجدار النار للذكاء الاصطناعي أن يُحذر المنظمات من هذه الاختلافات في البيانات ومساعدة النموذج على اتخاذ القرارات الصحيحة.

ما هي بعض المخاطر الأخرى التي تساعد جدار النار للذكاء الاصطناعي في منعها؟

أي شركة تستخدم الذكاء الاصطناعي لآلية القرارات، خاصة القرارات الحرجة، تُدخل تلقائيًا المخاطر. يمكن أن يكون البيانات السيئة مثل إدخال صفر بدلاً من واحد ولا يزال يؤدي إلى عواقب كبيرة. سواء كانت أخطاء التنبؤات الطبية أو التنبؤات الخاطئة حول الإقراض، يساعد جدار النار للذكاء الاصطناعي المنظمات على منع المخاطر بشكل كامل.

هل هناك أي شيء آخر تود مشاركته حول Robust Intelligence؟

Robust Intelligence تتوسع بسرعة ونحصل على العديد من المرشحين الجيدين الذين يتقدمون لوظائف. لكن شيء أريد التأكيد عليه لأولئك الذين يفكرون في التقدم هو أن أهم صفة نبحث عنها في المرشحين هي شغفهم بالرسالة. نحصل على لقاء العديد من المرشحين الذين يمتلكون قوة تقنية، لذلك يأتي الأمر إلى فهم ما إذا كانوا حقًا متحمسين لمنع مخاطر الذكاء الاصطناعي لجعل العالم مكانًا أكثر أمانًا وأفضل.

في العالم الذي نتجه إليه، ستتم اتخاذ العديد من القرارات التي يتم اتخاذها حاليًا من قبل البشر تلقائيًا. سواء كنا نحب ذلك أم لا، هذه هي الحقيقة. بالنظر إلى ذلك، كلنا في Robust Intelligence نريد اتخاذ القرارات التلقائية بشكل مسؤول. لذلك، أي شخص متحمس لجعل تأثير، من يفهم كيف يمكن أن يؤثر هذا على حياة الناس، هو مرشح نبحث عنه للانضمام إلى Robust Intelligence. نحن نبحث عن هذا الشغف. نحن نبحث عن الأشخاص الذين سوف يخلقون هذه التكنولوجيا التي سوف يستخدمها العالم كله.

شكرًا على المقابلة الرائعة، استمتعت بتعلم آرائك حول منع تحيز الذكاء الاصطناعي وضرورة جدار النار للذكاء الاصطناعي، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا Robust Intelligence.

أنطوان هو قائد رؤى ومؤسس شريك في Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. رجل أعمال متسلسل، يعتقد أن الذكاء الاصطناعي سيكون مدمرًا للمجتمع مثل الكهرباء، وغالبًا ما يُقبض عليه وهو يثرثر عن إمكانات التكنولوجيات المدمرة و AGI.

كما أنه مستقبلي، فهو مخصص لاستكشاف كيف سيشكل هذه الابتكارات العالم. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التكنولوجيات المتقدمة التي تعيد تعريف المستقبل وتهيئ القطاعات بأكملها.