رطم جولييت باول وآرت كلاينر، مؤلفا معضلة الذكاء الاصطناعي - سلسلة المقابلات - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

مقابلات

جولييت باول وآرت كلاينر، مؤلفا معضلة الذكاء الاصطناعي – سلسلة المقابلات

mm

تم النشر

 on

معضلة الذكاء الاصطناعي من تأليف جولييت باول وآرت كلاينر.

Juliette باول هي مؤلفة ومبدعة تلفزيونية لديها 9,000 برنامج حي تحت حزامها، وعالمة تكنولوجيا وعالمة اجتماع. وهي أيضًا معلقة في تلفزيون بلومبرج/شبكات أخبار الأعمال ومتحدثة في المؤتمرات التي تنظمها مجلة الإيكونوميست ومؤسسة التمويل الدولية. حصلت محادثتها في TED على 130 ألف مشاهدة على YouTube. تحدد جولييت أنماط وممارسات قادة الأعمال الناجحين الذين يعتمدون على الذكاء الاصطناعي الأخلاقي والبيانات لتحقيق الفوز. وهي عضو في هيئة التدريس في ITP بجامعة نيويورك حيث تقوم بتدريس أربع دورات، بما في ذلك مهارات التصميم للإعلام المسؤول، وهي دورة تعتمد على كتابها.

"معضلة الذكاء الاصطناعي"هو كتاب يركز على مخاطر وقوع تكنولوجيا الذكاء الاصطناعي في الأيدي الخطأ مع الاعتراف بالفوائد التي يقدمها الذكاء الاصطناعي للمجتمع.

تنشأ المشاكل لأن التكنولوجيا الأساسية معقدة للغاية بحيث يصبح من المستحيل على المستخدم النهائي أن يفهم حقًا الأعمال الداخلية لنظام الصندوق المغلق.

إحدى أهم القضايا التي تم تسليط الضوء عليها هي كيفية تغير تعريف الذكاء الاصطناعي المسؤول دائمًا، حيث لا تظل القيم المجتمعية ثابتة بمرور الوقت.

لقد استمتعت جدًا بقراءة "معضلة الذكاء الاصطناعي". إنه كتاب لا يثير إثارة مخاطر الذكاء الاصطناعي أو يتعمق في المخاطر المحتملة للذكاء الاصطناعي العام (AGI). وبدلاً من ذلك، يتعرف القراء على الطرق المدهشة التي تُستخدم بها بياناتنا الشخصية دون علمنا، بالإضافة إلى بعض القيود الحالية للذكاء الاصطناعي وأسباب القلق.

فيما يلي بعض الأسئلة التي تم تصميمها لتظهر لقرائنا ما يمكن أن يتوقعوه من هذا الكتاب الرائد.

ما الذي ألهمك في البداية لكتابة "معضلة الذكاء الاصطناعي"؟

ذهبت جولييت إلى كولومبيا جزئيًا لدراسة حدود وإمكانيات تنظيم الذكاء الاصطناعي. لقد سمعت بشكل مباشر من الأصدقاء الذين يعملون في مشاريع الذكاء الاصطناعي عن التوتر الكامن في تلك المشاريع. وتوصلت إلى استنتاج مفاده أن هناك معضلة الذكاء الاصطناعي، وهي مشكلة أكبر بكثير من التنظيم الذاتي. لقد طورت نموذج Apex المرجعي - وهو نموذج لكيفية ميل القرارات المتعلقة بالذكاء الاصطناعي نحو مسؤولية منخفضة بسبب التفاعلات بين الشركات والمجموعات داخل الشركات. مما أدى إلى أطروحتها.

عمل آرت مع جولييت في عدد من مشاريع الكتابة. قرأ أطروحتها وقال: "لديك كتاب هنا". دعته جولييت للمشاركة في تأليفه. ومن خلال العمل معًا على هذا الموضوع، اكتشفوا أن لديهم وجهات نظر مختلفة تمامًا ولكنهم شاركوا وجهة نظر قوية مفادها أن ظاهرة الذكاء الاصطناعي المعقدة والمحفوفة بالمخاطر للغاية تحتاج إلى فهم أفضل حتى يتمكن الأشخاص الذين يستخدمونها من التصرف بشكل أكثر مسؤولية وفعالية.

إحدى المشاكل الأساسية التي تم تسليط الضوء عليها في معضلة الذكاء الاصطناعي هي أنه من المستحيل حاليًا فهم ما إذا كان نظام الذكاء الاصطناعي مسؤولاً أو أنه يديم عدم المساواة الاجتماعية بمجرد دراسة كود المصدر الخاص به. ما حجم هذه المشكلة؟

المشكلة ليست في المقام الأول مع التعليمات البرمجية المصدر. وكما تشير كاثي أونيل، عندما يكون هناك نظام صندوق مغلق، فهو لا يقتصر على الكود فقط. إن النظام الاجتماعي التقني – القوى البشرية والتكنولوجية التي تشكل بعضها البعض – هو الذي يحتاج إلى الاستكشاف. يتضمن المنطق الذي بنى نظام الذكاء الاصطناعي وأطلقه تحديد الغرض، وتحديد البيانات، وتحديد الأولويات، وإنشاء النماذج، ووضع المبادئ التوجيهية وحواجز الحماية للتعلم الآلي، وتحديد متى وكيف يجب أن يتدخل الإنسان. وهذا هو الجزء الذي يجب أن يكون شفافاً – على الأقل بالنسبة للمراقبين والمدققين. ويصبح خطر التفاوت الاجتماعي والمخاطر الأخرى أكبر كثيرا عندما تكون هذه الأجزاء من العملية مخفية. لا يمكنك حقًا إعادة هندسة منطق التصميم من الكود المصدري.

يمكن التركيز على شرح منظمة العفو الدولية (XAI) معالجة هذا من أي وقت مضى؟

بالنسبة للمهندسين، يُنظر حاليًا إلى الذكاء الاصطناعي القابل للتفسير على أنه مجموعة من القيود والممارسات التكنولوجية، التي تهدف إلى جعل النماذج أكثر شفافية للأشخاص الذين يعملون عليها. بالنسبة لشخص يتم اتهامه زورًا، فإن قابلية التفسير لها معنى وإلحاح مختلفان تمامًا. إنهم بحاجة إلى التوضيح حتى يتمكنوا من الدفاع عن أنفسهم. نحن جميعا بحاجة إلى التوضيح بمعنى جعل القرارات التجارية أو الحكومية التي تقوم عليها النماذج واضحة. في الولايات المتحدة على الأقل، سوف يكون هناك دائماً توتر بين قابلية التفسير ــ حق الإنسانية في المعرفة ــ وحق أي منظمة في المنافسة والإبداع. ويحتاج المدققون والمنظمون إلى مستوى مختلف من التوضيح. سنتناول هذا بمزيد من التفصيل في معضلة الذكاء الاصطناعي.

هل يمكنك مشاركة آرائك بإيجاز حول أهمية تحميل أصحاب المصلحة (شركات الذكاء الاصطناعي) المسؤولية عن الكود الذي يصدرونه للعالم؟

حتى الآن، على سبيل المثال، في حادث تصادم سيارة ذاتية القيادة في تيمبي بولاية أريزونا أدى إلى مقتل أحد المشاة، تم تحميل المشغل المسؤولية. ذهب فرد إلى السجن. لكن في النهاية، كان ذلك فشلًا تنظيميًا.

عندما ينهار جسر، يتحمل المهندس الميكانيكي المسؤولية. وذلك لأن المهندسين الميكانيكيين يتم تدريبهم، وإعادة تدريبهم باستمرار، وتحملهم المسؤولية عن مهنتهم. مهندسي الكمبيوتر ليسوا كذلك.

هل ينبغي تدريب أصحاب المصلحة، بما في ذلك شركات الذكاء الاصطناعي، وإعادة تدريبهم لاتخاذ قرارات أفضل وتحمل المزيد من المسؤولية؟

ركزت معضلة الذكاء الاصطناعي كثيرًا على كيفية قيام شركات مثل Google وMeta بجمع بياناتنا الشخصية واستثمارها. هل يمكنك مشاركة مثال على سوء استخدام كبير لبياناتنا والذي يجب أن يكون على رادار الجميع؟

من معضلة الذكاء الاصطناعي، الصفحة 67 وما يليها:

تستمر حالات جديدة من إساءة الاستخدام المنهجي للبيانات الشخصية في الظهور للعامة، وينطوي العديد منها على الاستخدام السري للتعرف على الوجه. في ديسمبر 2022، نشرت مجلة MIT Technology Review تقارير عن ممارسة iRobot طويلة الأمد. تقوم روبوتات Roomba المنزلية بتسجيل الصور ومقاطع الفيديو التي تم التقاطها في منازل مختبري بيتا المتطوعين، وهو ما يعني حتما جمع الصور الشخصية الحميمة والمتعلقة بالعائلة. وتتم مشاركة هذه المعلومات، دون وعي المختبرين، مع مجموعات خارج البلاد. وفي حالة واحدة على الأقل، تم نشر صورة لشخص على المرحاض على فيسبوك. وفي الوقت نفسه، بدأت السلطات في إيران باستخدام البيانات من أنظمة التعرف على الوجه لتعقب واعتقال النساء اللاتي لا يرتدين الحجاب.

ليست هناك حاجة لتوضيح هذه القصص أكثر. هناك الكثير منهم. ومع ذلك، فمن المهم تحديد التأثير التراكمي للعيش بهذه الطريقة. نفقد إحساسنا بالسيطرة على حياتنا عندما نشعر أن معلوماتنا الخاصة قد تُستخدم ضدنا، في أي وقت، دون سابق إنذار.

أحد المفاهيم الخطيرة التي تم طرحها هو كيف تم تصميم عالمنا بأكمله ليكون خاليًا من الاحتكاك، مع تعريف الاحتكاك بأنه "أي نقطة في رحلة العميل مع شركة حيث يواجه عقبة تبطئه أو تسبب عدم الرضا". كيف يمكن أن يؤدي توقعنا لتجربة خالية من الاحتكاك إلى ذكاء اصطناعي خطير؟

في نيوزيلندا، اقترح أحد روبوتات الوجبات الذكية Pak'n'Save وصفة يمكن أن تنتج غاز الكلور في حالة استخدامها. تم الترويج لهذا كوسيلة للعملاء لاستخدام بقايا الطعام وتوفير المال.

يخلق عدم الاحتكاك وهمًا بالسيطرة. إن الاستماع إلى التطبيق أسرع وأسهل من البحث عن وصفة الجدة. يتبع الناس الطريق الأقل مقاومة ولا يدركون إلى أين يأخذهم ذلك.

وعلى النقيض من ذلك فإن الاحتكاك هو أمر إبداعي. أنت تتورط. وهذا يؤدي إلى السيطرة الفعلية. وتتطلب السيطرة الفعلية الاهتمام والعمل، وفي حالة الذكاء الاصطناعي، إجراء تحليل موسع للتكاليف والفوائد.

مع وهم السيطرة، يبدو الأمر وكأننا نعيش في عالم حيث تعمل أنظمة الذكاء الاصطناعي على تحفيز البشر، بدلاً من أن يظل البشر مسيطرين بشكل كامل. ما هي بعض الأمثلة التي يمكنك تقديمها عن البشر الذين يعتقدون بشكل جماعي أنهم يملكون السيطرة، في حين أنهم في الواقع لا يملكون أي شيء؟

سان فرانسيسكو الآن، مع سيارة أجرة آلية. تميل فكرة سيارات الأجرة ذاتية القيادة إلى إثارة شعورين متضاربين: الإثارة ("سيارات الأجرة بتكلفة أقل بكثير!") والخوف ("هل سيصدمونني؟"). وبالتالي، يقترح العديد من المنظمين أن يتم اختبار السيارات مع الناس فيها، من يستطيع إدارة الضوابط. ولسوء الحظ، فإن وجود البشر في حالة تأهب، وعلى استعداد لتجاوز الأنظمة في الوقت الحقيقي، قد لا يكون اختبارا جيدا للسلامة العامة. الثقة المفرطة هي ديناميكية متكررة مع أنظمة الذكاء الاصطناعي. كلما كان النظام أكثر استقلالية، كلما زاد عدد المشغلين البشريين الذين يثقون به ولا يعيرونه الاهتمام الكامل. نشعر بالملل من مشاهدة هذه التقنيات. عندما يكون هناك حادث على وشك الحدوث بالفعل، فإننا لا نتوقعه وغالبًا لا نتصرف في الوقت المناسب.

لقد أجريت الكثير من الأبحاث حول هذا الكتاب، هل هناك أي شيء فاجأك؟

الشيء الوحيد الذي أدهشنا حقًا هو أن الناس في جميع أنحاء العالم لم يتمكنوا من الاتفاق على من يجب أن يعيش ومن يجب أن يموت فيه محاكاة الآلة الأخلاقية بسبب اصطدام سيارة ذاتية القيادة. إذا لم نتمكن من الاتفاق على ذلك، فمن الصعب أن نتخيل أننا قد يكون لدينا حوكمة عالمية موحدة أو معايير عالمية لأنظمة الذكاء الاصطناعي.

كلاكما تصفان أنفسكم كرائدي أعمال، كيف سيؤثر ما تعلمتموه وأبلغتم عنه على جهودكم المستقبلية؟

إن ممارساتنا الاستشارية في مجال الذكاء الاصطناعي موجهة نحو مساعدة المؤسسات على النمو بشكل مسؤول باستخدام التكنولوجيا. المحامون والمهندسون وعلماء الاجتماع ومفكرو الأعمال جميعهم أصحاب مصلحة في مستقبل الذكاء الاصطناعي. في عملنا، نجمع كل هذه وجهات النظر معًا ونمارس الاحتكاك الإبداعي لإيجاد حلول أفضل. لقد قمنا بتطوير أطر عمل مثل حساب المخاطر المتعمدة للمساعدة في التعامل مع هذه المشكلات.

شكرًا لك على الإجابات الرائعة ، يجب على القراء الذين يرغبون في معرفة المزيد زيارتها معضلة الذكاء الاصطناعي.