Connect with us

المسؤولية من التصميم – لماذا يجب أن تكون الذكاء الاصطناعي أولاً من حيث الإنسان

قادة الفكر

المسؤولية من التصميم – لماذا يجب أن تكون الذكاء الاصطناعي أولاً من حيث الإنسان

mm

الذكاء الاصطناعي يتغير في التجارب الرقمية التي تحدد حياتنا اليومية. من التوصيات الشخصية للمنتجات والتوقعات الصحية إلى القيادة المستقلة وحتى طوابير الملاهي ، الذكاء الاصطناعي يجعل هذه التجارب أرخص وأكثر كفاءة وممتعة. على الأقل ، هذا ما وعد به.

لكن في كثير من الأحيان ، نجد عناوين عن ما يسمى “فشل الذكاء الاصطناعي” – لحظات عندما يشعر المستخدمون بالتضليل أو الإحباط أو ببساطة لا يفهمون. وعندما تنهار الثقة ، تنهار أيضًا إمكانية الذكاء الاصطناعي أن يكون ذا معنى وفعالية حقيقية.

الثقة العامة تتآكل. لماذا؟ لأن معظم الأنظمة لم يتم تصميمها مع وضع الخبرة الإنسانية في الاعتبار – بل تم تصميمها لما هو سريع ومتوافق ومربح. يجب أن يكون هذا سببًا للقلق للشركات من جميع الأحجام التي تعمل على مضاعفة استثماراتها في الذكاء الاصطناعي.

لبناء الثقة ، يجب على الشركات أن تتوقف وتسأل أسئلة أعمق: لماذا نبني هذا النظام؟ هل يجب بناؤه في المقام الأول؟ باختصار ، هل نحن ن設計 الذكاء الاصطناعي لخدمة الاحتياجات الإنسانية – أم إجبار البشر على التكيف مع منطق الآلة؟

فجوة الثقة مع الذكاء الاصطناعي

في كثير من الأحيان ، يتم تطوير الذكاء الاصطناعي في بيئات تقنية معزولة ، حيث يتم قياس النجاح من حيث الدقة أو السرعة ، و لا التأثير الاجتماعي أو سهولة الاستخدام. التفكير الأخلاقي ، وهو مكون أساسي للثقة ، لا يتم تضمينه تلقائيًا في خط أنابيب تطوير الذكاء الاصطناعي. هذا التفكيك يؤدي إلى أنظمة قد تكون مبتكرة في النظرية ، ولكنها تفتقر في الممارسة.

خذ شات بوت إير كندا ، الذي أprovided معلومات خاطئة للمستخدم حول سياسة الرسوم الخاصة بالmourning ، فقط لتقول الشركة إنها لا تتحمل مسؤولية ما قاله الشات بوت. أو شات بوت ميتا ، الذي قدم بيانات خاطئة في نتائج البحث. هذه الأمثلة تعكس أكثر من مشاكل تقنية ؛ إنها تكشف عن فشل نظامي في تصميم تطبيقات الذكاء الاصطناعي مع التعاطف والسلامة وحوافز العالم الحقيقي.

لقد لاحظت الجمهور ذلك. وفقًا لـ مركز بيو للأبحاث ، 59٪ من الأمريكيين و 55٪ من خبراء الذكاء الاصطناعي لا يمتلكون ثقة في الشركات الأمريكية لتطوير الذكاء الاصطناعي بشكل مسؤول. هذه فجوة ثقة لا يمكننا تجاهلها.

التصميم الموجه للإنسان ليس فخامة

التصميم ليس زخرفة للذكاء الاصطناعي. إنه أساسي لطريقة سلوكه وكيف يُدرك من قبل المستخدمين النهائيين. يبدأ التصميم الموجه للإنسان بفهم الأشخاص الذين ن تصميم لهم: أهدافهم ، إحباطاتهم ، قيمهم ، وحقائقهم المعاشة.

من الضروري خلال عملية التصميم أن نسأل أسئلة محددة جدًا لضمان أن تخدم التكنولوجيا الاحتياجات الإنسانية ، وليس العكس ، مما يعرف:

  • من ن تصميم لهم؟
  • ما هي أهدافهم ، قيمهم ، وتحدياتهم؟
  • كيف يتفاعلون مع الأنظمة عاطفيًا ووظيفيًا؟
  • هل المنتج موثوق به ويفعل ما يقوله سوف يفعله؟
  • هل يُشجع على الشمول والوصول لكل أنواع الناس؟

هذه ليست أسئلة مجردة. إنها تشكل مباشرة كيفية أداء الذكاء الاصطناعي في البرية. وفي سياقات عالية المخاطر مثل الرعاية الصحية والأمن والتعليم ، يمكن أن تحدد ما إذا كانت النظام شاملة وعادلة أو محيرة ومضررة.

ما يبدو التصميم الأفضل

يُجسّر المصممون بين الاحتياجات الإنسانية والقدرات الآلية من خلال عملية إنشاء نماذج أولية واختبار وتكرار ، مما يضمن أن المنتجات تُفهم من قبل الأشخاص الذين يستخدمونها. هذا يشمل التساؤل عن كيفية تواصل الذكاء الاصطناعي ، وما القرارات التي يُautomateها ، وكيفية التحكم الذي يقدمه للمستخدم.

خذ الملاهي على سبيل المثال. يتم نشر الذكاء الاصطناعي هذا الصيف لتقليل أوقات الانتظار ، وتailor تجارب ، وإدارة تدفق الحشود. إنها حالة استخدام واعدة. لكن النجاح ليس فقط حول الإنتاجية. نظام مصمم جيدًا سوف يُrioritize الخبرة الإنسانية ، وليس فقط الكفاءة. هذا يعني الرسائل الشفافة ، وواجهات سهلة الاستخدام ، وخيارات واضحة ، وخيارات بديلة للمستخدمين الذين لديهم احتياجات فريدة (مثل الأسر بدون هواتف ذكية أو ضيوف مع احتياجات إمكانية وصول).

اختبار العنصر البشري

في تصميم الذكاء الاصطناعي الموجه للإنسان ، الاختبار هو أمر بالغ الأهمية. من المثالي إحضار المستخدمين النهائيين المحتملين إلى العملية في وقت مبكر ومتكرر ، لغرض تحديد النقاط العمياء المحتملة. عندما لا يستطيع المستخدمون فهم أو الثقة في نظام ، فإن النظام قد فشل ، بغض النظر عن مدى روعة خلفيته.

المسؤولية تبدأ مع التصميم

السياسات يمكن أن تساعد في وضع حدود ومنع أسوأ النتائج. لذلك ، الإطارات مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي و خطة لائحة حقوق الذكاء الاصطناعي هي خطوات حاسمة. لكن الامتثال هو فقط الأرضية. التصميم هو كيف نصل إلى السقف.

دور المصممين في تشكيل الذكاء الاصطناعي

يلعب المصممون دورًا فريدًا في تشكيل مسار الذكاء الاصطناعي. إنهم مترجمون يتقنون منطق الآلات ومعقدات الحياة الإنسانية. يتم تدريب المصممين على التعرف على نقاط الاحتكاك والإشارات العاطفية والآثار الاجتماعية التي لا يمكن أن يلتقطها البيانات وحدها.

أولًا من حيث الإنسان ، وليس الآلة

الذكاء الاصطناعي ليس فقط تحديًا تقنيًا ، بل تحديًا للتصميم. وللتغلب عليه ، يجب أن نركز على القيم الإنسانية من البداية.
الذكاء الاصطناعي الموجه للإنسان ليس فخامة – إنه ضرورة. إنها تخلق أنظمة موثوقة وآمنة وغیر متحيزة ويمكن اختبارها وتوافقها. ولكن أكثر من ذلك ، إنها تبني منتجات تخدم المستخدم النهائي وترفع الإنتاجية الإنسانية والقدرات.

نويل كونينغهام هي المدير التنفيذي لاستوديو التصميم العالمي في Nagarro. وهي مدافعة شغوفة عن التصميم الموجه للإنسان الذي يؤمن بقوة التصميم في صياغة منتجات وخبرات وبيئات أعمال كاملة. لمدة عقدين من الزمن، она समरت مسيرتها المهنية في الدفاع عن مبادرات التصميم التي تقود نتائج الأعمال.

كما أنها المدير التنفيذي لاستوديو التصميم العالمي في Nagarro، وهي ملتزمة بعمق بقيادة الفرق التي تخلق قيمة من خلال التعاطف والإبداع والتنفيذ الدقيق. يركز Nagarro على حلول استراتيجية مصممة بعناية تسعى إلى التأثير على نتائج شركة ما - وأهم من ذلك، حياة العملاء. قبل انضمامها إلى Nagarro، شغلت منصب مدير التصميم في منظمة العمل (barackobama.com) وكذلك محاضرة / أعضاء هيئة التدريس في مدرسة معهد شيكاغو للفنون.