قادة الفكر
ماذا يعني Human-in-the-Loop بالفعل؟

في مطلع القرن العشرين، صاغ الفيلسوف البريطاني جيلبرت ريل مصطلح “الروح في الماكينة”. في كتابه مفهوم العقل، استخدم ريل الاستعارة للتحدي الذي يطرحه ثنائية العقل والجسم، والتي تقول إن العقل والجسم موجودان كمواد منفصلة. بالنسبة لريل، كانت هذه التقسيم خطأ لأن الإدراك والعمل الجسدي كانا لا يمكن فصلهما، وكلاهما جزء من نظام واحد بدلاً من جزأين يتفاعلان.
مع ظهور الذكاء الاصطناعي، تظهر استعارة مماثلة الآن عند التحدث عن مستخدمي أدوات الذكاء الاصطناعي لزيادة الإنتاجية: “الإنسان في الحلقة” المُستخدمة بشكل شائع. إذا كان البشر والنظم الذكية أكثر من أي وقت مضى مترابطين، هل نبني اندماجًا سلسًا أو نخلق وهمًا مريحًا للسيطرة؟
تعتمد الشركات الناشئة بشكل كبير على هذا المفهوم للتحدث عن أدواتها. بينما يعد هذا وعدًا بالابتكار والاطمئنان، فإن الواقع غالبًا ما يكون أكثر تعقيدًا. يمكن أن تنتشر المسؤولية بسهولة وتصبح المساءلة أكثر صعوبة في التتبع.
随着 تحرك أنظمة الذكاء الاصطناعي إلى مجالات أكثر حساسية – من التعليم إلى الحرب – لم يعد الرهان مجرد أمر مجرد. ماذا يعني “الإنسان في الحلقة” بالفعل، وهل هذا مجرد تعبير لطيف عندما يختفون تمامًا؟
1. الإنسان في الحلقة كدرع للمسؤولية
عند استخدام مصطلح “الإنسان في الحلقة” بطريقة غير مدروسة، يمكن أن يكون هذا وسيلة سهلة لتحويل المسؤولية دون التعامل الفعلي معها. كما لاحظ العديد من الأشخاص، فإن توقيع إنسان في نهاية عملية لا يضمن النزاهة الأخلاقية، خاصة إذا كان النظام الأساسي مصممًا بشكل سيئ أو غير مفهوم جيدًا.
كتبت مايسا حواش، المؤسس والمدير التنفيذي لشركة سكايل إكس، مقالة حول الانزلاق بعيدًا عن المسؤولية، وصرحت بشكل واضح عن كيفية استخدام هذا المفهوم بشكل شائع. “في الواقع، لا يختلف هذا كثيرًا عن طرق أخرى لتحويل العبء”. قالت حواش لاستارت أب بيت، مستخدمة مثال كيف يستخدم مدراء الموارد البشرية سياسة التوقيع لنقل الشركة بعيدًا عن المسؤولية. “إذا كان لديك هذه السياسة ويقرأها الناس ويوافقون عليها، فإن الشركة لا تكون مسؤولة تقنيًا، أليس كذلك؟” قالت.
ما يظهر هو نمط مألوف عبر الأنظمة الشركية حيث تنتقل المسؤولية بدلاً من القضاء عليها. ترى حواش هذا كطريقة لازية لتجنب التفكير النقدي أو الفهم في المناطق التي يمكن أن تؤثر على الناس أو المجتمعات. “لذلك أنت تنتقل بالعبء، ولا يهم إذا كان الناس يفهمون السياسة، ولا يهم إذا كانت السياسة منطقية”.
في هذا السياق، يخاطر مصطلح “الإنسان في الحلقة” بأن يصبح أقل معنى بالتدخل الفعلي وأكثر بمعنى الغطاء الإجرائي. الخطر هنا ليس فقط семантиًا. عندما يتم تقليل الرقابة إلى توقيع، يصبح دور الإنسان رمزيًا بدلاً من كونه ملموسًا.
أشارت حواش إلى جريمة حرب最近 في مدرسة ميناب في إيران، حيث وافق البشر على الهجوم، لكن وجود صانع قرار بشري لم يكن بالضرورة يعني وضوحًا أخلاقيًا أو تفكيرًا كافياً. “عندما تكون في حرب أو تقوم بجراحة معقدة، لا تملك الوقت لفكارة استخدام الإنسان في الحلقة كدرع”.
2. تصميم المسؤولية، وليس فقط الرقابة
البديل ليس التخلي عن أنظمة الإنسان في الحلقة، ولكن الأخذ بها على محمل الجد كالتزامات تصميم. هذا يعني الانتقال بعيدًا عن الرقابة الرمزية نحو هياكل مسؤولية متعمدة.
“هناك سباق كبير لجلب المزيد من الذكاء الاصطناعي إلى السوق. لا يوجد كثير من التفكير من منظور تصميم، مثل ما هو التأثير المتدفق على المجتمعات أو الناس أو المستخدمين النهائيين”، قالت حواش.
أصبح السرعة المتغلبة على المتغيرات التنافسية. في هذا السباق، يتم تأجيل المسؤولية بدلاً من دمجها. النتيجة هي نموذج реакتي للأخلاقيات حيث يحدث إصلاح المشكلات بعد النشر بدلاً من توقعها أثناء التطوير.
قد تسرع سهولة الوصول إلى تبني أكبر، ولكنها تؤدي أيضًا إلى عواقب أكثر تفجيرًا. الأنظمة لم تعد مقصورة على المستخدمين التقنيين لأنها يمكن أن تشكل قرارات للأشخاص الذين لديهم مستويات مختلفة من الفهم والسياق. في مثل هذا البيئة، لا يمكن أن تُمنح المسؤولية للمستخدم النهائي.
3. الإنسان في الحلقة كدقة ومساءلة
يقدم أبهاي غوبتا، المؤسس المشارك لشركة فرزل، منظورًا تشغيليًا – واحدًا يعتمد على بناء نظام حيث الرقابة البشرية عملية وضرورية.
نشأت شركته من مشكلة محددة: معلمون يعملون ساعات طويلة. “في المدينة، نسمع عن مصرفيين ومتخصصين يعملون 70 ساعة في الأسبوع، ولكنك لا تسمع عن معلمين يعملون بهذا القدر. لذلك، من خلال الفضول، قمنا بمقابلة مئات من المعلمين، ووجدنا أن التصحيح هو أكبر مصدر للتسرب”.
قد يبدو تطبيق الذكاء الاصطناعي للتصحيح بسيطًا، ولكن تعقيد الرياضيات المكتوبة يدوياً يطرح قيودًا حقيقية للذكاء الاصطناعي. “هناك مشكلة الدقة. الذكاء الاصطناعي ليس كاملًا، لذلك بنينا نظامًا للإنسان في الحلقة. إذا لم يكن الذكاء الاصطناعي واثقًا – مثل الكتابة الغير واضحة – فهو يعلمها للمعلم لمراجعتها وموافقتها أو رفضها”.
هنا، دور الإنسان ليس مجرد زينة. النظام يعرف明显ًا عدم اليقين الخاص به ويعيد توجيه تلك الحالات إلى إنسان. “من أجلنا، الأمر يتعلق بالدقة. سيكون هناك دائمًا حالات حافة – ربما 1-3٪ – حيث يجد الذكاء الاصطناعي صعوبة، لذلك يجب على إنسان أن يتدخل”.
هذا النهج يعيد صياغة الإنسان في الحلقة كآلية للرقابة الجودة. ولكن غوبتا يضغط أكثر: “في جوهره، الذكاء الاصطناعي ليس 100٪ دقيقًا – يمكن أن يهلوس أو ينتج مخرجات خاطئة. الإنسان في الحلقة ي действ كفحص جودة نهائي قبل وصول النتائج إلى المستخدم النهائي. إنه أيضًا حول المسؤولية. يجب أن يكون هناك شخص مسؤول عن الإخراج، و现在 هذا الشخص لا يزال إنسانًا”.
هامًا، دور الإنسان يحافظ أيضًا على جانب غير كمي: الجانب العلاقاتي للتعليم. “إنه أيضًا حول الحفاظ على الجانب البشري للتعليم. المعلمون لديهم أساليب مختلفة، لذلك نسمح لهم بتعديل كيفية تقديم الملاحظات”
إعادة تعريف الإنسان في الحلقة
يحمل مصطلح “الإنسان في الحلقة” بساطة مريحة. إنه يوحي بأن بغض النظر عن مدى تقدم أنظمتنا، يبقى إنسان في السيطرة، ونحن لسنا مجرد “أشباح في الماكينة”. ولكن مع نشر الشركات الناشئة بشكل متزايد للذكاء الاصطناعي في بيئات عالية المخاطر، يطالب هذا الوعد بالتدقيق.
المشكلة الأساسية هي التصميم. إذا كانت مخاطر النظام غير مفهومة جيدًا أو تُقلل من شأنها عمدًا، فإن وضع إنسان في النهاية لا يفعل الكثير لتصحيح العيوب الأساسية. ومن المهم أيضًا أن يعرف دور الإنسان ليس كدعم فقط، ولكن كجزء لا يتجزأ من تشغيل النظام. يجب أن يكون الإنسان في الحلقة ليس فقط لموافقة النتيجة، ولكن يجب على الشركات الناشئة أن تسعى لتمكين موظفيها من تشكيلها، و挑engerها، وعند الضرورة، إلغاءها بسلطة.












