قادة الفكر
لماذا قد يكون الثقة العمياء في الذكاء الاصطناعي أسوأ قرار تتخذه حتى الآن

في عام 1979، أصدر دليل تدريبي لشركة IBM تحذيرًا بسيطًا لكنه مؤثر: “لا يمكن أن يُحاسب الكمبيوتر أبدًا؛ لذلك، لا ينبغي للكمبيوتر أن يتخذ قرارات إدارية”. وأكثر من 45 عامًا بعد ذلك، يبدو هذا البيان وكأنه نبوءة مخالفة.
في عام 2025، لا يقوم الذكاء الاصطناعي ب简单 المساعدة؛ بل يتخذ قرارات مستقلة، وفي nhiều حالات، لا يتخذ القرارات فحسب، بل يقود. في الواقع، يعتمد حوالي 74% من كبار المسؤولين التنفيذيين على الذكاء الاصطناعي للاستشارة التجارية أكثر من زملائهم أو أصدقائهم، ويتوكل 38% على الذكاء الاصطناعي لاتخاذ قرارات تجارية من أجلهم، و 44% يyield إلى منطق التكنولوجيا على رؤاهم الخاصة. التغيير واضح؛ الذكاء الاصطناعي هو الغريزة الجديدة.
لكن هناك مشكلة. الثقة في الذكاء الاصطناعي ممكنة فقط إذا كان الخوارزمية تستحق الثقة. وعندما توضع الثقة بشكل أعمى، خاصة في الصندوق الأسود الذي لا نستطيع فهمه أو تدقيقه، فهي مخاطرة متنكرة في زي التقدم. كما هو الحال مع القيادة البشرية، الثقة بدون مساءلة خطيرة، وعندما يخطئ الذكاء الاصطناعي، من يتحمل العواقب؟
عندما يصبح الأداة رئيسًا
ما بدأ كأداة لتبسيط عمليات المكتب الخلفي يُستخدم الآن في عمليات الأعمال الأساسية. لكن الشركات لا تستخدم الذكاء الاصطناعي فقط لدعم القرارات البشرية؛ بل تتوكل عليه، خاصة الذكاء الاصطناعي التوليدي (GenAI)، لاتخاذ قرارات تجارية، من استراتيجية الأعمال إلى خدمة العملاء، ونمذجة مالية، وغيرها.
هذا التغيير مفهوم. الذكاء الاصطناعي لا ي отвлеч، ولا ينسى التعليمات، ولا يسمح للعواطف بإعاقة حكمه. ل许多 شركات، هذا يقدم علاجًا جذابًا لمخاطر الأخطاء البشرية. ومع ذلك، لا يزال سؤال رئيسي: هل يمكننا الثقة في الذكاء الاصطناعي ليتخذ قرارات مستقلة؟
ليس هناك جواب بسيط، لكن هناك طريقة لlooking في ذلك هي كيف نحكم على ثقة الناس: من خلال كفاءتهم، وموثوقيتهم، ونواياهم الواضحة. نفس المبادئ تنطبق على الذكاء الاصطناعي.
لكي يُعتمد عليه، يجب أن يقدم نظام الذكاء الاصطناعي نتائج دقيقة، وفي الوقت المناسب، وملائمة. لكن مستوى الثقة و هامش الخطأ يختلفان حسب السياق. على سبيل المثال، عند تشخيص السرطان من الصور الطبية، عتبة الفشل منخفضة للغاية. في المقابل، عند توليد أفكار لحملة تسويقية، هناك مساحة أكبر للتجربة.
لقد رأينا الذكاء الاصطناعي يستخدم لاتخاذ قرارات مستقلة في مجالات مثل الموافقة على القروض، حيث تستخدم البنوك الخوارزميات لتحديد أهلية القرض في ثوان. يستخدم تجار التجزئة الذكاء الاصطناعي لإدارة المخزون والأسعار بدون مدخلات بشرية. لكننا رأينا أيضًا فشلًا – مثل سيارات ذاتية القيادة التي تسيء تفسير ظروف الطريق.
يظهر قصة تحذيرية مخاطر وضع ثقة كبيرة في الذكاء الاصطناعي بدون رقابة كافية. ديريك موبلي – رجل أسود يزيد عمره عن 40 عامًا – قدم طلبًا إلى أكثر من 100 منصب من خلال نظام Workday AI-driven hiring system منذ عام 2017 وتم رفضه كل مرة. زعم التمييز على أساس العمر والعرق. في مايو 2025، منحت المحكمة إجراءًا جماعيًا وطنيًا. يتضمن الفصل جميع المتقدمين الذين تزيد أعمارهم على 40 عامًا الذين قدموا طلبًا من خلال Workday منذ سبتمبر 2020 وتم رفضهم بناءً على توصيات الذكاء الاصطناعي.
تُظهر هذه القصة نقطة مهمة: الذكاء الاصطناعي يفتقر إلى الذكاء العاطفي، والمنطق الأخلاقي، أو الإحساس الطبيعي بالعدالة. ومنذ أن يتحرك الذكاء الاصطناعي من مساعد بشري إلى متخذ قرار مستقل، هناك الآن فراغ في المساءلة. عندما يُسمح للخوارزميات بالعمل بدون قيود بشرية، يمكنها و تفعل اتخاذ قرارات سيئة وتعزيز التحيزات الحالية.
السؤال حول الصندوق الأسود
الصندوق الأسود – عندما لا يكون نظام الذكاء الاصطناعي و منطقه مرئيين بالكامل – يصبح أكثر شيوعًا. على الرغم من أن لديها طبقات مرئية، لا يزال المطورون و المستخدمون لا يستطيعون رؤية ما يحدث في كل طبقة، مما يجعلها غير شفافة.
على سبيل المثال، ChatGPT هو صندوق أسود، حيث حتى مبتكروه غير متأكدين من كيف يعمل، منذ أن تم تدريبه على مجموعات بيانات كبيرة جدًا. لكن بسبب عدم الشفافية، هل من المقبول “ثقة” نموذج الذكاء الاصطناعي دون فهم كامل لكيفية عمله؟
باختصار، لا: وهم الذكاء الاصطناعي يزداد سوءًا. هذا يعني في سيناريوهات عالية المخاطر، مثل القرارات المالية، والاستشارات القانونية، والرؤى الطبية، الذكاء الاصطناعي ي đòi التأكيد الصارم، والتحقق المتبادل، والرقابة البشرية.
ال دعوى ديزني و يونيفرسال التي تم تقديمها في يونيو 2025 تؤكد هذه النقطة. يزعم الاستوديوهان أن أدوات الذكاء الاصطناعي التوليدي تم تدريبها على مواد محمية بحقوق النشر لإنشاء محتوى جديد بدون موافقة. هذه القضية تبرز حقيقة جديدة: عندما تعتمد الشركات نماذج الذكاء الاصطناعي التي لا تفهمها بالكامل، قد تتحمل مسؤولية القرارات المتخذة. والجهل ليس دفاعًا؛ إنه مسؤولية.
然而، غالبًا ما نضع ثقة في أنظمة معقدة لا نفهمها. على سبيل المثال، لا يستطيع معظم ركاب الطيران شرح فيزياء الطيران، ومع ذلك، يركبون الطائرات بثقة لأننا بنينا الثقة من خلال التعرض المتكرر، والخبرة الجماعية، وسجل أمان قوي.
يمكن تطبيق نفس المنطق مرة أخرى على الذكاء الاصطناعي. من غير المعقول أن نتوقع من الجميع فهم كيفية عمل نماذج اللغة الكبيرة. لكن الثقة لا تُبنى على الفهم؛ إنها تتطلب مألوفية، وشفافية حول القيود، ونمط أداء موثوق. يجب على مطوري التكنولوجيا أن يعرفوا ما الاختبارات التي يجب وضعها، وما هي الأخطاء، ونحن يجب أن نطالب نفس الشيء من مقدمي الذكاء الاصطناعي التوليدي. يجب أن يكون المبدأ الأساسي للذكاء الاصطناعي هو الثقة، لكن التحقق.
علاوة على ذلك، يعتقد قادة الأعمال غالبًا أن الذكاء الاصطناعي سيكون الرصاصة الفضية التي ستحل جميع مشاكلهم التجارية. ومع ذلك، هذا الخراف يؤثر على العديد من الشركات عند دمج الذكاء الاصطناعي. قد يفضل القادة نماذج معقدة ومبتكرة، لكن حلًا أبسط قد يكون أكثر ملاءمة إذا أجروا تحليلًا للتكلفة والفائدة. الذكاء الاصطناعي هو أداة قوية، لكنه لا يصلح لكل مهمة. يجب على الشركات أن تعترف بالمشكلة قبل اختيار الأداة.
إعادة بناء الثقة في الذكاء الاصطناعي
من الواضح أن الثقة العمياء في الذكاء الاصطناعي هي مشكلة، وأنظمة الذكاء الاصطناعي و الخوارزميات يمكن أن تكون أفضل أداة تمتلكها الشركة – عندما تُستخدم بأمان.
对于 الشركات التي تسعى إلى استغلال أدوات الذكاء الاصطناعي، الشيء الأول الذي يجب البحث عنه هو إجراء بحث عن مورد موثوق. عندما تكتشف الشركة مجالًا يمكن أن يستفيد من كفاءة الذكاء الاصطناعي، يجب على قادة الأعمال تقييم الموردين ليس فقط على ادعاءات الأداء، بل على ضوابط الحوكمة. هذا يشمل مراجعة كيفية تطوير النماذج، و ما إذا كانت أدوات الإيضاح متاحة، و كيف يتم رصد التحيز، و ما إذا كانت سجلات التدقيق متاحة. اختيار مورد مع عمليات شفافة ضروري لتقليل المخاطر من البداية.
ربما النقطة الأكثر أهمية عند بناء الثقة في أنظمة الذكاء الاصطناعي هي ضمان حوكمة البيانات مع مجموعات بيانات نظيفة، و ممثلة، و وثائقية جيدًا. كما يقول المثل: “النفايات الداخلة، النفايات الخارجة”. لذلك، إذا كانت البيانات غير كاملة، أو متحيزة، أو غير دقيقة، فإن حتى النموذج الأكثر تطورًا سينتج نتائج غير موثوقة.
为了 ضمان جاهزية البيانات للذكاء الاصطناعي، يجب على الشركات:
-
تدقيق مجموعات البيانات الحالية على الفجوات والتكرار، وตรวจสอบ مصادر التحيز
-
توحيد تنسيقات البيانات
-
تنفيذ سياسات حوكمة البيانات التي تحدد ملكية وسيطرة الوصول
خطوة أخرى مهمة لقادة الأعمال هي إجراء اختبارات قاسية في ظروف مختلفة. على الرغم من أن النموذج قد ينجح جيدًا في الاختبارات المراقبة، من الحاسم فهم قيود النموذج عند مواجهة بيانات أو مدخلات جديدة لم يتعلمها. لهذا السبب، من المهم اختبار الذكاء الاصطناعي في مجموعة متنوعة من الحالات، مع أنواع مختلفة من المستخدمين، و حالات استخدام مختلفة، وبيانات من فترات زمنية مختلفة.
التحقق من الذكاء الاصطناعي هو مهمة مستمرة. مع تغير البيانات بمرور الوقت، حتى نماذج الذكاء الاصطناعي الموثوقة يمكن أن تفقد دقتها. لذلك، يهم الرصد المنتظم. يجب على الشركات مراقبة أداء النموذج يوميًا: هل لا يزال دقيقًا؟ أو هل الزيادات الكاذبة تزداد؟ وكما هو الحال مع أي نظام يحتاج إلى صيانة، يجب إعادة تدريب النماذج بانتظام مع بيانات جديدة لتبقى ذات صلة.
الذكاء الاصطناعي ليس موثوقًا أو غير موثوق؛ إنه مشكل من البيانات التي يتعلم منها، و الأشخاص الذين يصنعونه، و القواعد التي تحكمه. مع تطور الذكاء الاصطناعي من أداة مفيدة إلى مستشار أعمال، لدى القادة خيار استخدامها بطريقة مدروسة و أخلاقية. إذا فعلنا ذلك بشكل صحيح، لن يكون الذكاء الاصطناعي قويًا فقط في المستقبل، بل سيكون أيضًا مسؤولاً، مع مساءلة واضحة تقع على عاتق مطوريه و المشرفين عليه.












