قادة الفكر
كيف نقلت معرفتي إلى أنظمة ذكاء اصطناعي يمكن أن تتخذ قرارات مثل الخبراء البشر

عندما غادرت مايكروسوفت وواصلت العمل مع الشركات على نشر الذكاء الاصطناعي، لاحظت أن معظم أنظمة الذكاء الاصطناعي التي كان الناس متحمسين لها لم تكن قادرة على اتخاذ قرارات مع حكم بشري حقيقي. بالتأكيد، يمكنهم الكتابة و تلخيص و إنتاج نص متدفق بشكلremarkable يبدو وكأنه قرار، ولكن عندما تضع هذه الأنظمة في بيئة تشغيل حقيقية، حيث هناك تنازلات و عدم يقين و تعليمات غير كاملة و عواقب فعلية، يتعثرون بسرعة. هذا يتوافق مع البيانات من مشروع MIT NANDA الذي يظهر أن بينما 60% من المنظمات قيمت أدوات الذكاء الاصطناعي، فقط 20% وصلت إلى مرحلة الاختبار، و فقط 5% وصلت إلى الإنتاج. بمعنى آخر، تعاني الصناعة من بناء أنظمة يمكن أن تثبت داخل سير عمل حقيقي.
في إعدادات الشركات، خاصة في مجالات مثل سلسلة التوريد و التصنيع و العمليات، الحصول على إجابة ليس صعبًا؛ إنه معرفة أي إجابة لتثق بها، وأي متغيرات تهم أكثر، وما هو المحتمل أن يحدث إذا كنت مخطئًا. في عيني، هذا هو كل من مشكلة خبرة و حكم.
للتأكيد، لقد حقق الذكاء الاصطناعي إنجازات استثنائية في إنتاج مخرجات أفضل. لكن المخرجات الأفضل ليست هي نفسها القرارات الأفضل. هذه هي معالم منفصلة، وأعتقد أن الصناعة قد قامت بإنفاق الكثير من الوقت في معاملتها على أنها قابلة للتبادل.
نقص الخبرة و الحكم هو السبب في أنني أصبحت مهتمًا ببناء الذكاء الاصطناعي الذي يمكن للخبراء البشر تعليمه على اتخاذ قرارات معقدة بالطريقة التي يفعلونها. لا ينبغي أن يكون الذكاء الاصطناعي فقط حول توفير المهام، بل حول نقل الحكم البشري بشكل فعال و آمن إلى الذكاء الاصطناعي الذي يثبت.
نماذج اللغة الكبيرة (LLMs) تتحدث مثل صانعي القرار، لكنهم ليسوا
لا يوجد شك في أن نماذج اللغة الكبيرة مفيدة، ولكنها ليست، بشكل افتراضي، أنظمة اتخاذ قرارات. هي أنظمة تنبؤ مغلفة باللغة. واللغة مقنعة، وهو جزء من المشكلة. إذا كان النظام يمكن أن يفسر نفسه بطريقة متدفقة، فإننا نعتبر بسهولة ما يفهمه. تسأله سؤالا تجاريا، يعطيك إجابة منظمة مع تنازلات و شروط و تلخيص لطيف في النهاية، مما يجعله يبدو أكثر ذكاء مما هو عليه. الصوت المتسق و الكفاءة التشغيلية ليسا نفس الشيء، وهنا تكمن مشكلة الكثير من أنظمة الذكاء الاصطناعي في الشركات. يمكن للنماذج أن تخبرك بما يبدو وكأنه قرار جيد دون أن يكون لديها أي فهم لما يجعله قرار جيد تحت الضغط، أو بمرور الوقت، أو في السياق. هذا هو أحد الأسباب التي تجعل العديد من المنظمات تعاني في الانتقال بعيدًا عن التجربة. وجدت جارتنر أن ما لا يقل عن 50% من مشاريع الذكاء الاصطناعي التوليدية يتم التخلي عنها بعد إثبات المفاهيم، قبل أن تصل إلى أي تأثير تشغيلي حقيقي، غالبًا بسبب عدم وضوح القيمة و ضوابط المخاطر.
المعلومات ليست هي نفسها الخبرة
أحد أسهل الفخاخ التي يمكن أن تقع فيها مع الذكاء الاصطناعي هو افتراض أن إذا كان النظام لديه معلومات كافية، فيجب أن يكون قادرًا على أداء مثل الخبير. يبدو معقولا، لكن عندما تفكر فيه في حياتنا اليومية، فإن زيادة معلوماتنا حول شيء ما لا تجعلنا تلقائيًا خبراء. يمكنك قراءة كل دليل الطيران و لا تزال غير مستعد للهبوط. يمكنك تذكر كل أفضل ممارسة في سلسلة التوريد و لا تزال تتجمد عندما تذهب ثلاثة أشياء خاطئة في نفس الوقت.
يمكنني أن أستمر، لكن النقطة هي أن المعلومات لا تعادل القدرة. القدرة تأتي من الخبرة، و بشكل محدد، التعرض المتكرر للمواقف المضطربة حيث الإجابة ليست واضحة.
كل يوم، أرى أن معظم أنظمة الذكاء الاصطناعي اليوم مدربة على أمثلة ثابتة. هذا كل ما هو مفيد لجعل التنبؤات، لكن ذلك جزء صغير فقط من اتخاذ القرار. الشركات ليست ناقصة في البيانات بحد ذاتها، لكنها تحتاج إلى بيئات منظمات للممارسة، مما يعني إعطاء الأنظمة بيئات حيث يمكنهم:
- مواجهة سيناريوهات واقعية
- اتخاذ الخيارات
- رؤية ما يحدث
- استلام التغذية الراجعة
- التحسين مع مرور الوقت
يمكن تدريب الذكاء الاصطناعي باستخدام خوارزميات تنبؤية، لكن هذا النهج له قيود. ما هو مطلوب بعد ذلك هو الذكاء الاصطناعي الذي يمكن تدريبه في بيئة محاكاة مع إشراف بشري. أسمي هذا تعليم الآلة، وهي منهجية تنقسم القرارات المعقدة إلى سيناريوهات و مهارات، وتوفر دليلًا للخبراء البشر لتعليم الذكاء الاصطناعي من خلال المحاكاة. التغذية الراجعة و التجربة و الخطأ في النهاية تمكن الوكلاء من التعلم و العمل بالاستقلال في العالم الحقيقي مباشرة من الأشخاص الذين بنوا هذه العمليات.
توقف عن معاملة الذكاء الاصطناعي مثل الكتلة
أخطاء أخرى أراها كثيرًا هي افتراض أن نموذجًا كبيرًا يجب أن يفعل كل شيء. لا يوجد فريق كرة سلة يتكون من شخص واحد فقط. لا مصنع يدار بواسطة فرد. الأنظمة المعقدة تعمل لأن مكونات مختلفة تفعل مهام مختلفة، وهناك هيكل يجمعها معًا.
يجب بناء الذكاء الاصطناعي بنفس الطريقة. لا أعتقد أن مستقبل اتخاذ القرار في الشركات هو نموذج巨ي ي ngồi في وسط الشركة و ي притенд إلى كونها كفؤة عالميًا. من المرجح أن يبدو أكثر مثل فرق من الوكلاء المتخصصين.
يمكن لوكيل أن يكون خبيرًا في استرجاع البيانات. آخر أفضل في تقييم السيناريوهات. آخر يدير التخطيط. واحد يتحقق من الامتثال أو يلتقط التناقضات. آخر يتصرف أكثر مثل المشرف، و يقرر متى يجب رفع مستوى الأهمية أو عندما تكون الثقة منخفضة جدًا لل繼續. يبدو لي هيكل الفريق أكثر منطقية لأنها تتوافق مع كيفية عمل المنظمات الحقيقية و تتماشى مع الاتجاهات السوقية الأوسع. تؤكد نتائج ماكينزي أن المنظمات تحصل على أكبر قيمة من الذكاء الاصطناعي من خلال إعادة تصميم سير العمل و الهياكل التشغيلية حوله.
لا يتم اتخاذ جميع القرارات بنفس الطريقة، و غالبًا ما ن假فظ أن نفس النموذج و نفس البيانات و نفس نوع المنطق يمكن أن يتعامل معها جميعًا. في الواقع، تتطلب القرارات المختلفة آليات مختلفة.
الطرق الأربعة التي يتم اتخاذ القرارات بها
في تجربتي، تميل معظم القرارات إلى أن تقع في بعض الفئات:
- أنظمة التحكم (القواعد و الصيغ): يتم اتخاذ القرارات من خلال تطبيق معادلات أو قواعد محددة مسبقًا على مدخلات معروفة. إذا حدث X، افعل Y.
- البحث و التحسين: يتم اتخاذ القرارات من خلال تقييم العديد من الخيارات الممكنة و اختيار الأفضل بناءً على هدف محدد.
- التعلم بالتعزيز (الtrial و الخطأ): يتم تعلم القرارات بمرور الوقت من خلال اتخاذ الإجراءات و ملاحظة النتائج و التعديل بناءً على المكافأة أو العقوبة.
- الممارسة و الخبرة (التعلم بالطريقة البشرية): يتم تشكيل القرارات من خلال التعرض المتكرر للمواقف المضطربة، و التغذية الراجعة الموجهة، و الحكم المتراكم في السيناريوهات الحقيقية.
يتمتع معظم الذكاء الاصطناعي في الشركات بأداء جيد في الفئتين الأولتين. الفئتان الثالثة و الرابعة أكثر تحديًا للذكاء الاصطناعي، لأن ذلك هو المكان الذي يعيش فيه الحكم البشري.
الاستقلالية بدون هيكل هي مخاطرة
كلما تحدث الناس عن الذكاء الاصطناعي المستقل، فإن المحادثة تميل إلى الانقسام إلى طرفين متطرفين. يعتقد أحد الجانبين أن الأنظمة هي بشكل أساسي سحرية و جاهزة لتشغيل كل شيء. يتصرف الجانب الآخر كما لو أنهم لا ينبغي أن يُوثق بهم بأي شيء هام.
لا أعتقد أن أي من وجهات النظر مفيدة. يجب أن نركز على الاستقلالية داخل الهيكل لأن الاستقلالية بدون إشراف أو منطق رفع أو حدود أو مساءلة هي مصدر رئيسي للمخاطر. مخاوف المخاطر تظهر أكثر الآن، بما في ذلك في المحادثات التي تتأثر بجهود مثل إطار إدارة مخاطر الذكاء الاصطناعي في المعهد الوطني للمعايير و التكنولوجيا، الذي يعكس كيفية أخذ المنظمات جدية لأسئلة الإشراف و المساءلة و الثقة التشغيلية.
مستقبل الذكاء الاصطناعي في الشركات يكمن في فرق من الوكلاء. المنظمات التي تحصل على أكبر قيمة من الذكاء الاصطناعي لن تكون تلك التي تؤتمة الكلمات الأكثر. هم الذين يجدون كيفية نقل الخبرة الحقيقية إلى أنظمة يمكن أن تثبت عندما تصبح البيئة مضطربة. ذلك، في رأيي، هو الفرق بين الذكاء الاصطناعي الذي يبدو مثيرًا للإعجاب و الذكاء الاصطناعي الذي يصبح مفيدًا حقًا، و ينتج عائدًا حقيقيًا.












