Connect with us

لماذا الحوكمة الاصطناعية هي الجبهة التالية في مكان العمل

قادة الفكر

لماذا الحوكمة الاصطناعية هي الجبهة التالية في مكان العمل

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

قمنا bằng قتال.shadow IT. تطبيقات SaaS غير مصرح بها. جداول متسلسلة خاطئة. حسابات Dropbox غير مصرح بها. بنى قادة IT برامج توافق كاملة حول المشكلة، ومعظمهم خسروا هنوز. تقرير Reco AI 2025 حول حالة Shadow AI وجد أن hanya 47٪ من تطبيقات SaaS داخل المؤسسة المتوسطة يتم تفويضها رسميًا — والمنظمة المتوسطة تدير الآن 490 منها.

ذلك كان المشكلة القديمة. المشكلة الجديدة أسوأ.

مشكلة Shadow AI مختلفة هذه المرة

عندما يوقع موظف على أداة إدارة المشاريع غير مصرح بها، يتم تحديد الأضرار. يعيش مهام الفريق في المكان الخطأ. ربما بعض البيانات تتسرب. نوع تسرب البيانات معقول بشكل معقول.

الذكاء الاصطناعي مختلف. الموظفون الآن يستخدمون أدوات الذكاء الاصطناعي لكتابة اتصالات العملاء، وتوليد تقارير مالية، و تلخيص اجتماعات سرية، وبناء عمليات آلية، غالبًا بدون إخبار أي شخص. مؤشر اتجاهات العمل 2024 من Microsoft وجد أن 78٪ من مستخدمي الذكاء الاصطناعي يجلبون أدوات الذكاء الاصطناعي الخاصة بهم إلى العمل. ليس لأنهم يحاولون أن يكونوا صعبين أو خبيثين، ولكن لأن الأدوات مفيدة حقًا ويشعرون بضغط الأداء بشكل أفضل. ومع ذلك، فإن منظماتهم بطيئة في توفير العمليات والإجراءات والأدوات.

المخرجات هنا هي المشكلة. عندما يصمم أداة الذكاء الاصطناعي عقدة عملاء، يلخص مكالمة قانونية، أو يولد تقرير مجلس إدارة ربع سنوي، فإن المخاطر ليست فقط “نحن لا نعرف الأداة التي استخدموها.” إنها أن ممارسات البيانات والدقة وصنع القرار المضمنة في تلك المخرجات غير مرئية تمامًا للمنظمة. لا أحد راجع العرض. لا أحد صحت النتيجة. لا أحد يعرف حتى أنها حدثت. وبسبب أن الذكاء الاصطناعي يبدو واثقًا جدًا، فإن معظم المستخدمين لن يقوموا بفحص المصادر وسيقبلون النتائج عمياء.

تحليل KPMG 2025 حول Shadow AI أفاد بأن 44٪ من الموظفين الذين يستخدمون الذكاء الاصطناعي في العمل قد فعلوا ذلك بطرق تنتهك سياسات و إرشادات شركاتهم. هذا ليس سلوكًا هامشيًا. هذا نصف القوى العاملة تقريبًا.

لماذا تجعل الوكلاء المستقلون الأمور أكثر صعوبة (وأفضل)

هنا يصبح الحديث مثيرًا للاهتمام. نحن لا نتحدث فقط عن موظفين يلصقون النص في ChatGPT. نحن ندخل عصر وكلاء الذكاء الاصطناعي — أنظمة مستقلة يمكنها التشغيل المستمر، وتنفيذ مهام متعددة، وربط أدوات المؤسسة، واتخاذ إجراءات دون وجود إنسان في الحلقة لكل قرار.

تقرير اتجاهات التكنولوجيا 2025 من Deloitte يصف هذا على أنه التحول نحو “قوة عمل من السيليكون” ويشير إلى أن العديد من تنفيذات الذكاء الاصطناعي المبكرة تفشل بالضبط لأن المنظمات تحاول ت 자동化 العمليات الحالية المصممة للبشر بدلاً من إعادة التفكير في كيفية سير العمل.

هذا هو تقاطع الطريق. يمكن للوكلاء المستقلون الذكاء الاصطناعي أن يذهبوا في أحد طريقين:

مسار واحد: المزيد من Shadow IT، ولكن أسوأ. ي启动 الموظفون وكلاء باستخدام حساباتهم الشخصية، ويعملون على تكنولوجيا المعلومات للشركة، ويربطونها بأدوات الشركة من خلال مفاتيح API الشخصية، وينتجون مخرجات لا أحد آخر في الفريق يمكنه رؤيتها أو تدقيقها أو إعادة إنتاجها. يعمل الوكيل تقريرًا يوميًا. التقرير خاطئ. لا أحد يلتقطه لأسابيع لأن لا أحد آخر يعرف حتى أنه موجود. هذا ليس افتراضيًا.它 يحدث الآن في المنظمات التي تعاملت مع تبني الذكاء الاصطناعي كلعبة إنتاجية فردية.

مسار два: حوكمة مستقلة. يعمل نفس الوكيل نفس التقرير اليومي — ولكن داخل بيئة حيث يمكن للفريق رؤية ما يفعله، وبياناته التي تلمسها، ومن قام بتشغيله، وما أنتجته. الوكيل مشترك، وليس معزولًا. مخرجاته مرئية. صلاحياته محددة. وعندما ي发生 خطأ، هناك مسار.

الفرق بين هذه المسارات ليس التكنولوجيا. إنه البيئة.

ما تبدو عليه الحوكمة الفعلية للذكاء الاصطناعي في الممارسة

الحوكمة هي واحدة من تلك الكلمات التي تجعل البناة يرتعشون. عادة ما يعني “بطيء”. المزيد من الموافقات. المزيد من العملية. المزيد من الاحتكاك بين الأشخاص الذين يقومون بالعمل والأشخاص الذين يديرون المخاطر.

لكن الحوكمة للذكاء الاصطناعي لا تحتاج إلى العمل بهذه الطريقة. أفضل التنفيذات التي رأيتها تتقاسم بعض الخصائص:

الرؤية افتراضيًا. كل مخرجات الذكاء الاصطناعي التي تم إنشاؤها — كل تقرير، كل تنبيه، كل مسودة — مرئية للفريق، وليست مدفونة في تاريخ المحادثة الشخصي. هذا ليس حول المراقبة. إنه حول السياق المشترك. عندما ينتج وكيل تحليلًا تنافسيًا أسبوعيًا، يجب أن يكون الفريق كله قادرًا على رؤيته، و质ره، والبناء عليه.

صلاحيات محددة، وليس الوصول الشامل. وكيل يراقب سجلات الأخطاء لا يحتاج إلى الوصول إلى نظام إدارة علاقات العملاء. وكيل يصمم المحتوى الاجتماعي لا يحتاج إلى الوصول إلى البيانات المالية. مبدأ الصلاحية الأدنى ليس جديدًا. إنه نادرًا ما يتم تطبيقه على أنظمة الذكاء الاصطناعي — وينبغي أن يكون كذلك.

مسارات تدقيق موجودة فعليًا. كتاب ألعاب McKinsey حول أمان الوكلاء الذكاء الاصطناعي يبرز أن الوكلاء المستقلين يقدمون “مجموعة من المخاطر والضعف الجديدة والمعقدة التي تتطلب الانتباه والعمل الآن.” واحدة من أكثر الأساسية: إذا كنت لا تستطيع تتبع ما فعل الوكيل، والبيانات التي وصول إليها، والقرارات التي اتخذها، لا يمكنك حكمه. نقطة نهائية.

مراقبة على مستوى الفريق، وليس فقط على مستوى تكنولوجيا المعلومات. هذا هو الجزء الذي يخطئ فيه 대부분 من إطارات الحوكمة. إنهم يركزون جميع سيطرة الذكاء الاصطناعي في تكنولوجيا المعلومات أو الأمن، مما يخلق الحاجز الدقيق الذي يدفع Shadow AI في المكان الأول. المنظمات التي تحصل على هذا بشكل صحيح تقوم بتحويل السيطرة إلى مستوى الفريق — السماح للمدراء وقادة الفريق بتكوين، وتنظيم، ومراقبة الوكلاء الذين يستخدمهم فريقهم، داخل الحواجز التي تكنولوجيا المعلومات تحددها ولكن لا تحتاج إلى التحكم فيها بدقة.

أين تحصل المنظمات على الأمر بشكل صحيح

الشركات التي تنشر وكلاء الذكاء الاصطناعي بشكل جيد ليست تلك التي لديها نماذج الأكثر تطورًا. إنهم الذين لديهم حدود تشغيلية أوضح.

أنا أرى نتائج أقوى في ثلاثة مجالات:

التقارير والمراقبة. وكلاء يديرون تقارير مجدولة — اجتماعات يومية، وملخصات أسبوعية للمقاييس، ومحاصيل سجلات الأخطاء — وتسليمها مباشرة إلى قنوات الفريق. القيمة هنا ليست فقط في التأتمتة. إنها متسقة. التقرير يدير كل صباح، سواء كان شخص ما يتذكر سحب البيانات أو لا. وبسبب أنه مرئي للفريق، يتم اكتشاف الأخطاء بشكل أسرع.

سير عمل المحتوى والاتصالات. المسودة، وليس النشر. وكلاء ينتجون مسودات أولية للتحديثات الداخلية، وملخصات الاجتماعات، أو المحتوى الصادر — ثم يظهرها لمراجعة الإنسان. جزء الحوكمة مهم هنا لأن معيار الجودة مختلف عندما تذهب المخرجات إلى عميل مقابل قناة Slack الداخلية.

التحليل والتنبيه. وكلاء يراقبون لوحات القيادة، ويلحظون الشذوذ، ويدفعون تنبيهات عندما تتجاوز المقاييس نطاقات متوقعة. هذا ي换ل مشكلة “يجب على شخص ما مراقبة هذا” التي تعاني منها كل فريق فقد عطلة نهاية الأسبوع بسبب مشكلة الإنتاج غير الملاحظة.

ما يخطئ فيه معظم المنظمات هنوز

الأخطاء الكبيرة هي معاملة حوكمة الذكاء الاصطناعي كمشكلة سياسة بدلاً من مشكلة بنية تحتية.

يمكنك كتابة جميع سياسات الاستخدام المقبول الذي تريد. إذا لم يكن لديك بيئة مصرح بها وسهلة الاستخدام لتنفيذ الذكاء الاصطناعي التي تعمل حقًا لمتطلباتهم اليومية، سيحول الموظفون حول سياستك. هذا ليس مشكلة أشخاص. هذا مشكلة تصميم.

تحليل IDC حول Shadow AI يجعل هذه النقطة واضحة: إنتاجية Stealth AI “تخنق تبني الذكاء الاصطناعي للمؤسسات” لأن المنظمات تتعثر بين الرغبة في المكاسب وخوف المخاطر. النتيجة هي عدم العمل — وهو أسوأ نتيجة ممكنة، لأنه يضمن تبنيًا غير خاضع للرقابة.

الخطأ الثاني هو معاملة الحوكمة والسرعة كأمرين متناقضين. ليسوا كذلك. أفضل بيئات الحوكمة للذكاء الاصطناعي هي أيضًا الأسرع — لأن الفرق لا يضيعون وقتًا في إعادة إنشاء العمل الذي يوجد بالفعل، أو تصحيح الوكلاء الذين لا يمكنهم رؤيته، أو إعادة بناء سير العمل التي انكسرت لأن شخصًا ما غادر الشركة وذهب حساب الذكاء الاصطناعي الشخصي معه.

الجبهة هي البيئة، وليس النموذج

انتباه الصناعة مثبت على قدرات النموذج. نوافذ سياق أكبر. تفكير أفضل. مدخلات متعددة. هذه الأمور مهمة. لكن بالنسبة لمعظم الفرق التي تحاول إنجاز العمل، فإن الحاجز ليس النموذج. إنه البيئة التي يعمل فيها النموذج.

هل يمكن للفريق رؤية ما يفعله؟ هل يمكنهم التحكم في ما يصل إليه؟ هل يمكنهم مشاركة ما ينتجه؟ هل يمكنهم الثقة في أنه يعمل مع البيانات الصحيحة والقيود الصحيحة؟

هذه أسئلة بنية تحتية، وليس أسئلة نموذجية. وهذه هي التي ستفصل بين المنظمات التي تحصل على قيمة حقيقية ومستدامة من الذكاء الاصطناعي وتلك التي تضيف فقط طبقة أخرى من Shadow IT.

الجبهة ليست في بناء نماذج أكثر ذكاءً. إنها بناء بيئات حيث يمكن للنماذج الذكية أن تعمل حقًا بثقة.

مارسيل فولارون هو المؤسس المشارك لشركة CoChat، حيث يبني مساحات عمل ذكية محكمة للفرق. وقد قضى العقد الماضي يعمل على تقاطع تعاون الفريق والآلية والإدارة المؤسسية.