قادة الفكر
لماذا يتوقف GenAI بدون حوكمة قوية

بينما تعمل الشركات على نقل مشاريع Generative AI من التجربة إلى الإنتاج – لا تزال العديد من الشركات عالقة في وضع التجربة. كما يبرز بحثنا الأخير، 92% من المنظمات قلقون من أن مشاريع GenAI تتسارع دون معالجة القضايا الأساسية للبيانات أولاً. والمزيد من ذلك: 67% لم يتمكنوا من توسيع نطاق حتى نصف مشاريعهم التجريبية إلى الإنتاج. هذا الفجوة في الإنتاج أقل حول النضج التكنولوجي وأكثر حول جاهزية البيانات الأساسية. يتمثل إمكانية GenAI في قوة الأرض التي تقف عليها. واليوم، لمعظم المنظمات، هذه الأرض غير مستقرة على أفضل تقدير.
لماذا يتوقف GenAI في وضع التجربة
على الرغم من أن حلول GenAI بالتأكيد قوية، فإنها فعالة فقط مثل البيانات التي تغذيها. القول القديم “النفايات الداخلة، النفايات الصادرة” صحيح اليوم أكثر من أي وقت مضى. بدون بيانات موثوقة و كاملة و مخولة و قابلة للتوضيح، فإن نماذج GenAI غالبًا ما تنتج نتائج غير دقيقة أو متحيزة أو غير مناسبة للغرض.
لسوء الحظ، سرعت المنظمات إلى نشر حالات استخدام منخفضة الجهد، مثل الدردشات التي تعمل بالذكاء الاصطناعي وتقدم إجابات مخصصة من وثائق داخلية مختلفة. وعلى الرغم من أن هذه تحسن تجارب العملاء إلى حد ما، إلا أنها لا تتطلب تغييرات جذرية في بنية بيانات الشركة. ولكن لتوسيع GenAI بشكل استراتيجي، سواء في الرعاية الصحية أو الخدمات المالية أو تلقيم سلاسل التوريد، يتطلب مستوى مختلف من نضج البيانات.
في الواقع، 56% من مسؤولي البيانات يشيرون إلى موثوقية البيانات كحاجز رئيسي لتنفيذ الذكاء الاصطناعي. قضايا أخرى هي بيانات غير كاملة (53%)، ومسائل الخصوصية (50%)، وفجوات أكبر في حوكمة الذكاء الاصطناعي (36%)。
لا حوكمة، لا GenAI
للحصول على GenAI ما وراء مرحلة التجربة، يجب على الشركات معاملة حوكمة البيانات كأمر استراتيجي للغاية لأعمالها. يجب عليهم ضمان أن تكون البيانات قادرة على أداء مهمة تشغيل نماذج الذكاء الاصطناعي، ولذلك يجب معالجة الأسئلة التالية:
- هل البيانات المستخدمة لتدريب النموذج قادمة من الأنظمة الصحيحة؟
- هل قمنا بإزالة المعلومات المتعلقة بالشخص وإتبعنا جميع لوائح البيانات والخصوصية؟
- هل نحن شفافون، ويمكننا إثبات نسب البيانات التي يستخدمها النموذج؟
- هل يمكننا توثيق عملياتنا البيانية وكوننا مستعدين لإظهار أن البيانات لا تحمل أي تحيز؟
كما تحتاج حوكمة البيانات إلى أن تكون متأصلة في ثقافة المنظمة. لفعل ذلك، يتطلب بناء أدبيات الذكاء الاصطناعي عبر جميع الفرق. قانون الذكاء الاصطناعي الأوروبي يُرسّخ هذه المسؤولية، مما يتطلب من مقدمي أنظمة الذكاء الاصطناعي ومستخدميها بذل أفضل الجهود لضمان أن يكون الموظفون على دراية كافية بالذكاء الاصطناعي، وضمان فهمهم لكيفية عمل هذه الأنظمة وكيفية استخدامها بشكل مسؤول. ومع ذلك، تتجاوز تبني الذكاء الاصطناعي الفعال المعرفة التقنية. كما يتطلب أساسًا قويًا في مهارات البيانات، من فهم حوكمة البيانات إلى صياغة الأسئلة التحليلية. معاملة أدبيات الذكاء الاصطناعي بشكل منفصل عن أدبيات البيانات سيكون قصير النظر، بالنظر إلى مدى ارتباطهما الوثيق.
فيما يتعلق بحوكمة البيانات، لا يزال هناك عمل قائم. بين الشركات التي تريد زيادة استثماراتها في إدارة البيانات، 47% يتفقون على أن نقص أدبيات البيانات هو أحد الحواجز الرئيسية. هذا يبرز الحاجة إلى بناء الدعم على مستوى أعلى وتطوير المهارات المناسبة عبر المنظمة هو أمر بالغ الأهمية. بدون هذه الأسس، حتى أكثر النماذج القوية سوف ي đấuل في تقديم النتائج.
تطوير الذكاء الاصطناعي الذي يجب أن يكون مسؤولاً
في البيئة التنظيمية الحالية، لم يعد كافياً للذكاء الاصطناعي “أن يعمل فقط”، بل يجب أن يكون أيضًا مسؤولاً ومُفسرًا. قانون الذكاء الاصطناعي الأوروبي و خطة العمل للذكاء الاصطناعي في المملكة المتحدة يتطلبان الشفافية في حالات استخدام الذكاء الاصطناعي عالية الخطورة. الآخرون يتبعون هذه الخطوات، و 1000+ مشاريع قانونية ذات صلة على جدول الأعمال في 69 دولة.
هذا الاتجاه العالمي نحو المسؤولية هو نتيجة مباشرة للزيادة في الطلبات من المستهلكين والمتعاملين على إنصاف في الخوارزميات. على سبيل المثال، يجب على المنظمات أن تكون قادرة على القول بأسباب رفض عميل لتقديم قروض أو فرض رسوم تأمين أعلى. للقيام بذلك، سيكونون بحاجة إلى معرفة كيف اتخذ النموذج هذا القرار، وهذا بدوره يعتمد على وجود مسار واضح وقابل للتدقيق للبيانات المستخدمة في تدريبه.
إلا أن هناك تفسيرًا، المنظمات تتحمل خطر فقدان ثقة العملاء بالإضافة إلى مواجهة العواقب المالية والقانونية. وبالتالي، فإن تتبع نسب البيانات وبرهان النتائج ليس أمرًا “من الجيد أن يكون”، بل هو شرط مطابق.
وكما يتوسع GenAI ما وراء استخدامه للأدوات البسيطة إلى وكلاء كاملين يمكنهم اتخاذ القرارات والعمل عليها، ترتفع المخاطر لتحقيق حوكمة بيانات قوية.
خطوات بناء الذكاء الاصطناعي الموثوق
إذاً، ما هو الشكل الجيد؟ لتوسيع GenAI بشكل مسؤول، يجب على المنظمات النظر في تبني استراتيجية بيانات واحدة عبر ثلاثة ركائز:
- تكييف الذكاء الاصطناعي مع الأعمال: قم بفهرسة بياناتك حول الأهداف التجارية الرئيسية، وضمان أنها تعكس السياق الفريد والتحديات والفرص الخاصة بأعمالك.
- تأسيس الثقة في الذكاء الاصطناعي: قم بتأسيس السياسات والمعايير والعمليات للامتثال والرقابة على نشر الذكاء الاصطناعي الأخلاقي والمسؤول.
- بناء خطوط أنابيب بيانات جاهزة للذكاء الاصطناعي: اجمع مصادر بياناتك المتنوعة في أساس بيانات متين للخَبز القوي للذكاء الاصطناعي مع اتصال مسبق للذكاء الاصطناعي.
عندما تحصل المنظمات على هذا بشكل صحيح، تسرع الحوكمة من قيمة الذكاء الاصطناعي. على سبيل المثال، في الخدمات المالية، تستخدم الصندوق المتوازي الذكاء الاصطناعي لتخطي المحللين البشر في التنبؤ بالأسعار مع تقليل التكاليف بشكل كبير. في التصنيع، يتيح تلقيم سلاسل التوريد الذي يحركه الذكاء الاصطناعي للمنظمات الاستجابة في الوقت الفعلي للتغيرات الجيوسياسية والضغوط البيئية.
وهذه ليست أفكار مستقبلية فقط، بل تحدث الآن، مدفوعة بالبيانات الموثوقة.
مع أسس بيانات قوية، تقلل الشركات من انزلاق النموذج، وتحد من دورات إعادة التدريب، وزيادة السرعة إلى القيمة. هذا هو السبب في أن الحوكمة ليست حاجزًا، بل هي مُحفز للابتكار.
ماذا بعد؟
بعد التجربة، تتحرك المنظمات إلى ما وراء الدردشات وتستثمر في القدرات التحويلية. من تخصيص التفاعلات مع العملاء إلى تسريع البحث الطبي، و تحسين الصحة النفسية وتبسيط العمليات التنظيمية، يبدأ GenAI في إظهار إمكانياته عبر الصناعات.
然而، تعتمد هذه المكاسب كليًا على البيانات التي تدعمها. يبدأ GenAI ببناء أساس بيانات قوي، من خلال حوكمة بيانات قوية. وعلى الرغم من أن GenAI والذكاء الاصطناعي العامل سيتطوران، إلا أنه لن يحل محل الرقابة البشرية في أي وقت قريب. بدلاً من ذلك، ندخل مرحلة من إنشاء القيمة المنظمة، حيث يصبح الذكاء الاصطناعي شريكًا موثوقًا. مع الاستثمارات الصحيحة في جودة البيانات والحوكمة والثقافة، يمكن للمنظمات أخيرًا تحويل GenAI من تجربة واعدة إلى شيء يأخذ حقًا منشأه.












