قادة الفكر
عندما تكون “معرفة” الذكاء الاصطناعي بعمر 50 عاما: المخاطر المتعلقة بالامتثال التي لا يمكن تجاهلها

يُعد موضوع الأفكار الخاطئة للذكاء الاصطناعي تحدياً حاسماً مع زيادة استخدام الشركات لأدوات التوليد. على الرغم من الحماس الواسع النطاق حول تبني الذكاء الاصطناعي، هناك أيضا تيار قوي من الانتقادات. غالباً ما يشير النقاد إلى عدم دقة الذكاء الاصطناعي في مخرجاته، والتي تعيق قيمتها – ويمكن أن تهدد حتى بضرر حقيقي للبشر، خاصة في قطاعات مثل الرعاية الصحية والنقل، حيث يمكن أن تؤدي المخرجات الخاطئة إلى كل شيء من وصفة طبية خاطئة إلى قطارات على مسار تصادم.
غالباً ما يتم归咎 هذه عدم الدقة إلى “هلوسات” الذكاء الاصطناعي – الحالات التي يولد فيها الذكاء الاصطناعي جواب “أفضل تخمين”، معبراً عنه بنفس الثقة مثل الجواب “الحقيقي”، بدلاً من إبلاغ المستخدم بفجوة في معرفته أو قدرته. يمكن أن يكون من الصعب تحديد هلوسات الذكاء الاصطناعي في البداية – ولكن هناك مشكلة أخطر وأكثر صعوبة في الكشف عنها.
ديون جودة البيانات: عقل الذكاء الاصطناعي
عندما يستخدم نظام الذكاء الاصطناعي بيانات قديمة أو غير كاملة أو غير دقيقة، تحدث مخرجات خاطئة ولكنها أقل وضوحاً في البداية. على سبيل المثال، قد تطلب من الذكاء الاصطناعي تحديد أعراض حالة طبية وتستلم جواباً يستند إلى ورقة بحثية بعمر 50 عاماً بدلاً من الأبحاث الحالية. ومن غير المرجح أن يبدو النتيجة خاطئة بشكل واضح – ولكن هذا الغطاء الأولي من الملاءمة ي представляет خطراً حقيقياً للمريض والم 제공ي للرعاية الصحية.
نفس الشيء صحيح عبر الصناعات – إذا كانت البيانات التي يتم تغذيتها إلى نموذج الذكاء الاصطناعي تحتوي على معلومات قديمة أو متجاوزة أو جزئية، فهناك خطر كبير من مخرجات خاطئة. ومع زيادة عدد الشركات التي تدمج الذكاء الاصطناعي في العمليات الحاسمة، يزيد خطر استخلاص استنتاجات خاطئة من البيانات التي لا يتم حكمها جيداً.
الدقة للتنظيم
هذا ليس مشكلة فقط للعمليات اليومية – بل هو أيضا تحدي كبير للامتثال. تتطور المتطلبات التنظيمية بسرعة لمواجهة المخاوف حول عدم دقة الذكاء الاصطناعي. على سبيل المثال، تم اتخاذ بعض الإجراءات التنظيمية المبكرة على الذكاء الاصطناعي؛ ولا سيما عندما حظرت إيطاليا مؤقتاً ChatGPT بسبب مخاوف تتعلق بالخصوصية، واطلقت هيئة حماية البيانات الأوروبية فريق عمل مخصصاً لتنسيق الإجراءات القضائية المحتملة ضد ChatGPT.
أحد أهم التغييرات التنظيمية هو صدور قانون الذكاء الاصطناعي الأوروبي، وهو أول إطار قانوني شاملاً للذكاء الاصطناعي في العالم. يحدد القانون التزامات بناءً على مستوى خطر أنظمة الذكاء الاصطناعي، من أنظمة “خطر غير مقبول” التي يتم حظرها، إلى أنظمة “خطر عال” التي تواجه متطلبات صارمة حول الشفافية وجودة البيانات والحوكمة والرقابة البشرية.
تكمُن أهمية قانون الذكاء الاصطناعي الأوروبي ليس في نطاقه الطموح، بل في السابقة التي يحددها. يُظهر المنظمون أن الذكاء الاصطناعي سيكون خاضعاً لقواعد ملزمة وقابلة للتنفيذ، وأن المنظمات يجب أن تعامل الامتثال والشفافية حول مكان واستخدام الذكاء الاصطناعي كجزء لا يتجزأ من تبني الذكاء الاصطناعي بدلاً من كونه بعد الفعل.
يتمتع القانون بنطاق واسع، ويمكن أن يؤثر على نسبة كبيرة من تطورات الذكاء الاصطناعي. في جوهره، يهدف إلى جعل الذكاء الاصطناعي آمناً مع احترام الحقوق والقيم الأساسية. في هذا النظام المبني على المبادئ يأتي تشخيص مصادر محتملة لعدم دقة الذكاء الاصطناعي، بما في ذلك البيانات وال مجموعات البيانات التي تغذي النماذج، وopaqueness والوصول، وتصميم النظام والاستخدام. حلول الذكاء الاصطناعي هي بناء من جميع هذه – يمكن أن تؤدي مشاكل في أي من هذه إلى نتيجة سلبية. ليس ذلك فقط، ولكن البيانات التي تدخل في تصميم نموذج الذكاء الاصطناعي وتطويره وتحديثه وتشغيله من المرجح أن تكون في الغالب سجلات أعمال خاضعة لمتطلبات الامتثال المختلفة.
بمعنى آخر، يصبح البيئة التنظيمية المحيطة بالذكاء الاصطناعي أكثر صرامة – وهذا صحيح لكل من مدخلات البيانات ومخرجاتها، على الرغم من أن الأخيرة تحصل على المزيد من العناوين الرئيسية.
خمس خطوات لتغذية الذكاء الاصطناعي ببيانات متوافقة وحديثة وملائمة
للحصول على حل لهذا التحدي المزدوج – ضمان التعامل مع البيانات بشكل متوافق وضمان مدخلات عالية الجودة التي تمكن من مخرجات عالية الجودة – تحتاج الشركات إلى السيطرة على بيانات التدريب والاستدلال. للأسف، هذا شيء لا يزال يفتقر إليه العديد من الشركات.
على الأقل، يجب على المنظمات تطبيق برامج الامتثال والحوكمة الأوسع على مبادرات الذكاء الاصطناعي. يجب أن يبدأوا في التقاط وسجلات مناسبة حول البيانات التي يغذونها إلى نماذج الذكاء الاصطناعي، وكيف يتم تصميم النماذج والأنظمة، وكذلك القرارات والمحتوى الذي يتم توليده من خلال الذكاء الاصطناعي.
ومع ذلك، يصبح من الأهمية الحاسمة للمنظمات أن تتجاوز ذلك وأن تضمن السيطرة الكاملة على جميع البيانات التي يمكن استخدامها في عمليات الذكاء الاصطناعي، سواء كانت للتدريب الأولي أو العمل “حَي”. يتطلب ذلك استراتيجية إدارة وتخزين بيانات عالية الجودة، مما يضمن جمع جميع البيانات ذات الصلة بذكاء، وتنظيفها، وتخزينها، وتصنيفها، وتحديد الحقوق. لتحقيق ذلك، يجب على المنظمات النظر في أربعة خطوات رئيسية:
1. سلالة البيانات وأصلها
يتضمن ذلك الحفاظ على سجل لمصدر البيانات، وأصلها، وملكيةها، وأي تغييرات في البيانات الوصفية (إذا كان مسموحاً بذلك) على مدار دورة حياتها. كما يتضمن الحفاظ على بيانات وصفية غنية وجميع الوثائق أو الملفات التي يتم استخلاصها منها.
2. صحة البيانات
يتطلب ذلك الحفاظ على سلسلة واضحة من الحفاظ على جميع البيانات، وتخزين الكائنات في أشكالها الأصلية، وتهاش الكائنات المستلمة لإثبات أن البيانات لا تتغير. بالإضافة إلى ذلك، يجب على المنظمات الحفاظ على تاريخ تدقيق كامل لكل كائن، ولجميع الإجراءات والأحداث المتعلقة بأي تغييرات.
3. تصنيف البيانات
من المهم تحديد طبيعة مجموعة أو نوع من البيانات. يجب على المنظمات أن تكون قادرة على حكم البيانات المهيكلة والبيانات شبه المهيكلة ومجموعات البيانات المهيكلة. يمكن أن يسمح إعطاء كل فئة مخطط فريد للمنظمات بإدارة مجموعات بيانات متنوعة دون بنية بيانات ثابتة واحدة – وتجنب تعديل البيانات بشكل غير ضروري لإجبارها على بنية بيانات غير مرنة.
4. تطبيع البيانات
من المهم تحديد تعريفات ومواصفات مشتركة للبيانات الوصفية لاستخدامها في التحليلات وحلول الذكاء الاصطناعي. تعتبر المخططات المحددة جيداً عنصراً هاماً، إلى جانب الأدوات التي يمكنها تحويل أو تعيين البيانات للحفاظ على مناظير متسقة ومتطابقة للبيانات المرتبطة.
5. صلاحيات البيانات
تتطلب الشركات سيطرة دقيقة على الصلاحيات، بما في ذلك على مستوى الكائن أو الحقل، بناءً على ملفات تعريف المستخدم أو النظام. هذا يعني أن البيانات الصحيحة متاحة للمستخدمين والنظم التي تمتلك صلاحية الوصول إليها، مع تقييد أو تقييد الوصول إلى أولئك الذين لا يمتلكون الصلاحية.
بوجود هذه العناصر الحاسمة في المكان، ستكون الشركات في أفضل وضع لضمان أن تكون البيانات المقدمة إلى نماذج الذكاء الاصطناعي عالية الجودة ومتوافقة. سيدفع الذكاء الاصطناعي التحسينات والكفاءات عبر الصناعات – ولكن من أجل حدوث ذلك، فإن أساساً قوياً للبيانات ضروري.












