قاده التفكير
البيانات - وليس الذكاء الاصطناعي - هي المفتاح

لقد أصبح الذكاء الاصطناعي راسخًا في الشركات لدرجة أن كل عملية تقريبًا تأثرت به بطريقة أو بأخرى. وبالنظر إلى استخدام الذكاء الاصطناعي تحديدًا، نرى مؤسسات تتجه نحو أشكال جديدة من الذكاء الاصطناعي للابتكار والتكرار على الأنظمة الحالية. في الواقع، أظهرت دراسة حديثة مسح وجد قادة تكنولوجيا المعلومات أن 98% منهم إما يستخدمون بالفعل الذكاء الاصطناعي الوكيل لتنظيم حالات استخدام GenAI أو يخططون للقيام بذلك في المستقبل القريب.
في ظلّ الطفرة الهائلة في أدوات وتقنيات الذكاء الاصطناعي التي ظهرت خلال السنوات القليلة الماضية، أصبحت برامج الذكاء الاصطناعي من أكثرها شيوعًا. تساعد هذه البرامج المؤسسات على إنجاز كل شيء، بدءًا من تحسين تجربة العملاء ودعمهم، وصولًا إلى أتمتة العمليات الداخلية، أو تحسين نماذج GenAI المستخدمة حاليًا. إلا أن توسيع نطاق فوائد برامج الذكاء الاصطناعي، والذكاء الاصطناعي عمومًا، على مستوى المؤسسة بأكملها ليس بالأمر السهل.
يعود سبب صعوبة تعامل العديد من المؤسسات مع الذكاء الاصطناعي، وخاصةً مع برامج الذكاء الاصطناعي، على نطاق واسع إلى الثقة، وليس إلى التكنولوجيا. فبرامج الذكاء الاصطناعي، بطبيعتها، تعمل عبر أنظمة متعددة. وبغض النظر عن موقع هذه الأنظمة، فمن المرجح أنها تعتمد على بيانات شديدة الحساسية، سواءً كانت بيانات عملاء ضخمة، أو معلومات طبية، أو بيانات مصرفية ومالية. وهنا تكمن المشكلة. فإدخال كميات هائلة من البيانات إلى أي نموذج ذكاء اصطناعي، دون وجود بنية تحتية مناسبة لخصوصية البيانات وأمانها، يُعرّض المؤسسات لمخاطر جسيمة.
بغض النظر عن مخرجات نموذج الذكاء الاصطناعي، فإنه لا يكون مجديًا إلا إذا كانت البيانات التي دربته موثوقة. لكن الأمر يتجاوز مجرد ضمان أمان البيانات. فخاصةً مع وكلاء الذكاء الاصطناعي، هناك قدر كبير من الاستقلالية في كيفية عمل هذه النماذج. إن ضمان تزويدهم بفهمٍ دقيقٍ لمن يحق له الوصول إلى البيانات، ومتى، وكيف، أمرٌ بالغ الأهمية لبناء الثقة.
مع ذلك، ليس من المستحيل التغلب على تعقيدات خصوصية البيانات. فمع تطبيق سياسات البيانات المناسبة، وحوكمة البيانات الوصفية، وواجهات برمجة التطبيقات، وأطر التفويض المؤسسية، يمكن لقادة تكنولوجيا المعلومات في المؤسسات ضمان أمان البيانات التي تُغذي الذكاء الاصطناعي وموثوقيتها.
دعونا نلقي نظرة فاحصة.
التعامل مع خصوصية البيانات والحاجة إلى الذكاء الاصطناعي على نطاق واسع
أحد الأهداف الأوسع لدمج وكلاء الذكاء الاصطناعي في المؤسسة هو تبسيط سير العمل عبر العمليات والأنظمة. لكن القيام بذلك دون أي حواجز أمان قد يعرض بيانات حساسة للخطر دون قصد. في وقت تتطور فيه خروقات البيانات والهجمات الخبيثة باستمرار، فإن أي بيانات تتعرض للكشف أو الوصول إليها من قبل مستخدمين غير مصرح لهم قد تُسبب كارثة - ليس فقط لمبادرة الذكاء الاصطناعي، بل للمؤسسة بأكملها. يبلغ متوسط تكلفة خرق البيانات أكثر من 4 مليون دولار اعتبارًا من عام ٢٠٢٥، وفقًا لشركة IBM. يتسارع تبني الذكاء الاصطناعي، متجاوزًا في كثير من الأحيان الحوكمة والأمن، حيث يسعى قادة المؤسسات إلى المزيد من الابتكار، والرؤى العميقة، وفرص جديدة للنمو. ولكن حتى مع ازدياد تبني الذكاء الاصطناعي، تتطور السياسات والمتطلبات التنظيمية لمواكبة هذا التطور وضمان أمن البيانات.
من GDPR إلى CCPA وحتى مع السياسات الراسخة مثل قانون حماية المعلومات الصحية والحماية من الاحتيال (HIIPA)، تُشكل التعقيدات التنظيمية تحديًا معقدًا أمام توسيع نطاق وكلاء الذكاء الاصطناعي. فأدوات الذكاء الاصطناعي التي تتطلب كميات هائلة من البيانات، إذا تُركت دون مراقبة، تُثير مخاطر متزايدة. ومع امتداد نماذج الذكاء الاصطناعي عبر جميع هذه الأنظمة الداخلية، غالبًا ما يتم نقل البيانات الحساسة والوصول إليها في هذه العملية. وفيما يتعلق بالبيانات، تُولي الهيئات التنظيمية حول العالم اهتمامًا أكبر لضمان الخصوصية والحوكمة الفعالة والأمن القوي.
سياسات أحدث مثل DORA- مجموعة من المبادئ التوجيهية لإدارة مخاطر تكنولوجيا المعلومات والاتصالات لشركات الخدمات المالية العاملة في الاتحاد الأوروبي - تشترط صراحةً تصنيف حوادث تكنولوجيا المعلومات والاتصالات والإبلاغ عنها، بما في ذلك تلك التي تؤثر على سرية البيانات أو سلامتها أو توافرها. وبينما تُركز هذه السياسة بشكل أساسي على المرونة التشغيلية، فإن آثارها تمتد إلى تبني الذكاء الاصطناعي أيضًا. فمع تزايد مبادرات الذكاء الاصطناعي، بما في ذلك تلك التي تستخدم وكلاء الذكاء الاصطناعي، والتي تستفيد من البيانات على نطاق المؤسسات، يتزايد خطر الوصول غير المصرح به. وإذا أدى مشروع ذكاء اصطناعي إلى فقدان البيانات أو كشفها، فإن مثل هذه اللوائح ستصبح ذات أهمية بسرعة.
مع وجود الكثير على المحك، من المهم أن لا تغفل مؤسسات الأعمال عن مدى أهمية الأمان والحوكمة والوصول إلى البيانات.
بناء الأساس لدعم وكلاء الذكاء الاصطناعي
تحتاج المؤسسات إلى بناء أساس متين قائم على حوكمة فعّالة، مع قواعد صارمة وقواعد قابلة للتنفيذ تُحدد ما يمكن للوكلاء فعله وما لا يمكنهم فعله. ويرتكز هذا الأساس على حوكمة البيانات، وهي السياسات والمعايير والهياكل رفيعة المستوى التي تُدير كيفية استخدام البيانات بمسؤولية في جميع أنحاء المؤسسة. تضمن هذه السياسات عدم تجاوز الوكلاء لأدوارهم، سواءً بالوصول إلى مجموعات بيانات محدودة أو بدء عمليات دون إشراف بشري.
ينبغي أن يبدأ تطبيق سياسة حوكمة بيانات فعّالة ببضع نقاط رئيسية. ويشمل ذلك المساءلة والملكية، وجودة البيانات واتساقها، والأمان والخصوصية، والامتثال وقابلية التدقيق، والشفافية وإمكانية التتبع.
بفضل هذه النقاط كأساسٍ للحوكمة، يكتسب قادة المؤسسات سيطرةً أكبر على عملية صنع القرار، ويزيدون من ثقة بياناتهم، ويقللون من المخاطر التنظيمية التي تشكلها صوامع البيانات. ويتحقق ذلك من خلال الاستفادة من إمكانيات مثل إدارة البيانات الوصفية، وتصنيف البيانات، وتسلسلها، لتعزيز الشفافية والوضوح فيما يتعلق بمن أو ما هي أدوات الذكاء الاصطناعي التي يمكنها الوصول إليها. تتيح كل آلية من هذه الآليات للمؤسسات تتبع مصدر البيانات، وكيفية تدفقها، وكيفية تحويلها.
التكنولوجيا مهمة، لكن الثقة هي الأهم
كلما ظهر نموذج أو ابتكار جديد للذكاء الاصطناعي، ارتفع معدل تبنيه بشكل كبير. ولكن مع أي مبادرة للذكاء الاصطناعي، تبرز المخاطر - وإن لم تكن دائمًا كما يظن المرء. فالتحديات التقنية التي غالبًا ما تعيق تبني الأدوات الجديدة ليست دائمًا السبب وراء بطء تكامل الذكاء الاصطناعي. ففي كثير من الأحيان، يكمن الأمر في البيانات، وتحديدًا الثقة بها والمخاوف المتعلقة بالخصوصية. ونظرًا لسرعة تطور الذكاء الاصطناعي، قد يكون من الصعب أحيانًا ضمان مواكبة أمور مثل ضوابط الوصول، وحوكمة البيانات، والتسلسل الهرمي، والامتثال لهذه الوتيرة.
الحوكمة جزءٌ مهمٌّ من الثقة، ولكنها تتطلب أيضًا تقييماتٍ فعّالة. لا تزال هناك فجوةٌ كبيرةٌ في التقييمات المعيارية، خاصةً في مجال الذكاء الاصطناعي الوكيل، مع أنها ضروريةٌ لإثبات كفاءة الأنظمة وأمانها.
سواء كنت ترغب في تحسين أداء الأنظمة الداخلية، أو تحسين اكتشاف الاحتيال، أو مجرد جعل تجربة العملاء أكثر سلاسة، فإن أفضل وكلاء الذكاء الاصطناعي، ومبادرات الذكاء الاصطناعي بشكل عام، كلها مبنية على أساس من البيانات الموثوقة والخصوصية والأمان.












