اتصل بنا للحصول على مزيد من المعلومات

يواجه قادة الموارد البشرية عبئًا جديدًا في مجال الامتثال مع توسع نطاق الذكاء الاصطناعي

قاده التفكير

يواجه قادة الموارد البشرية عبئًا جديدًا في مجال الامتثال مع توسع نطاق الذكاء الاصطناعي

mm

لسنوات، اعتُبر الذكاء الاصطناعي في مجال الموارد البشرية مكسبًا خالصًا للإنتاجية. توظيف أسرع. تقييمات أداء أكثر ذكاءً. دعم متواصل للموظفين. ولبعض الوقت، نجح هذا التصور: كان الذكاء الاصطناعي أداة تعد بالكفاءة في الإدارات التي طالما أثقلتها العمليات اليدوية.

لكن مع تحول الذكاء الاصطناعي مضمنة في جميع أنحاء في جميع وظائف الموارد البشرية تقريبًا، يتغير مسار النقاش. ففي عام 2026، بات لزامًا على إدارات الموارد البشرية التعامل مع شبكة متطورة من اللوائح التي تحكم الذكاء الاصطناعي. ويدفع مديرو الموارد البشرية إلى ما هو أبعد من مجرد تبني الذكاء الاصطناعي وتحسينه، نحو أمر أكثر تعقيدًا: الحوكمة. ويشمل ذلك تحديد كيفية اعتماد أدوات الذكاء الاصطناعي، والبيانات التي يمكن استخدامها، وكيفية مراجعة القرارات، ومن يتحمل المسؤولية عند حدوث أي خطأ.

رغم أن الامتثال قد يبدو عبئًا في ظل بيئة تنظيمية متغيرة، إلا أنه يُمكن أن يُشكّل إطارًا أساسيًا لتبني الذكاء الاصطناعي بشكل مسؤول. عند استخدامه بالشكل الصحيح، لا يُعيق الامتثال التقدم، بل يُمكن أن يكون دليلًا لتطبيق الذكاء الاصطناعي بطرق قابلة للدفاع عنها، وعادلة، ومستدامة. يكمن التحدي في أن العديد من إدارات الموارد البشرية لم تُمنح الأدوات، أو الشفافية، أو الصلاحيات اللازمة لإدارة الذكاء الاصطناعي بفعالية.

من التشغيل إلى الامتثال

أصبح متخصصو الموارد البشرية الآن ثاني أكبر مستخدمو الذكاء الاصطناعي، بعد موظفي قطاع التكنولوجيا. يُدمج الذكاء الاصطناعي في صميم عمليات الموارد البشرية، ويؤثر على التوظيف، وإدارة الأداء، والتعويضات، ودعم الموظفين. علاوة على ذلك، حول 44 في المئة يستخدم العديد من أصحاب العمل الآن الذكاء الاصطناعي لفحص السير الذاتية للمتقدمين للوظائف.

مع تعامل هذه الأنظمة مع بيانات حساسة تخص القوى العاملة عبر مختلف المناطق، فإنها تُنشئ التزامات جديدة تتعلق بالتوثيق والإشراف والشفافية. لم يقتصر التغيير على مدى انتشار استخدام الذكاء الاصطناعي فحسب، بل شمل أيضاً توقع قدرة إدارات الموارد البشرية على تحديد القرارات التي تستند إلى الذكاء الاصطناعي وتبريرها والدفاع عنها.

مع تزايد هذا التوقع، بات الذكاء الاصطناعي في مجال الموارد البشرية يتقاطع بشكل مباشر مع قوانين حماية البيانات، ولوائح العمل والتوظيف، ومتطلبات مكافحة التمييز، والتزامات حفظ السجلات. وعند ظهور أي مشكلات، تقع المسؤولية في نهاية المطاف على عاتق صاحب العمل، وليس مزود البرمجيات. ولم يعد من المقبول إلقاء اللوم على "الخوارزمية" أو على طرف ثالث.

علاوة على ذلك، تتوسع اللوائح بسرعة. وتزيد هيئات حماية البيانات الوطنية وهيئات تنظيم العمل من إجراءات الإنفاذ، في حين تظهر تشريعات خاصة بالذكاء الاصطناعي في العديد من الولايات القضائية.

ومع ذلك، تفتقر العديد من فرق الموارد البشرية إلى رؤية واضحة لكيفية عمل أدوات الذكاء الاصطناعي عمليًا، لا سيما عندما تكون هذه الأدوات مُدمجة ضمن منصات خارجية. يُتوقع من القادة فهم كيفية اتخاذ القرارات، والبيانات التي تستند إليها، وما إذا كان بالإمكان تفسير النتائج وتبريرها. عمليًا، غالبًا ما يكون هذا الفهم محدودًا أو معدومًا تمامًا.

التحيز والخصوصية

من أكثر المفاهيم الخاطئة شيوعاً حول الذكاء الاصطناعي في مجال الموارد البشرية، الاعتقاد بأن الأتمتة تقلل المخاطر بطبيعتها عن طريق إزالة العنصر البشري. وهذا الاعتقاد مفهوم، إذ يُسوّق الذكاء الاصطناعي غالباً على أنه قائم على البيانات، ومتسق، وأقل عرضة للتحيز الفردي من صانعي القرار البشريين. لكن في الواقع، قد يُفاقم الذكاء الاصطناعي المشكلات القائمة.

تعكس أنظمة الذكاء الاصطناعي البيانات والافتراضات التي بُنيت عليها. بعبارة أخرى، لا تكون المخرجات تمثيلية وموضوعية إلا بقدر ما تكون المدخلات. على سبيل المثال، إذا كانت فئة ديموغرافية معينة ممثلة تمثيلاً زائداً في بيانات تدريب الذكاء الاصطناعي، فستكون النتائج أكثر انطباقاً على تلك الفئة الديموغرافية من غيرها - أو قد بل ويحظى بالأفضلية في التوظيف أو غيرها من عمليات الاختيار. إذا احتوت بيانات التدريب على تحيز أو ثغرات أو ممارسات قديمة، فإن المخرجات ستعمم هذه العيوب على عمليات التوظيف والتقييم وقرارات إدارة القوى العاملة. ولأن هذه الأنظمة تعمل غالبًا في الخلفية، فقد تمر المشكلات دون أن يلاحظها أحد حتى تتفاقم إلى أزمات قانونية أو تتعلق بالسمعة أو علاقات الموظفين.

تُعدّ مخاطر الخصوصية بالغة الأهمية. فكثيراً ما تعالج أدوات الذكاء الاصطناعي كميات هائلة من بيانات الموظفين، أحياناً بطرق لا تملك فرق الموارد البشرية سيطرة كاملة عليها، بل ولا تفهمها تماماً. وبدون إشراف واضح، قد تفقد المؤسسات القدرة على معرفة مكان تخزين بيانات الموظفين، وكيفية استخدامها، ومدى امتثالها للمتطلبات التنظيمية المحلية. وقد تُنقل البيانات عبر الحدود دون ضمانات كافية، أو تُحتفظ بها لفترة أطول من المسموح بها، أو يُعاد استخدامها لأغراض ثانوية كتدريب النماذج، أو تُعرض على جهات خارجية خارجة عن سيطرة الموارد البشرية المباشرة. وإلى جانب المخاطر القانونية، قد تُؤدي هذه المشكلات إلى تآكل ثقة الموظفين بسرعة، وتستدعي تدقيقاً من مجالس العمل، أو النقابات، أو هيئات الحوكمة الداخلية.

يواجه قادة الموارد البشرية اليوم أسئلة لم تكن تُطرح قبل بضع سنوات: ما البيانات التي يستخدمها هذا النظام؟ أين تتم استضافتها؟ من لديه حق الوصول إليها؟ هل يمكننا شرح هذه النتيجة بوضوح لموظف أو جهة تنظيمية أو محكمة؟ إذا كانت الإجابات غير واضحة، فإن المخاطر قائمة بالفعل.

في أوروبا ، و قانون الاتحاد الأوروبي للذكاء الاصطناعي من المتوقع أن يبدأ تطبيق هذه الإجراءات على مراحل، مع إخضاع أنظمة الذكاء الاصطناعي عالية المخاطر المستخدمة في التوظيف لمتطلبات صارمة للغاية. وستواجه الشركات التي لا تستطيع الإجابة بوضوح على هذه الأسئلة، لا سيما فيما يتعلق باستخدام الذكاء الاصطناعي في ممارسات التوظيف، عقوبات شديدة.

الحوكمة تدعم الابتكار

من المخاوف الشائعة أن تؤدي متطلبات الامتثال المتزايدة إلى إبطاء تبني الذكاء الاصطناعي. عمليًا، يشمل ذلك غالبًا عمليات موافقة موثقة، وحدودًا محددة للبيانات، ومسارات تصعيد واضحة، ومراجعات دورية للنتائج التي يحركها الذكاء الاصطناعي. تُمكّن أطر الحوكمة الواضحة المؤسسات من استخدام الذكاء الاصطناعي بثقة وفعالية أكبر، مما يقلل من حالة عدم اليقين لدى قادة الموارد البشرية والشؤون القانونية والأعمال.

عندما تُحدد الحدود مسبقًا - فيما يتعلق باستخدام البيانات، وسلطة اتخاذ القرار، والتوثيق، والمساءلة - تستطيع الفرق تجربة الأدوات الجديدة، وتحسين سير العمل، وتوسيع نطاق استخدامات الذكاء الاصطناعي دون القلق المستمر بشأن العواقب غير المقصودة. تُرسّخ الحوكمة توقعات مشتركة تُسرّع الموافقات، وتُوضّح الملكية، وتُقلّل من العوائق القانونية أو التنظيمية في اللحظات الأخيرة، مما يُسهّل الانتقال من المشاريع التجريبية إلى النشر على مستوى المؤسسة.

بالنسبة للمؤسسات العالمية، يعني هذا أيضاً إدراك أن حوكمة الذكاء الاصطناعي لا يمكن أن تكون حلاً واحداً يناسب الجميع. تختلف متطلبات الامتثال بين الدول وبين وظائف الموارد البشرية، مثل التوظيف وإدارة الأداء وإدارة بيانات الموظفين، ويجب إدارة أنظمة الموارد البشرية مع مراعاة هذا التعقيد. المؤسسات التي تجتاز هذا التحول بنجاح هي تلك التي تتعامل مع الذكاء الاصطناعي في الموارد البشرية كقدرة طويلة الأجل، وليس كحل مؤقت. وعند التفكير والتخطيط على المدى البعيد، سيتم تصميم الامتثال للذكاء الاصطناعي منذ البداية، وليس كفكرة لاحقة.

الأفكار النهائية

لم يعد الذكاء الاصطناعي في إدارة الموارد البشرية مجرد تجربة تقنية أو وسيلة مختصرة لزيادة الإنتاجية، بل أصبح جزءًا أساسيًا من مسؤوليات هذه الإدارة، مما يستلزم تحديدًا واضحًا للملكية والشفافية والإشراف المستمر. مع ذلك، تبنت العديد من إدارات الموارد البشرية الذكاء الاصطناعي بشكل تدريجي، غالبًا دون وجود هياكل الحوكمة التي تتوقعها الجهات التنظيمية حاليًا.

المنظمات التي لا تعالج هذه الفجوة تُخاطر بالتخلف عن الركب، ليس فقط من الناحية التقنية، بل ومن الناحية القانونية ومن ناحية السمعة أيضاً. في عام 2026، لم يعد استخدام الذكاء الاصطناعي بشكل مسؤول خياراً بالنسبة لإدارة الموارد البشرية، بل أصبح جزءاً لا يتجزأ من مهامها.

ميرين روبرتس-وارد، المديرة الأولى لحلول الموارد البشرية العالمية في مجموعة HSP ميرين خبيرة دولية متمرسة في مجال الموارد البشرية، تتمتع بخبرة واسعة في دعم المؤسسات في مختلف القطاعات أثناء توسعها ونموها على مستوى العالم. تشمل خبرتها إدارة القوى العاملة عبر الحدود، وعلاقات الموظفين، والامتثال العالمي، والجاهزية التشغيلية، مما يساعد المؤسسات على تجاوز تحديات الموارد البشرية المعقدة في بيئات ثقافية وتنظيمية متنوعة. على مدار مسيرتها المهنية، قدمت ميرين استشاراتها لمؤسسات عامة وخاصة بشأن التوسع الدولي، والتغييرات واسعة النطاق في القوى العاملة، ونقل الموظفين، وتطوير استراتيجيات موارد بشرية متوافقة وقابلة للتطوير. تعمل ميرين عن كثب مع فرق القيادة لتصميم عمليات عملية، وبناء سياسات متينة، ودعم علاقات فعّالة مع الموظفين، مما يمكّن المؤسسات من إدارة قواها العاملة الدولية والتفاعل معها بثقة.