التنظيم
معظم مسؤولي التكنولوجيا الأمريكيين يريدون تنظيم الذكاء الاصطناعي، ولكن من يجب أن يقودها؟

فقط كما كان للثمانينيات تجاريه الإنترنت، والتسعينيات هاتف الجوال، والاعلام الاجتماعي في العقد الأول من القرن الحالي، فإن العقد الثاني ي属于 الذكاء الاصطناعي. مثل تلك الاختراعات السابقة، يبدو أن الذكاء الاصطناعي يتوسع بشكل أسرع من قدرة المنظمين والمشرعين على مواكبته.
انفجر فقاعة الدوت كوم في عام 1993 مع إطلاق متصفح موزايك الشامل، ولم يكن حتى عام 1996 أن مرر الكونغرس الأمريكي قانون الاتصالات السلكية واللاسلكية، وهو الأول الذي يعالج الإنترنت بشكل صريح. وبالمثل، كشفت شركة آبل النقاب عن هاتف آيفون في عام 2007، على الرغم من أن المشرعين مرروا قانون الاتصالات والفيديو في القرن الحادي والعشرين في عام 2010، الذي يتطلب من جميع الهواتف الذكية أن تحتوي على ميزات إمكانية الوصول.
وبينما شهدت “عقدة وسائل الإعلام الاجتماعية” في العقد الأول من القرن الحالي تأسيس توسيع منصات مثل فيسبوك وواتساب ويوتيوب وإنستجرام، لم يكن حتى النصف الثاني من العقد حتى وافق قانون FOSTA-SESTA، الذي جعل المنصات مسؤولة عن تسهيل الاتجار بالجنس عن علم.
هل سيتكرر التاريخ مع الذكاء الاصطناعي؟
في حين أن الذكاء الاصطناعي أصبح شائعًا بعد إطلاق شركة OpenAI لتشات جبت في عام 2022، فإن بلد المنشأ لم يمرر بعد تشريعات فيدرالية لتنظيمه. وقد غيرت الولايات المتحدة موقفها – من التقييد إلى إلغاء التنظيم – مع تغيير الإدارات المختلفة.
الذكاء الاصطناعي في الولايات المتحدة: قضية حزبية
أمر الرئيس السابق جو بايدن ب قانون الآمن والموثوق والشفاف في عام 2023، الذي يتطلب من الوكالات الفيدرالية اتخاذ خطوات نحو سلامة الذكاء الاصطناعي وحقوق المواطنين والعدالة والشفافية. “استخدام الذكاء الاصطناعي من أجل الخير وتحقيق فوائده الكثيرة يتطلب التخفيف من مخاطره الكبيرة”، كما جاء في القانون أضاف.
في يناير 2025، ومع ذلك، وقع الرئيس الحالي دونالد ترامب على قانون إزالة الحواجز أمام القيادة الأمريكية في الذكاء الاصطناعي، الذي يلغي السياسات والتوجيهات الحالية للذكاء الاصطناعي “التي تعمل كحواجز أمام الابتكار الأمريكي في الذكاء الاصطناعي، وفتح الطريق للولايات المتحدة للتصرف ب决ية للحفاظ على القيادة العالمية في الذكاء الاصطناعي”.
ت寻ى الإدارة الحالية، ثم، تسريع الابتكار في الذكاء الاصطناعي في الولايات المتحدة من خلال الجهود لإلغاء التنظيم، ومواجهة المخاطر المحتملة من خلال الاستثمار في البحث والتطوير. ولا يزال السؤال قائمًا، ومع ذلك، عما إذا كان الحكومة هي التي يجب أن تتصدى لهذه المخاوف.
هناك مخاوف شبه عالمية بشأن مخاطر الذكاء الاصطناعي، بما في ذلك الأخلاقيات والاضطراب والثقة. وجدت دراسة عام 2024 حول المخاوف المتعددة الأطراف الناشئة عن الذكاء الاصطناعي، في الواقع، أن المخاوف الأكثر إلحاحًا تشمل الانحياز والاستخدام الخاطئ والإجراءات الآلية غير المتوقعة وال عدم المساواة والقلق الاجتماعي وتغييرات في سلاسل التوريد، على سبيل المثال.
ي同意 معظم مسؤولي التكنولوجيا الأمريكيين، ولكن يبرزون التناقض. خلصت تقرير سبتمبر 2025 من شركة Solvd، وهي شركة استشارية للذكاء الاصطناعي والهندسة الرقمية، إلى أن 97% من مسؤولي المعلومات ومديري التكنولوجيا يخشون من استخدام الذكاء الاصطناعي غير الأخلاقي، و87% يعتقدون أن التنظيم المفرط للذكاء الاصطناعي قد يقيد الابتكار ويعرضهم لمخاطر تنافسية.
تتكرر مخاوف هؤلاء القادة مع تلك المحددة في دراسة 2024: نماذج الذكاء الاصطناعي أصبحت قوية جدًا بحيث لا يمكن السيطرة عليها، وممثلون خبيثون قد يستفيدون من نقاط الضعف في الذكاء الاصطناعي، ونمذجة الذكاء الاصطناعي تكتسب وصولًا كبيرًا إلى بيانات الشركة، والمعلومات الخاطئة أو الانحياز التي قد تطرحها التكنولوجيا.
من بين 500 مسؤول معلومات وتكنولوجيا أمريكي في شركات تدر أكثر من 500 مليون دولار في الإيرادات السنوية التي أجرتها Solvd، فضل 61% التنظيم العام، في حين فضل 36% التنظيم بقيادة الصناعة.
يمكن أن يشير التنظيم بقيادة الصناعة إلى نموذج مختلط، يتحرك بعيدًا عن ثنائية عامة-خاصة. ففي عام 2023، تفاوضت إدارة بايدن على اتفاق مع كبار مسؤولي التكنولوجيا بشأن التزامات طوعية تتعلق bằngرائِل الذكاء الاصطناعي. وشملت هذه الالتزامات ضمان أن تكون المنتجات آمنة قبل إطلاقها علنًا، وبناء أنظمة تضع الأمان أولاً، وتكسب ثقة الجمهور من خلال الشفافية وبيان قدرات أنظمة الذكاء الاصطناعي وقيودها ومجالات الاستخدام المناسبة وغير المناسبة.
حوار عالمي
على الرغم من اختلاف تفضيل مسؤولي الشركات بين الإطارات التنظيمية العامة أو بقيادة الصناعة، يبقى أن 82% منهم مسؤولون بشكل أساسي عن قيادة الحوكمة الداخلية للذكاء الاصطناعي، وفقًا لشركة Solvd. وأشار 8% فقط من المستجيبين إلى القيادة العليا لتنظيم الذكاء الاصطناعي الداخلي، وقال 5% إن شركاتهم لديها مجلس أخلاقيات ذكاء اصطناعي أو لجنة امتثال مخصصة.
تجد الشركات – وموظفيها – نفسها محاصرة بين انتظار سياسة عامة قد تأتي أو لا تأتي، والعمل بشكل مستقل عن القيادة العليا والفرق المدربة على أخلاقيات الذكاء الاصطناعي.
وجدت سياقات مختلفة حلولًا مختلفة لهذه التعقيدات. على سبيل المثال، تتناقض الاتحاد الأوروبي (EU) بشدة مع نهج إدارة ترامب لإلغاء التنظيم من خلال قانون الاتحاد الأوروبي للذكاء الاصطناعي، وهو أول قانون شامل للذكاء الاصطناعي في العالم. تم تمرير القانون في مارس 2024، وحظرت بعض تطبيقات الذكاء الاصطناعي، وأنشأت إطار تقييم 기반 على المخاطر، وطالب قانونيًا بالشفافية والتواصل مع المستخدمين.
يتابع آخرون مثال الاتحاد الأوروبي. اقترحت تشيلي، زعيم الذكاء الاصطناعي في أمريكا الجنوبية، مؤخرًا مشروع قانون لتنظيم الذكاء الاصطناعي، مستوحى من قانون الذكاء الاصطناعي الأوروبي. من ناحية أخرى، يتجاوز الصين إلى حد كبير هذه العوائق، حيث تفضل نظامها السياسي التنظيم المعتمد من الدولة والمنح والشراكات مع شركات الذكاء الاصطناعي الخاصة. وتتنبع تحديات البلاد من المخاطر المتعلقة بالرقابة والتدخل الحكومي في الابتكار.
لكن الولايات المتحدة، كقائد عالمي في الذكاء الاصطناعي، محتومة لتحديد النغمة لمستقبل الإطارات التنظيمية.
أفكار ختامية
أصبح تطبيق الذكاء الاصطناعي والابتكار ميزة تنافسية في معظم الصناعات في جميع أنحاء العالم. ولكن بدون وضوح التنظيم والسياسات المتغيرة، يجب على مسؤولي التكنولوجيا وضع حواجزهم الخاصة، والقيام بمسؤولية حماية المستهلكين، وكسب ثقتهم في ظل خوف شائع من الذكاء الاصطناعي، والابتكار – كل ذلك في نفس الوقت.
على الرغم من مخاوف القطاع من أن التنظيمات الصارمة قد تعرقل الابتكار، قد يكون العكس هو الصحيح. وفقًا لمنظمة RegulatingAI، وهي منظمة غير ربحية مقرها الولايات المتحدة تركز على استكشاف تقاطع الذكاء الاصطناعي والتنظيم، فإن عدم اليقين بشأن ضبط الذكاء الاصطناعي يؤخر تبنيه، مما يؤخر تحقيق الفوائد الاقتصادية، وينقص الاستثمار، ويعيق هامش التوسع للشركات.
“تفسير كيفية تعريف أنظمة الذكاء الاصطناعي في السياقات التنظيمية هو أمر بالغ الأهمية، حيث يضيف الغموض في التعريف إلى تحديات الامتثال”، أشار المنظمة.
كما شددت شركة Solvd على أهمية قيام الشركات بتصرفها الحالي في حالة ارتباك التنظيم. “الآن هو الوقت المثالي للشركات لتأسيس حوكمة داخلية فعالة قبل أن يتدخل المنظمون الخارجيون وفرض حلول أقل مرونة”، كما خلصت تقرير الشركة.
في هذا السياق، يواجه مبتكرو الذكاء الاصطناعي في الولايات المتحدة تحديات غير مسبوقة: المخاطر التمييزية لعدم تبني سياسات الإشراف، وفرص الفجوات في الامتثال عند وضع التنظيم.
لكن الفرصة تلمع أيضًا. مع نظرة إلى الوراء على الإنترنت والهواتف الذكية ووسائل الإعلام الاجتماعية، الآن هو الوقت الصحيح للنظر إلى الأمام وبناء نظام يوازن بين الابتكار والمسؤولية، ويعزز الثقة، ويتحضر للاعتبارات التنظيمية.












