الذكاء الاصطناعي
OpenAI و Anthropic و Google يحثون على اتخاذ إجراءات مع تقلص تقدم الولايات المتحدة في مجال الذكاء الاصطناعي

أحالت الشركات الأمريكية الرائدة في مجال الذكاء الاصطناعي، OpenAI و Anthropic و Google، على الحكومة الفيدرالية إلى أن تقدم الولايات المتحدة التكنولوجية في مجال الذكاء الاصطناعي “ليست واسعة وتتقلص” مع نمو قدرات النماذج الصينية مثل Deepseek R1، وفقًا للوثائق المقدمة إلى الحكومة الأمريكية استجابة لطلب للحصول على معلومات حول تطوير خطة عمل الذكاء الاصطناعي.
تسلط هذه المقترحات الأخيرة من مارس 2025 الضوء على القلق الحاد بشأن المخاطر الأمنية الوطنية والتنافس الاقتصادي والحاجة إلى إطارات تنظيمية استراتيجية للحفاظ على ريادة الولايات المتحدة في تطوير الذكاء الاصطناعي في مواجهة التنافس العالمي المتزايد وتقدم الصين المدعوم من الدولة في هذا المجال. قدمت Anthropic و Google ردود أفضالهم في 6 مارس 2025، في حين قدمت OpenAI عرضها في 13 مارس 2025.
تحدي الصين و Deepseek R1
أثارت ظهور نموذج Deepseek R1 الصيني قلقًا كبيرًا بين مطورو الذكاء الاصطناعي الأمريكيين، الذين يرون فيه ليس متفوقًا على التكنولوجيا الأمريكية ولكن دليلًا مقنعًا على أن الفجوة التكنولوجية تتقلص بسرعة.
حذرت OpenAI بشكل صريح من أن “Deepseek يظهر أن تقدمنا ليس واسعًا وتتقلص”، ووصفت النموذج بأنه “مدعوم من الدولة ومراقب من الدولة ومتاح بحرية” – مزيج يعتبرونه مهددًا بشكل خاص للمصالح الأمريكية والتنمية العالمية للذكاء الاصطناعي.
وفقًا لتحليل OpenAI، ي представляет Deepseek مخاطر مشابهة لتلك المرتبطة بشركة Huawei للاتصالات الصينية. “مثل Huawei، هناك مخاطر كبيرة في بناء أنظمة على نموذج DeepSeek في البنية التحتية الحيوية والحالات الأخرى التي تتمتع بأهمية عالية، نظرًا لاحتمال أن يتم إجبار DeepSeek من قبل الحزب الشيوعي الصيني على تحوير نماذجه ل gây ضررًا”، وفقًا لما ذكره OpenAI في عرضها.
كما أثار الشركة مخاوف بشأن خصوصية البيانات وأمانها، مشيرًا إلى أن اللوائح الصينية قد تتطلب من Deepseek مشاركة بيانات المستخدم مع الحكومة. هذا يمكن أن يسمح للحزب الشيوعي الصيني بتطوير أنظمة ذكاء اصطناعي أكثر تقدمًا تتماشى مع المصالح الحكومية مع تقويض الخصوصية الفردية.
ركز تقييم Anthropic بشكل كبير على الآثار الأمنية الحيوية. أظهرت تقييمهم أن نموذج Deepseek R1 “امتثل للاجابة على معظم أسئلة أسلحة البيولوجية، حتى عند صياغتها بنية خبيثة واضحة”. هذا الاستعداد لتقديم معلومات потенциالية الخطرة يتناقض مع إجراءات الأمان التي طبقتها النماذج الرائدة في الولايات المتحدة.
“في حين تحافظ أمريكا على ريادة الذكاء الاصطناعي اليوم، يظهر DeepSeek أن تقدمنا ليس واسعًا وتتقلص”، كما أشار Anthropic في عرضها، مما يعزز النغمة العاجلة من التحذيرات.
صاغت الشركتان المنافسة التنافس بأوصاف أيديولوجية، حيث وصفت OpenAI المنافسة بين “الذكاء الاصطناعي الديمقراطي” الأمريكي والذكاء الاصطناعي “الاستبدادي والسلطوي” الصيني. يُقترح أن استعداد Deepseek لتقديم تعليمات حول “الأنشطة غير المشروعة والضارة مثل الاحتيال الهوياتي وسرقة الملكية الفكرية” يعكس نهجًا أخلاقيًا مختلفًا بشكل جوهري لتطوير الذكاء الاصطناعي بين الدولتين.
لا شك أن ظهور نموذج Deepseek R1 هو علامة فارقة في السباق العالمي للذكاء الاصطناعي، مما يظهر قدرات الصين المتزايدة على الرغم من سيطرات التصدير الأمريكية على الشرائح المتقدمة وتسلط الضوء على الحاجة إلى إجراءات حكومية منسقة للحفاظ على ريادة أمريكا في هذا المجال.
الآثار الأمنية الوطنية
تؤكد جميع الشركات الثلاث على مخاطر أمنية وطنية كبيرة ناشئة عن نماذج الذكاء الاصطناعي المتقدمة، على الرغم من أنهم ي_approach هذه المخاطر من زوايا مختلفة.
تركز تحذيرات OpenAI بشكل كبير على إمكانية تأثير الحزب الشيوعي الصيني على نماذج الذكاء الاصطناعي الصينية مثل Deepseek. تشدد الشركة على أن اللوائح الصينية قد تُجبر Deepseek على “تخريب البنية التحتية الحيوية والتطبيقات الحساسة” ومتطلبات مشاركة بيانات المستخدم مع الحكومة. يمكن أن يسمح هذا بمشاركة البيانات لتطوير أنظمة ذكاء اصطناعي أكثر تطورًا تتماشى مع مصالح الدولة الصينية، مما يخلق مشاكل فورية في الخصوصية وتهديدات أمنية طويلة الأمد.
تركز مخاوف Anthropic على مخاطر الأمان البيولوجي التي تطرحها القدرات المتقدمة للذكاء الاصطناعي، بغض النظر عن بلد المنشأ. في كشف مخيف بشكل خاص، كشفت Anthropic عن أن “نظامنا الأكثر حداثة، Claude 3.7 Sonnet، يظهر تحسينات مثيرة للقلق في قدرته على دعم جوانب تطوير الأسلحة البيولوجية”. هذا الاعتراف الصريح يسلط الضوء على الطبيعة المزدوجة لأنظمة الذكاء الاصطناعي المتقدمة والحاجة إلى حواجز قوية.
كما حددت Anthropic ما وصفته بـ “فجوة تنظيمية في قيود الشريحة الأمريكية” المتعلقة ب شريحة Nvidia H20. على الرغم من أن هذه الشريحة ت满ي متطلبات الأداء المخفضة للصين، إلا أنها “تتميز بإنتاج النص (‘عينة’) – وهو مكون أساسي من المنهجيات التعلمية المتقدمة الحالية للحصول على قدرات النموذج الحدية”. حثت Anthropic على “إجراء تنظيمي فوري” لمعالجة هذا النقص المحتمل في إطارات التحكم الحالية في التصدير.
في حين أن Google تعترف بمخاطر أمن الذكاء الاصطناعي، تدعو إلى نهج أكثر توازنًا في سيطرات التصدير. تحذر الشركة من أن قواعد تصدير الذكاء الاصطناعي الحالية “قد تضعف أهداف التنافس الاقتصادي … من خلال فرض عبء غير متناسب على مزودي خدمات السحابة الأمريكية”. بدلاً من ذلك، توصي Google بـ “سيطرات تصدير متوازنة تحمي الأمن القومي وتسمح بالتصدير الأمريكي والعمليات التجارية العالمية”.
تؤكد جميع الشركات الثلاث على الحاجة إلى تعزيز قدرات التقييم الحكومية. تدعو Anthropic بشكل خاص إلى بناء “قدرة الحكومة الفيدرالية على اختبار وتقييم نماذج الذكاء الاصطناعي القوية لتحديد القدرات الأمنية الوطنية” لفهم أفضل للاستخدامات الخاطئة من قبل الأعداء. سي涉ل هذا الحفاظ على معهد أمان الذكاء الاصطناعي وتوجيه NIST لتطوير تقييمات الأمان وتجميع فرق من الخبراء التأبين.
جدول المقارنة: OpenAI و Anthropic و Google
| مجال التركيز | OpenAI | Anthropic | |
| القلق الرئيسي | التهديدات السياسية والاقتصادية من الذكاء الاصطناعي الخاضع للسيطرة الحكومية | مخاطر الأمان البيولوجي من النماذج المتقدمة | الحفاظ على الابتكار مع توازن الأمن |
| موقف من Deepseek R1 | “مدعوم من الدولة ومراقب من الدولة ومتاح بحرية” مع مخاطر مشابهة لشركة Huawei | استعداد للاجابة على “أسئلة أسلحة البيولوجية” بنية خبيثة | تركيز أقل على Deepseek، أكثر على المنافسة الأوسع |
| أولوية الأمن القومي | تأثير الحزب الشيوعي الصيني ومخاطر أمان البيانات | مخاطر الأمان البيولوجي وثغرات تصدير الشريحة | سيطرات تصدير متوازنة لا تثقل كاهل مزودي الخدمات الأمريكية |
| النهج التنظيمي | شراكة طوعية مع الحكومة الفيدرالية؛ نقطة اتصال واحدة | تعزيز قدرة الحكومة على الاختبار؛ صياغة صارمة لسيطرات التصدير | “إطار فيدرالي من أجل الابتكار”؛ حوكمة وقواعد قطاعية |
| تركيز البنية التحتية | تبني الحكومة لأدوات الذكاء الاصطناعي الحدية | توسيع الطاقة (50 غيغاواط بحلول 2027) لتطوير الذكاء الاصطناعي | عمل مشترك على الطاقة واصلاح الترخيص |
| التوصية الفريدة | إطار تصدير متدرج يعزز “الذكاء الاصطناعي الديمقراطي” | إجراء تنظيمي فوري بشأن شريحة Nvidia H20 المصدرة إلى الصين | وصول الصناعة إلى بيانات مفتوحة للتعلم العادل |
استراتيجيات التنافس الاقتصادي
تظهر متطلبات البنية التحتية، وخاصة احتياجات الطاقة، كعامل حاسم في الحفاظ على ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. حذرت Anthropic من أن “تدريب نموذج الذكاء الاصطناعي الحدي في عام 2027 سيستلزم مجموعات حوسبة متصلة تستهلك حوالي خمسة غيغاواط من الطاقة”. اقترحت هدفًا وطنيًا طموحًا لإنشاء 50 غيغاواط إضافية من الطاقة المخصصة خصيصًا لصناعة الذكاء الاصطناعي بحلول عام 2027، إلى جانب إجراءات لتسهيل الترخيص وتسريع موافقة خطوط النقل.
صاغت OpenAI مرة أخرى المنافسة باعتبارها منافسة أيديولوجية بين “الذكاء الاصطناعي الديمقراطي” و “الذكاء الاصطناعي الاستبدادي” الذي بنته الصين. يسلط رؤيتها لل “الذكاء الاصطناعي الديمقراطي” الضوء على “سوق حرة تعزز المنافسة الحرة والمنصفة” و “حرية المطورين والمستخدمين للعمل مع أدواتنا وتوجيهها حسب الرغبة”، داخل حواجز أمان مناسبة.
قدمت جميع الشركات الثلاث توصيات مفصلة للحفاظ على ريادة الولايات المتحدة. شددت Anthropic على أهمية “تعزيز التنافس الاقتصادي الأمريكي” وضمان أن “المنافع الاقتصادية التي يولدها الذكاء الاصطناعي تنتشر على نطاق واسع في المجتمع”. دعت إلى “تأمين وتوسيع إمدادات الطاقة الأمريكية” كشرط مسبق حاسم للحفاظ على تطوير الذكاء الاصطناعي داخل الحدود الأمريكية، محذرة من أن قيود الطاقة قد تؤدي إلى إجبار المطورين على الانتقال إلى الخارج.
دعت Google إلى إجراءات حاسمة “لتحفيز تطوير الذكاء الاصطناعي الأمريكي”، مع التركيز على ثلاثة مجالات رئيسية: الاستثمار في الذكاء الاصطناعي، وتسريع تبني الحكومة للذكاء الاصطناعي، وتعزيز نهج من أجل الابتكار على الصعيد الدولي. شددت الشركة على الحاجة إلى “عمل منسق بين الحكومة الفيدرالية والولائية والمحلية والصناعة بشأن سياسات مثل إصلاح الترخيص والنقل لمواجهة احتياجات الطاقة المتزايدة” إلى جانب “سيطرات تصدير متوازنة” و “استمرار التمويل لأبحاث وتطوير الذكاء الاصطناعي التأسيسية”.
شددت Google بشكل خاص على الحاجة إلى “إطار فيدرالي من أجل الابتكار في مجال الذكاء الاصطناعي” الذي يمنع تفتيت اللوائح على مستوى الولايات في حين يضمن وصول الصناعة إلى البيانات المفتوحة لتدريب النماذج. تسلط نهجها الضوء على “الحوكمة القطاعية والقائمة على المخاطر والمتخصصة في مجال الذكاء الاصطناعي” بدلاً من التنظيم الواسع.
التوصيات التنظيمية
تظهر النهج الفيدرالي الموحد للتنظيم كموضوع متسق عبر جميع العروض. حذرت OpenAI من “المنافسة التنظيمية التي تتم إنشاؤها من قبل الولايات الأمريكية الفردية” واقترحت “نهجًا شاملاً يسمح بالشراكة الطوعية بين الحكومة الفيدرالية والقطاع الخاص”. يتصور إطارها الإشراف من قبل وزارة التجارة، ربما من خلال معهد أمان الذكاء الاصطناعي الأمريكي المُعاد تصوره، لتوفير نقطة اتصال واحدة للشركات لتفاعلها مع الحكومة بشأن مخاطر الأمان.
فيما يتعلق بسيطرات التصدير، دعت OpenAI إلى إطار متدرج مصمم لتعزيز تبني الذكاء الاصطناعي الأمريكي في الدول المتوافقة مع القيم الديمقراطية في حين تقيد الوصول للصين وحلفائها. دعت Anthropic بشكل مماثل إلى “تجديد سيطرات التصدير لتوسيع ريادة الولايات المتحدة في مجال الذكاء الاصطناعي” و “تحسين أمان مختبرات الحدود الأمريكية بشكل كبير” من خلال تعاون محسّن مع الوكالات الاستخباراتية.
تميزت الاعتبارات المتعلقة بالحقوق الفكرية وحقوق النشر في توصيات OpenAI و Google. شددت OpenAI على أهمية الحفاظ على مبادئ الاستخدام العادل لتمكين نماذج الذكاء الاصطناعي من التعلم من المواد المحمية بحقوق النشر دون تقويض القيمة التجارية للأعمال الحالية. حذرت من أن قواعد حقوق النشر المقيدة بشكل مفرط يمكن أن تضعف الشركات الأمريكية للذكاء الاصطناعي مقارنة بالمنافسين الصينيين. كما دعت Google إلى “قواعد حقوق النشر المتوازنة، مثل الاستخدام العادل واستثناءات التعدين النصي والبيانات” التي وصفتها بأنها “حاسمة لتمكين أنظمة الذكاء الاصطناعي من التعلم من المعرفة السابقة والبيانات المتاحة للجمهور”.
شددت جميع الشركات الثلاث على الحاجة إلى تسريع تبني الحكومة لتكنولوجيا الذكاء الاصطناعي. دعت OpenAI إلى “استراتيجية حكومية طموحة لتبني الذكاء الاصطناعي” لتحديث العمليات الفيدرالية وتنفيذ أدوات الذكاء الاصطناعي الحدية بأمان. أوصت بإزالة العوائق أمام تبني الذكاء الاصطناعي، بما في ذلك عمليات الاعتماد القديمة مثل FedRAMP، والسلطات الاختبارية المقيدة، وطرق الشراء المرنة.
قترحت Google “تسهيل الممارسات القديمة للتأشير والتصديق والشراء في الحكومة” لتعجيل تبني الذكاء الاصطناعي. شددت على أهمية قواعد الشراء العامة الفعالة وتحسين القدرة على التشغيل البيني في حلول السحابة الحكومية لتسهيل الابتكار.
تُقدم العروض الشاملة من هذه الشركات الرائدة رسالة واضحة: الحفاظ على ريادة أمريكا في مجال الذكاء الاصطناعي يتطلب إجراءات حكومية منسقة عبر عدة جبهات – من تطوير البنية التحتية والإطارات التنظيمية إلى حماية الأمن القومي وتحديث الحكومة – خاصة مع تصاعد المنافسة من الصين.












