الذكاء الاصطناعي
هل الذكاء الاصطناعي "المستيقظ" موجود بالفعل؟

أثار الحظر الأخير الذي فرضه الرئيس دونالد ترامب على استخدام "الذكاء الاصطناعي الواعي" في عمليات البيت الأبيض جدلاً واسعاً وتساؤلات حول طبيعة الذكاء الاصطناعي. ستتناول هذه المقالة معنى "الذكاء الاصطناعي الواعي"، وتبحث فيما إذا كانت نماذج الذكاء الاصطناعي الرئيسية تُظهر بالفعل مثل هذه التحيزات، وتستكشف الآثار بعيدة المدى لهذا الأمر التنفيذي على تطوير الذكاء الاصطناعي ونشره في الحكومة والقطاع الصناعي.
الأمر التنفيذي للبيت الأبيض ومفهوم "الذكاء الاصطناعي المستيقظ"
في 23 يوليو 2025، وقع الرئيس ترامب على أمر تنفيذي بعنوان "منع الذكاء الاصطناعي المستيقظ في الحكومة الفيدرالية"كجزء من خطة عمل أوسع للذكاء الاصطناعي. صحيفة وقائع البيت الأبيض تنص على أن الرئيس ترامب "يحمي" الأمريكيين من أنظمة الذكاء الاصطناعي "المتحيزة" التي تضحي بالدقة لأغراض أيديولوجية.
يحظر الأمر على الوكالات الفيدرالية التعاقد مع شركات التكنولوجيا التي تشغيل روبوتات الدردشة الذكية التي تُظهر تحيزًا حزبيًايُعرّف الإجراء القوى التي تُشكّل "تهديدًا وجوديًا للذكاء الاصطناعي الموثوق"، والتي يُعرّفها الإجراء بأنها التنوع والمساواة والشمول، ونظرية العرق النقدية، و"التحول الجنسي"، وهي قوى يقول الأمر إنها تُشكّل "تهديدًا وجوديًا للذكاء الاصطناعي الموثوق". تُمثّل هذه المرة الأولى التي تُحاول فيها الحكومة الأمريكية صراحةً تشكيل السلوك الأيديولوجي لأنظمة الذكاء الاصطناعي من خلال سياسات المشتريات الفيدرالية.
يبدو أن التركيز منصبٌّ كليًا على روبوتات الدردشة والذكاء الاصطناعي المُولِّد. من الصعب تحديد كيف يُمكن لذكاء اصطناعي أن... يراقب سحابة المؤسسة or يستخرج البيانات من ملفات PDF يمكن اعتبارها "مستيقظة".
تعريف "الذكاء الاصطناعي المستيقظ" من منظور الإدارة
في حين أن مصطلح "الذكاء الاصطناعي المستيقظ" نفسه لم يُعرّف صراحةً في النص القانوني للأمر التنفيذي، إلا أن البيت الأبيض ساوى بينه وبين مخرجات الذكاء الاصطناعي التي تدعم مفاهيم مثل التنوع والمساواة والشمول (DEI) على حساب الدقة. وقد نص الأمر على أن أي شركة ذكاء اصطناعي تتعامل مع الحكومة الفيدرالية يجب أن تكون خالية من...العقائد الأيديولوجية مثل DEI".
يشير الأمر التنفيذي الجديد إلى حادثة حيث "قام أحد نماذج الذكاء الاصطناعي الرئيسية بتغيير عرق أو جنس الشخصيات التاريخية"، عندما مولد الصور بالذكاء الاصطناعي من جوجل في العام الماضي، نُشرت صور تُظهر الآباء المؤسسين للولايات المتحدة والجنود النازيين كسود. وقد استشهد حلفاء ترامب بهذه الأمثلة كدليل على التحيز المتعمد المُبرمج في أنظمة الذكاء الاصطناعي.
الإدارة تعريف المحتوى المحظور يشمل ذلك قمع أو تشويه المعلومات الواقعية حول العرق أو الجنس، والتلاعب بالتمثيل العنصري أو الجنسي في مخرجات النموذج، ودمج مفاهيم مثل نظرية العرق النقدية، والتحول الجنسي، والتحيز اللاواعي، والتقاطعية، والعنصرية المنهجية.
تحيز الذكاء الاصطناعي و"الوعي"
يتفق الخبراء عمومًا على أن نماذج الذكاء الاصطناعي لا تمتلك معتقدات أو تحيزات بالمعنى البشري، ولكنها قد تُظهر ميولًا منهجية متأثرة ببيانات تدريبها وملاحظاتها وتعليماتها. ويجادل البعض بأن هناك...لا يوجد شيء مثل الذكاء الاصطناعي المستيقظالذكاء الاصطناعي الوحيد القادر على التمييز أو الذي يناسب الجميع. تُدرّب نماذج الذكاء الاصطناعي على مجموعات بيانات ضخمة مُستقاة من الإنترنت، والتي تحتوي بطبيعتها على التحيزات والتناقضات الموجودة في اللغة البشرية والمحتوى الإلكتروني.
إن مفهوم "الاستيقاظ" في حد ذاته هو مفهوم شخصي ومثير للجدل، حيث نشأ في المجتمع الأسود للدلالة على الوعي بالظلم العنصري، ولكن المحافظين استخدموه بعد ذلك كمصطلح مهين للمُثُل التقدمية.
تحقيق الموضوعية المطلقة في الذكاء الاصطناعي يمكن اعتباره ضربًا من الخيال، فاللغة بحد ذاتها ليست محايدة أبدًا. يكمن التحدي في التمييز بين الجهود المشروعة للحد من التحيز وما تصفه الإدارة بالتلاعب الأيديولوجي.
شركات التكنولوجيا والتوافق السياسي والمخاوف البيئية
الموقف المتغير لشركات التكنولوجيا الكبرى
بعد أن كان يُنظر إليها سابقًا على أنها تتبنى التنوع والمساواة والشمول (DEI) و"الرأسمالية المستيقظة"، بدأت العديد من الشركات الكبرى في قطاع التكنولوجيا الأمريكي تبتعد عن هذه اللغة، لا سيما مع عودة ترامب إلى البيت الأبيض. ميتا وأمازون إعادة تقييم مبادرات التنوع ردًا على التحولات السياسية والقانونية في الولايات المتحدة
قدمت شركات التكنولوجيا الكبرى التزامات مالية كبيرة لإدارة ترامب. جوجل ومايكروسوفت كل واحد ساهم بمليون دولار إلى صندوق تنصيب دونالد ترامب، لينضم إلى صفوف شركات التكنولوجيا البارزة الأخرى. العديد من أكبر شركات التكنولوجيا في العالم حضر حفل تنصيب الرئيس ترامب، بما في ذلك قادة أمازون، وجوجل، وميتا، وتيسلا، وتيك توك، وOpenAI.
يتضح التحول في وضع الشركات من خلال تغييرات السياسات. أعلنت شركة جوجل، التي لديها عقود حوسبة سحابية مع وكالات فيدرالية، في فبراير أنها ستُجري تقاعد أهداف التوظيف الطموحة تنفيذًا لأوامر ترامب التنفيذية. ومع ذلك، لا تزال بعض الشركات ملتزمة بالتزاماتها، بينما واصلت أبل ومايكروسوفت أكدوا التزامهم بـ DEI.
التكلفة البيئية للذكاء الاصطناعي و"التضليل البيئي"
يُشكّل الطلب على الذكاء الاصطناعي تحديات بيئية كبيرة لشركات التكنولوجيا. فالقدرة الحسابية اللازمة لتدريب نماذج الذكاء الاصطناعي التوليدية، التي غالبًا ما تحتوي على مليارات المعلمات، قد تُشكّل تحديًا كبيرًا. تتطلب كمية مذهلة من الكهرباءمما يؤدي إلى زيادة انبعاثات ثاني أكسيد الكربون والضغط على الشبكة الكهربائية. مراكز البيانات وشبكات نقل البيانات مسؤولة بالفعل عن 1% من انبعاثات الغازات المسببة للاحتباس الحراري المرتبطة بالطاقةمع توقع مضاعفة استخدام الكهرباء في مراكز البيانات بحلول عام 2026، ومن المقرر أن تولد الذكاء الاصطناعي زيادة بنسبة 160% في الطلب على طاقة مراكز البيانات.
ولعلّ أكثر ما يُضرّ بأيّ ادعاءاتٍ بالوعي البيئيّ هو انخراط شركات الذكاء الاصطناعيّ الكبرى في ممارساتٍ مُمنهجةٍ للتضليل البيئيّ، ممّا يُقوّض مصداقيّتها في مجال المسؤولية الاجتماعية. قد تُواجه شركاتٌ مثل ميتا وجوجل ومايكروسوفت وآبل خطرًا داهمًا. انبعاث 7.623 مرة من الغازات المسببة للاحتباس الحراري مما يعترفون به. أمازون ومايكروسوفت وميتا هي إخفاء بصماتهم الكربونية الفعلية، شراء الاعتمادات المرتبطة باستهلاك الكهرباء والتي تمحو بشكل غير دقيق ملايين الأطنان من الانبعاثات المسببة للاحتباس الحراري من حسابات الكربون الخاصة بهم.
يتناقض هذا الخداع البيئي بشكل مباشر مع مبادئ الوعي الاجتماعي والمسؤولية التي يُفترض أن تُمثلها أيديولوجية "اليقظة". أعلنت مايكروسوفت مؤخرًا حصل على 3.5 مليون رصيد كربون في صفقة مع شركة Re.green، تهدف إلى تعويض انبعاثات الكربون المتزايدة الناتجة عن الذكاء الاصطناعي بدلاً من خفض الانبعاثات الفعلية. تكشف هذه الممارسات كيف تُعطي شركات الذكاء الاصطناعي الأولوية للربح والنمو على حساب الرعاية البيئية الحقيقية، مما يجعل ادعاءات القيم التقدمية تبدو واهية.
التأثيرات المستقبلية على تطوير الذكاء الاصطناعي ونشره
التحولات في المشتريات الفيدرالية والعلاقات مع الموردين
ينص الأمر التنفيذي على أن تلتزم نماذج اللغات الكبيرة (LLMs) التي تشتريها الوكالات الفيدرالية بمبادئ "البحث عن الحقيقة" و"الحياد الأيديولوجي". وسيُطلب من البائعين الإفصاح عن مطالبات نظام LLM والمواصفات والتقييمات لإثبات الامتثال، على الرغم من عدم ضرورة تقديم بيانات تقنية حساسة.
قد يؤدي عدم الامتثال إلى إنهاء العقد، مع تحميل البائع تكاليف إيقاف التشغيل. وهذا يُدخل عقبة تنظيمية جديدة ومهمة أمام شركات التكنولوجيا التي تسعى للحصول على عقود حكومية. وكما أشار باحثو بروكينجز، فإن هذا التوجيه يُمارس ضغطًا شديدًا على الشركات لممارسة الرقابة الذاتية للحفاظ على رضا الحكومة واستمرار تدفق الأموال، مما يُجبر القطاع فعليًا على الدخول في معركة ثقافية.
المخاطر المالية كبيرة. من المتوقع أن تشهد صناعة الذكاء الاصطناعي بقيمة 2 تريليون دولار بحلول عام 2030تُمثّل عقود الذكاء الاصطناعي الفيدرالية مليارات الدولارات من الإيرادات المُحتملة لشركات التكنولوجيا. وهذا يُولّد حوافز قوية للامتثال، بغض النظر عن وجهات نظر الشركات الداخلية بشأن مبادئ التنوع والشمول.
التأثير على ابتكار الذكاء الاصطناعي والتخفيف من التحيز
أعرب المدافعون عن الحقوق المدنية عن قلقهم من أن هذا الأمر سيجبر صناعة التكنولوجيا على التخلي عن سنوات من الجهود المخصصة لمكافحة التحيزات العنصرية والجنسانية المضمنة في أنظمة الذكاء الاصطناعي.
ويحذر الخبراء من احتمال "تأثير مخيف" على المطورينقد يشعر بعض المستخدمين بضغط لمواءمة مخرجات النماذج ومجموعات البيانات مع خطاب البيت الأبيض لتأمين التمويل الفيدرالي، مما قد يُبطئ الابتكار. ويتجاوز التحدي التنفيذ التقني ليشمل أسئلة جوهرية حول أولويات تطوير الذكاء الاصطناعي.
يرى بعض الخبراء أن فكرة تحقيق "الحياد الأيديولوجي" الكامل في مجال الذكاء الاصطناعي غير قابلة للتطبيق، إذ إن الموضوعية السياسية والواقعية قد تكون ذاتية للغاية. ويتمثل القلق الأوسع في أن التدخل الحكومي في تطوير الذكاء الاصطناعي قد يُضعف تنوع وجهات النظر والمناهج التي قادت الابتكار التكنولوجي تاريخيًا.
إرساء سابقة في مجال مراقبة الأيديولوجية الخوارزمية
يُرسي هذا الأمر التنفيذي سابقةً للتدخل الحكومي الأمريكي المباشر في تشكيل المخرجات الأيديولوجية للذكاء الاصطناعي، مُقارنًا بجهود الصين لضمان أن تعكس أدوات الذكاء الاصطناعي قيم الحزب الشيوعي الحاكم. ويجادل المنتقدون بأن الأمر، بتعريفه المعتقدات السياسية الليبرالية، بل وحتى فئات معينة من الناس، بأنها "متحيزة بطبيعتها"، يُهدد حرية التعبير وقد ينتهك التعديل الأول.
هناك مخاوف من أن شركات الذكاء الاصطناعي قد تعمل بشكل استباقي على إعادة صياغة بيانات التدريب الخاصة بها لتتوافق مع التوجيه.
إن سياسة إدارة ترامب الأوسع نطاقاخطة عمل الذكاء الاصطناعييشير هذا إلى تحول في الأولويات الوطنية نحو بناء البنية التحتية للذكاء الاصطناعي، وتقليص البيروقراطية، وتعزيز الأمن القومي، ربما على حساب معالجة المخاطر المجتمعية. وتظل فعالية هذا النظام على المدى الطويل في تحقيق أهدافه المعلنة، وتداعياته على الإدارات المستقبلية التي تحاول السيطرة على "أيديولوجية" الذكاء الاصطناعي، مجالًا رئيسيًا للرصد.
خاتمة
يُسلّط مفهوم "الذكاء الاصطناعي المُستَقِرّ"، كما يُعرّفه البيت الأبيض، الضوء على توترات عميقة بين التقدم التكنولوجي والأيديولوجية السياسية والقيم المجتمعية. فبينما تعكس نماذج الذكاء الاصطناعي تحيزات مُطوّريها البشريين وبيانات تدريبهم، فإن السعي لتحقيق "الحياد الأيديولوجي" من خلال الإجراءات التنفيذية يثير تساؤلات مُعقّدة حول حرية التعبير والابتكار والتأثير الحكومي. ولا شك أن مستقبل تطوير الذكاء الاصطناعي سيتشكّل من خلال كيفية تعامل الصناعة والسياسات مع هذه التعريفات المُثيرة للجدل والمتطورة.












