قاده التفكير
الذكاء الاصطناعي يكتب التعليمات البرمجية، ولكن هل تستطيع البنية التحتية الخاصة بك مواكبة ذلك؟

نعيش واحدة من أغرب التقلبات في تاريخ هندسة البرمجيات. لعقود، كان الهدف هو الحتمية؛ بناء أنظمة تتصرف بنفس الطريقة دائمًا. الآن، نُضيف عناصر ذكاء اصطناعي احتمالية فوق هذا الأساس، ونُولّد برمجيات بسرعة هائلة. بصراحة؟ لم تُبنَ معظم بنيتنا التحتية لهذا الغرض.
لقد أمضيتُ سنواتٍ في العمل على أدوات DevOps، والمشاركة في تأليف الأبحاث، ومساعدة فرق الهندسة على تحقيق أعلى مستويات الأداء. ما أراه الآن في التطوير المُدار بالذكاء الاصطناعي ليس مجرد تطور، بل يكشف كل ثغرة في سير عملنا الحالي.
المشكلة موجودة بالفعل
A دراسة GitClear لعام 2025 وجد أن ما يقرب من 7% من الالتزامات تحتوي الآن على كود تم إنشاؤه بواسطة الذكاء الاصطناعي. تحليل سابق كشفت دراسة حديثة أجريت على 153 مليون سطر من التعليمات البرمجية المعدلة عن التكلفة: تضاعف "تغيير التعليمات البرمجية" - إعادة كتابة التعليمات البرمجية أو حذفها في غضون أسبوعين - بحلول عام 2024 مقارنة بخطوط الأساس قبل الذكاء الاصطناعي.
وتبدو التداعيات الأمنية واضحة بنفس القدر. التحليل الأخير من بين 80 مهمة برمجة مُنظّمة عبر أكثر من 100 نموذج لغوي كبير، وُجد أن الكود المُولّد بالذكاء الاصطناعي يُدخل ثغرات أمنية في 45% من الحالات. ما هو التأثير الحقيقي؟ واحد من كل خمسة من مسؤولي أمن المعلومات يمكنك الآن الإبلاغ عن الحوادث الكبرى الناجمة بشكل مباشر عن الكود الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
إن مكاسب السرعة حقيقية، ولكن تكاليف الاستقرار حقيقية أيضًا.
تأثير التضخيم
أحد الأشياء التي تعلمتها هو أن الذكاء الاصطناعي يُعزز كل شيء. إذا كانت لديك ممارسات جيدة، فإن الذكاء الاصطناعي يُحسّنها ويُسرّعها. إذا كانت عملياتك مُعقدة، فإن الذكاء الاصطناعي يُفاقمها أيضًا. وهذا يعكس نمطًا يظهر عامًا بعد عام في DORAتقارير DevOps السنوية: قلة المتغيرات تُفضي إلى نتائج أفضل. الفرق الناجحة تُوحّد أنظمة تشغيل ولغات برمجة وطرق عمل أقل. إنها تُقلّل التعقيد عمدًا.
يتبع وكلاء الذكاء الاصطناعي النمط نفسه. امنحهم بيئةً متسقةً حيث يُفترض أن يكون إصدار بايثون هو نفسه على أجهزة كل مطور، حيث تُقفل التبعيات وتُتبّع، وسيتفوقون. أما إذا أجبرتهم على التنقل بين 17 تكوينًا مختلفًا، لكل منها اختلافات دقيقة، فستُحرق الرموز لاكتشاف غرابة البيئة بدلًا من حل المشكلات الفعلية.
مفارقة الحتمية
هذا يُثير توترًا مُثيرًا للاهتمام. لسنوات، سعت علوم الحاسوب إلى الحتمية كهدف نهائي. أما الآن، فنحن نُشغّل أحمال عمل احتمالية، ونماذج ذكاء اصطناعي لا تضمن نفس النتيجة مرتين، على أنظمة مُصممة للتنبؤ.
إجابتي؟ حافظ على أكبر قدر ممكن من بنية النظام حتمي. إذا تمكنت من الحفاظ على 80% من بنيتك التحتية على مستوى حتمي، فسيكون لدى وكلاء الذكاء الاصطناعي لديك متغيرات أقل لإدارتها. لن يقضوا نوافذ السياق في "لماذا لم يتم تثبيت هذه التبعية؟" أو "دعني أجرب أمر البناء هذا مرة أخرى". بل يركزون على العمل الفعلي الذي تطلب منهم القيام به.
فكر في الأمر: عندما يحاول وكيل ترجمة شيء ما وتفشل الروابط الأصلية لعدم تثبيت ImageMagick، فهذا تحويلة مكلفة. إذا كانت بيئتك تتضمن بالفعل كل ما يلزم (المترجمات والمكتبات وشجرة التبعيات الكاملة وصولًا إلى libc)، فسيعمل الوكيل بسلاسة. لا تصحيح أخطاء، لا تجربة وخطأ، فقط التقدم.
المواصفات والتحقق هي المفتاح
ما أصبح واضحًا هو أن التطوير المُدار بالذكاء الاصطناعي يُجبرنا على التفكير مليًا في مهارتين لم تُقدَّرا حق قدرها تاريخيًا: المواصفات والتحقق. عليك توضيح ما تبنيه بالفعل، وتحتاج إلى طرق فعّالة للتحقق من فهمك له.
لاحظتُ أمرًا مثيرًا للاهتمام: غالبًا ما يكون الأشخاص ذوو الخلفيات في إدارة المنتجات أو هندسة المنتجات أكثر نجاحًا مع وكلاء الذكاء الاصطناعي حاليًا. فهم مُدرَّبون بالفعل على التفكير من منظور المتطلبات ومعايير النجاح والتنازلات. ويشعرون بالراحة عند سؤالهم "لماذا اتخذت هذا القرار؟"، ثم يُعدِّلون قراراتهم بناءً على ذلك.
لطالما كان التحقق من صحة البرمجيات، أي معرفة ما إذا كان الشيء صحيحًا بالفعل، أصعب مشكلة في هندسة البرمجيات. وقد تم التقليل من أهمية ضمان الجودة بشكل كبير لعقود، ومع ذلك، فهو الجزء الأكثر تحديًا: تحديد ما إذا كان البرنامج يلبي احتياجات المستخدم الفعلية. الذكاء الاصطناعي لا يحل هذه المشكلة، بل يزيدها أهمية، لأنك الآن تُتحقق من صحة المخرجات الاحتمالية مقابل المتطلبات الحتمية.
الثقة، ولكن التحقق (والتحكم)
هناك رأيٌ بدأتُ أتقبله: يجب أن نفترض أن الكود المُولّد بواسطة الذكاء الاصطناعي عدائي حتى يثبت العكس. ليس لأن الذكاء الاصطناعي خبيث، بل لأننا ببساطة لا نعرف. لا يمكننا تدقيق كل سطر بينما يُولّد الوكلاء آلاف الأسطر يوميًا.
هذا يعني تغيير نقاط التحكم. إذا لم نتمكن من ضبط كل شيء أثناء التطوير، فسنحتاج إلى ضوابط أقوى أثناء التشغيل. يحتاج المشغلون، ومهندسو أمن البرمجيات، وفرق المنصات، وكل من يتولى مسؤولية الإنتاج، إلى رؤية أفضل لما يجري، وتتبع كامل للاعتماديات، ومصدر واضح لكل منتج.
هنا تبرز أهمية إمكانية إعادة الإنتاج. عندما تتمكن رياضيًا من إثبات أن المنتج الذي اختبرته محليًا مطابق لما يعمل في بيئة الإنتاج - نفس المدخلات، نفس المخرجات، نفس إغلاق التبعيات - يمكنك البدء باتخاذ قرارات ذكية. ربما لا تحتاج إلى إعادة تشغيل اختبارات الوحدات في بيئة التطوير المستمر إذا كنت قد أجريتها محليًا بالفعل ولم يتغير شيء. ربما يمكنك ربط نطاق الاختبار بتغييرات الكود وتخطي مجموعات الاختبارات غير ذات الصلة.
ما يأتي بعد ذلك
نحن الآن في نقطة تحول. الفرق التي كانت تمتلك بالفعل ممارسات جيدة تشهد الآن مكاسب إنتاجية هائلة بفضل الذكاء الاصطناعي. الفرق التي كانت تعاني، أصبحت تعاني الآن بشكل أسرع.
يجب بناء البنية التحتية التي تُشغّل التطوير المُدار بالذكاء الاصطناعي لضمان إمكانية إعادة الإنتاج من البداية. لا أن تُضاف إليها أدوات المسح والتدقيق لاحقًا، بل أن تُدمج في آلية عمل المطورين منذ البداية. عندما تكون بيئة التطوير متطابقة على نظامي ماك ولينكس، وعندما يتم تتبّع كل تبعية وتأمينها، وعندما يكون لديك مصدر كامل لكل قطعة أثرية، تصبح وكلاء الذكاء الاصطناعي مُضاعفات قوة بدلًا من أن تكون مُولّدات فوضى.
إليكم نصيحتي الأكبر للفرق التي تحاول تحقيق النجاح في عصر الذكاء الاصطناعي:
-
وحدِّ معاييرك بلا هوادة. كلما قلّت المتغيرات، ارتفع الأداء. ثبّت حزمة تقنياتك، وطبّق بيئات متسقة على جميع المنصات، وتجنّب أي انحراف في التكوين قبل أن يُفاقمها الذكاء الاصطناعي. إذا تسببت عدم تطابق إصدارات بايثون في مشاكل الآن، فستُسبب مشاكل أكبر بعشر مرات عندما يُولّد الذكاء الاصطناعي الكود على نطاق واسع.
-
أدمج التحقق في سير عملك، وليس في نهايته. مع توليد الذكاء الاصطناعي للأكواد البرمجية أسرع من قدرة البشر على مراجعتها، لا يمكنك الاعتماد على المراجعة اليدوية للكود فقط. طبّق اختبارات آلية لا تتحقق فقط من تشغيل الكود، بل من أنه يُلبّي المتطلبات الفعلية. اجعل خط أنابيب CI/CD شبكة أمان لك، مع بوابات قوية وقت التشغيل لعمليات النشر في الإنتاج.
-
استثمر في إمكانية إعادة الإنتاج كبنية تحتية. اعتبر اتساق البيئة أمرًا بالغ الأهمية في البنية التحتية. عندما تتمكن رياضيًا من إثبات تطابق بيئتك المحلية وبيئة التكامل المستمر وبيئة الإنتاج، فإنك تتخلص من فئة كاملة من مشاكل "العمل على جهازي". هذا الأساس الحتمي هو ما يسمح لك بتوزيع أحمال عمل الذكاء الاصطناعي الاحتمالية بأمان.
السؤال ليس ما إذا كان الذكاء الاصطناعي سيكتب معظم برمجياتنا، فهو يفعل ذلك بالفعل لدى العديد من الفرق. السؤال هو ما إذا كانت بنيتنا التحتية قادرة على مواكبة ذلك.








