Connect with us

อินเทอร์เน็ตจะยังคงล่มใน 2026 และ AI เป็นส่วนหนึ่งของสาเหตุ

ผู้นำทางความคิด

อินเทอร์เน็ตจะยังคงล่มใน 2026 และ AI เป็นส่วนหนึ่งของสาเหตุ

mm

หาก 2025 รู้สึกเหมือนปีที่อินเทอร์เน็ตล่ม 2026 ก็จะเหมือนกัน ออกาจ、เหตุการณ์ และความล้มเหลวในการผลิตไม่ใช่เหตุการณ์ที่หายากที่ทำให้ทีมวิศวกรตกใจ พวกมันกลายเป็นภาวะพื้นฐานของการพัฒนาซอฟต์แวร์สมัยใหม่

ข้อมูลจากเครื่องมือติดตามการหยุดทำงาน เช่น IsDown.app แสดงให้เห็นว่าเหตุการณ์ เพิ่มขึ้นอย่างต่อเนื่องตั้งแต่ปี 2022 โดยไม่มีการเปลี่ยนแปลงที่มีความหมาย และการสำรวจอิสระยังสนับสนุนสิ่งนี้ การสำรวจทั่วโลกของ CIO, CISO และวิศวกรเครือข่ายมากกว่า 1,000 คนพบว่า 84% ขององค์กรรายงานการหยุดทำงานที่เพิ่มขึ้น โดยมากกว่าครึ่งหนึ่งเห็นการเพิ่มขึ้น 10-24% ในช่วงสองปี

ThousandEyes สังเกตเห็นความผันผวนที่คล้ายกัน โดยมีการเปลี่ยนแปลงอย่างรวดเร็วจากเดือนต่อเดือนที่ชี้ให้เห็นว่ามีความกดดันที่ยังคงอยู่ ไม่ใช่ความล้มเหลวที่แยกออกจากกัน สิ่งที่ไม่สบายใจคือระบบที่เราพึ่งพาทุกวันกลายเป็นระบบที่อ่อนแอลง ไม่ใช่ระบบที่มีความทนทานมากขึ้น แม้ว่าจะมีการลงทุนหลายปีในโครงสร้างพื้นฐานบนคลาวด์ ความสามารถในการสังเกตเห็น และการทำงานอัตโนมัติ

เมื่อแพลตฟอร์มหลักหยุดทำงาน พื้นที่ที่ได้รับผลกระทบจะเกิดขึ้นทันที การชำระเงินล้มเหลว แอปของผู้บริโภคล่ม เครื่องมือภายในหยุดทำงาน และโซ่อุปทานทั้งหมดจะรู้สึกถึงผลกระทบด้วย การประมาณการการสูญเสียทางเศรษฐกิจที่มักจะเข้าถึงหลายพันล้านดอลลาร์ ตัวอย่างเช่น Amazon ซึ่งเป็นผู้นำในอีคอมเมิร์ซ ระบุว่าการเพิ่มขึ้นของเหตุการณ์ รวมถึงการหยุดทำงานของเว็บไซต์และแอปช้อปปิ้งเกือบ 6 ชั่วโมง ในเดือนนี้ ถึงการเปลี่ยนแปลงที่ได้รับการช่วยเหลือจาก AI ซึ่งทำให้บริษัทต้องจัดประชุมวิศวกรเพื่อตรวจสอบการเพิ่มขึ้นของเหตุการณ์

หลังการหยุดทำงานครั้งใหญ่ การสนทนาจะเกิดขึ้นซ้ำๆ เกี่ยวกับการทำซ้ำ การใช้หลายคลาวด์ และความเสี่ยงในการกระจายผู้ให้บริการ สิ่งเหล่านี้มีความสำคัญ แต่ก็พลาดภาพรวมใหญ่

หากผู้ให้บริการโครงสร้างพื้นฐานไม่ได้แย่ลง และเครื่องมือยังคงทันสมัย ทำไมเหตุการณ์จึงยังคงเพิ่มขึ้น?

AI เปลี่ยนแปลงวิธีการจัดส่งซอฟต์แวร์

หนึ่งในความเปลี่ยนแปลงที่ใหญ่ที่สุดที่เกิดขึ้นพร้อมกับการเพิ่มขึ้นของเหตุการณ์คือการแพร่กระจายของการพัฒนาซอฟต์แวร์ที่ได้รับการช่วยเหลือจาก AI เครื่องมือเขียนโค้ด AI ไม่ใช่สิ่งที่ทดลองอีกต่อไป แต่ถูกฝังอยู่ในกระบวนการทำงานประจำวัน ไม่ว่าจะใน IDE หรือ CLI ทำให้ง่ายต่อการสร้างโค้ดด้วย AI

ทั่วทั้งอุตสาหกรรม การขอ pull request ต่อผู้พัฒนามีการเพิ่มขึ้นอย่างมีนัยสำคัญ โดยมีการวิเคราะห์บางอย่างที่แสดงให้เห็นว่ามีการเพิ่มขึ้น 20% ต่อปี เมื่อ AI เร่งการผลิต ในเวลาเดียวกัน เหตุการณ์ต่อการขอ pull request เพิ่มขึ้นเร็วขึ้น เพิ่มขึ้นมากกว่า 23%

สิ่งนี้ไม่ใช่หลักฐานการก่อให้เกิดผล แต่ก็ยากที่จะเพิกเฉย AI ไม่เพียงแต่ทำให้เขียนโค้ดเร็วขึ้น แต่ยังเปลี่ยนแปลงรูปทรงของความเสี่ยง ด้วยตอนนี้ ทีมส่วนใหญ่พบกับกระแสข้อผิดพลาดที่สม่ำเสมอในโค้ดที่ได้รับการช่วยเหลือจาก AI ที่วิศวกรที่มีประสบการณ์มั่นใจว่าพวกเขาจะไม่ได้แนะนำด้วยตนเอง

สิ่งเหล่านี้ไม่ใช่ข้อผิดพลาดด้านไวยากรณ์ที่น่าตื่นตระหนกหรือการเปลี่ยนแปลงที่ชัดเจนว่าเสียหาย พวกมันคือข้อผิดพลาดด้านตรรกะที่ซับซ้อน การกำหนดค่าที่ไม่ถูกต้อง การขาดการป้องกัน และการล้มเหลวของกรณีขอบที่ดูสมเหตุสมผลเมื่อมองแวบแรก

โค้ดที่สร้างโดย AI มักจะคอมไพล์ได้อย่างสะอาด ผ่านการทดสอบขั้นพื้นฐาน และอ่านได้อย่างสมเหตุสมผล ปัญหาไม่ใช่ว่า AI คิดค้นข้อผิดพลาดใหม่ๆ แต่ผลิตข้อผิดพลาดที่คุ้นเคยมากขึ้นและในระดับที่ท่วมท้นกระบวนการตรวจสอบและ QA ที่มีอยู่

ข้อมูลที่แสดงเมื่อ AI เขียนโค้ดมากขึ้น

เราทำการวิเคราะห์หลายร้อยการขอ pull request ที่เปิดกว้างเพื่อช่วยให้ได้ตัวเลขที่อยู่เบื้องหลัง直觉นี้ใน รายงานสถานะของ AI เทียบกับการสร้างโค้ดของมนุษย์ เมื่อการเปลี่ยนแปลงที่ร่วมเขียนโดย AI เทียบกับการขอ pull request ของมนุษย์เท่านั้นและปรับขนาดตามขนาด การขอ pull request ที่ได้รับการช่วยเหลือจาก AI มีข้อผิดพลาดทั้งหมดประมาณ 1.7 เท่า

สิ่งที่น่ากังวลมากกว่านั้นคือ พวกมันแสดงให้เห็น 1.4-1.7 เท่าของปัญหาเชิงวิพากษ์และสำคัญ ปัญหาเรื่องตรรกะและความถูกต้อง รวมถึงการไหลของการควบคุมที่มีข้อบกพร่อง การใช้ขึ้นอยู่ที่ไม่ถูกต้อง และข้อผิดพลาดในการกำหนดค่า มีมากกว่า 75% ข้อผิดพลาดในการจัดการข้อผิดพลาด เช่น การตรวจสอบ null ที่ไม่เพียงพอ สายข้อยกเว้นที่ไม่สมบูรณ์ และการป้องกันที่ไม่มีอยู่ ปรากฏขึ้นเกือบสองเท่า

ปัญหาเกี่ยวกับความปลอดภัยก็เพิ่มขึ้นเช่นกัน โดยมีบางหมวดที่เกิดขึ้นในอัตรา สูงถึง 2.7 เท่า โดยเฉพาะอย่างยิ่งรอบๆ การจัดการเครดิตและอ้างอิงวัตถุที่ไม่ปลอดภัย ปัญหาเรื่องความถูกต้องของการทำงานร่วมกันและความถูกต้องของการอ้างอิงก็เพิ่มขึ้น ประมาณ 2 เท่า

มนุษย์ทำข้อผิดพลาดเหล่านี้ แต่เมื่อ AI เกี่ยวข้อง ข้อบกพร่องเหล่านี้เกิดขึ้นบ่อยขึ้น ทั่วทั้นฐานโค้ด และด้วยความเร็วที่ท่วมท้นการตรวจสอบโค้ดแบบดั้งเดิม สิ่งเหล่านี้คือข้อบกพร่องที่มีแนวโน้มที่จะหลุดรอดจากการตรวจสอบอย่างรวดเร็วและปรากฏตัวขึ้นในภายหลังในฐานะเหตุการณ์ความปลอดภัยหรือการหยุดทำงานในสภาพแวดล้อมการผลิต

สิ่งที่ตัดสินว่า 2026 จะแตกต่าง

จากมุมมองด้านความปลอดภัย แนวโน้มนี้ยากที่จะเพิกเฉย ข้อบกพร่องด้านตรรกะ ค่าเริ่มต้นที่ไม่ปลอดภัย และข้อผิดพลาดในการกำหนดค่าขยายพื้นที่โจมตี แม้ว่าความเสี่ยงแต่ละอย่างจะไม่ดูเหมือนจะรุนแรงในแง่ของการแยกตัวออก

การแยกออกอย่างเข้มงวด การทำงานด้วยสิทธิ์ที่ต่ำที่สุด การใช้เครดิตชั่วคราว และการเข้ารหัสสามารถจำกัดพื้นที่ที่ได้รับผลกระทบได้หากสิ่งใดผิดพลาด แต่ไม่สามารถชดเชยข้อบกพร่องที่แนะนำในวงจรชีวิตการพัฒนาก่อนหน้านี้ ความปลอดภัยและความน่าเชื่อถือไม่ใช่แค่ความกังวลของโครงสร้างพื้นฐาน แต่เป็นผลโดยตรงของวิธีการสร้าง ซอฟต์แวร์ ตรวจสอบ และทดสอบ

อินเทอร์เน็ตจะยังคงล่มใน 2026 หากความไม่สมดุลนี้ยังคงอยู่ นี่ไม่ใช่การโต้แย้งกับ AI เนื่องจาก AI อยู่ที่นี่แล้วและจะไม่หายไป ทีมที่จะทำได้ดีที่สุดไม่ใช่ผู้ที่หลีกเลี่ยง AI แต่เป็นผู้ที่ปรับเปลี่ยนรั้วของตนให้ตรงกับ AI

หมายความว่า จัดสรรทรัพยากรให้กับการตรวจสอบและทีม QA ที่เหมาะสมสำหรับการผลิตที่สูงขึ้น ย้ายการทดสอบและตรวจสอบไปยังจุดเริ่มต้นของวงจรการพัฒนา ระบุอย่างชัดเจนเกี่ยวกับปัญหาที่สร้างโดย AI ที่ต้องการการตรวจสอบอย่างลึกซึ้ง และปฏิบัติต่อโค้ดที่ได้รับการช่วยเหลือจาก AI ว่าเป็นข้อมูลที่มีความแปรผันสูง ไม่ใช่ข้อมูลที่เชื่อถือได้โดยค่าเริ่มต้น

บทเรียนนี้ง่ายมาก: คุณไม่สามารถอัตโนมัติออกจากความรับผิดชอบได้ เมื่อ AI เขียนโค้ดมากขึ้น ทีมต้องการเวลา เครื่องมือ และจำนวนพนักงานในการตรวจสอบโค้ดมากขึ้น ไม่น้อยกว่านั้น ช่วงต่อไปของนวัตกรรม AI จะไม่ได้ถูกกำหนดโดยความเร็วในการสร้างโค้ด แต่โดยความมั่นใจในการจัดส่ง

การตรวจสอบเป็นข้อตกลงปัจจุบัน

AI เพิ่มขีดความสามารถในการสร้างโค้ดอย่างมาก แต่ไม่ได้เพิ่มขีดความสามารถในการตรวจสอบโดยอัตโนมัติ ช่องว่างนี้สร้างความเสี่ยง ช่วงต่อไปของการนำ AI ไปใช้จะไม่ได้ถูกกำหนดโดยความเร็วในการสร้างโค้ด แต่โดยความมั่นใจที่ทีมสามารถจัดส่งได้

หมายความว่า:

  • จัดสรรทรัพยากรให้กับการตรวจสอบและ QA สำหรับการผลิตที่สูงขึ้น ไม่ใช่ต่ำกว่า
  • ย้ายการตรวจสอบไปยังจุดเริ่มต้นของวงจรการพัฒนา
  • เพิ่มสัญญาณใน pull request เพื่อให้ผู้ตรวจสอบมุ่งเน้นไปที่สิ่งที่สำคัญ
  • ปฏิบัติต่อโค้ดที่ได้รับการช่วยเหลือจาก AI ว่าเป็นสิ่งที่ต้องการการตรวจสอบอย่างลึกซึ้ง ไม่ใช่การดูแลที่เบาๆ

อินเทอร์เน็ตไม่จำเป็นต้องยังคงล่ม AI ไม่ใช่ปัญหาหลัก โค้ดที่สร้างโดย AI ที่ไม่ได้รับการตรวจสอบคือปัญหา หาก AI จะเขียนส่วนแบ่งที่เพิ่มขึ้นของซอฟต์แวร์ในการผลิต สิ่งที่มีความเข้มงวดเท่าๆ กันจะต้องตรวจสอบก่อนที่จะจัดส่ง

การเปลี่ยนแปลงนี้เป็นเหตุผลที่แน่นอนว่าทำไมการตรวจสอบโค้ด AI จึงกลายเป็นโครงสร้างพื้นฐานที่จำเป็น ไม่ใช่เครื่องมือที่ไม่จำเป็น แพลตฟอร์ม เช่น CodeRabbit ฝังการตรวจสอบ AI ที่ตระหนักรู้ถึงบริบทโดยตรงเข้ากับกระบวนการทำงาน Git ของคุณ ช่วยให้ทีมจับข้อผิดพลาดด้านตรรกะ ช่องโหว่ด้านความปลอดภัย และกรณีขอบก่อนที่จะกลายเป็นเหตุการณ์

เพราะถ้าการสร้างโค้ดขยายตัว การตรวจสอบจะต้องขยายตัวด้วย

ไม่เช่นนั้น 2026 จะดูเหมือน 2025 — เพียงแต่เร็วขึ้น

David Loker เป็น Vice President of AI ที่ CodeRabbit ซึ่งเขานำการพัฒนา agentic AI systems ที่เปลี่ยนแปลงการตรวจสอบโค้ดและกระบวนการทำงานของนักพัฒนา As an entrepreneur และนักวิจัยที่ได้รับรางวัล เขาได้สร้างระบบ Machine Learning และ AI ระบบใหญ่ๆ ตั้งแต่ปี 2007 และได้ตีพิมพ์งานวิจัยมากกว่าหนึ่งโหลในงานประชุมชั้นนำ รวมถึง NeurIPS, ICML, และ AAAI และเป็นหนึ่งในผู้บุกเบิก Generative AI ในยุคแรก