ผู้นำทางความคิด
นักพัฒนาจะสามารถนำเอา "Vibe Coding" มาใช้ได้โดยไม่ต้องให้องค์กรนำ AI Technical Debt มาใช้ได้หรือไม่

เมื่อ Andrej Karpathy ผู้ร่วมก่อตั้ง OpenAI บัญญัติศัพท์คำว่า “การเข้ารหัสด้วยบรรยากาศ” เมื่อสัปดาห์ที่แล้ว เขาได้จับจุดเปลี่ยนสำคัญได้ นั่นคือ นักพัฒนาเริ่มไว้วางใจให้ AI เชิงสร้างสรรค์ร่างโค้ดมากขึ้น ขณะที่พวกเขามุ่งเน้นไปที่คำแนะนำระดับสูงและ “แทบไม่ต้องแตะแป้นพิมพ์เลย”
แพลตฟอร์ม LLM พื้นฐาน – GitHub Copilot, DeepSeek, OpenAI – กำลังปรับเปลี่ยนรูปแบบการพัฒนาซอฟต์แวร์ โดยที่ Cursor กลายมาเป็นบริษัทที่เติบโตเร็วที่สุดในช่วงไม่นานนี้ เคย เพื่อเพิ่มรายได้ประจำปีจาก 1 ล้านเหรียญสหรัฐฯ เป็น 100 ล้านเหรียญสหรัฐฯ (ภายในเวลาไม่ถึงปี) แต่ความเร็วนี้มาพร้อมกับต้นทุน
หนี้ทางเทคนิคที่คาดว่าจะสร้างต้นทุนให้ธุรกิจแล้ว สูงถึง 1.5 ล้านล้านเหรียญสหรัฐ การดำเนินงานและความปลอดภัยที่ไม่มีประสิทธิภาพในแต่ละปีนั้นไม่ใช่เรื่องใหม่ แต่ในปัจจุบัน องค์กรต่างๆ ต้องเผชิญกับความท้าทายใหม่ และฉันเชื่อว่าความท้าทายนั้นยิ่งใหญ่กว่า: หนี้ทางเทคนิคของ AI—วิกฤตเงียบที่เกิดจากโค้ดที่สร้างโดย AI ที่ไม่มีประสิทธิภาพ ไม่ถูกต้อง และอาจไม่ปลอดภัย
ปัญหาคอขวดของมนุษย์ได้เปลี่ยนจากการเขียนโค้ดไปเป็นการตรวจสอบโค้ดเบสแล้ว
แบบสำรวจ GitHub ปี 2024 พบว่านักพัฒนาองค์กรเกือบทั้งหมด (97%) ใช้เครื่องมือเขียนโค้ด Genative AI แต่นักพัฒนาในสหรัฐฯ เพียง 38% เท่านั้นที่กล่าวว่าองค์กรของตนสนับสนุนการใช้ Gen AI อย่างจริงจัง
นักพัฒนาซอฟต์แวร์ชื่นชอบการใช้โมเดล LLM เพื่อสร้างโค้ดเพื่อส่งโค้ดได้มากขึ้นและเร็วขึ้น และองค์กรก็มุ่งมั่นที่จะเร่งสร้างนวัตกรรม อย่างไรก็ตาม การตรวจสอบด้วยตนเองและเครื่องมือแบบเดิมไม่สามารถปรับตัวหรือปรับขนาดเพื่อเพิ่มประสิทธิภาพและตรวจสอบโค้ดที่สร้างโดย AI หลายล้านบรรทัดทุกวันได้
เมื่อนำแรงผลักดันจากตลาดเหล่านี้มาใช้ การกำกับดูแลและการกำกับดูแลแบบเดิมๆ อาจล้มเหลวได้ และเมื่อล้มเหลว โค้ดที่ไม่ได้รับการตรวจสอบก็จะแทรกซึมเข้าไปในกลุ่มองค์กร
การเพิ่มขึ้นของ "การเข้ารหัสด้วยความรู้สึก" ของนักพัฒนามีความเสี่ยงที่จะทำให้ปริมาณและต้นทุนของหนี้ทางเทคนิคเพิ่มสูงขึ้น เว้นแต่ว่าองค์กรจะนำแนวทางป้องกันที่สร้างสมดุลระหว่างความเร็วในการสร้างสรรค์นวัตกรรมกับการตรวจสอบทางเทคนิคมาใช้
ภาพลวงตาของความเร็ว: เมื่อ AI แซงหน้าการกำกับดูแล
รหัสที่สร้างโดย AI นั้นไม่ได้มีข้อบกพร่องในตัว แต่เป็นเพียง ยังไม่ผ่านการตรวจสอบ ด้วยความเร็วและขนาดที่เพียงพอ
พิจารณาข้อมูล: LLM ทั้งหมดแสดงการสูญเสียโมเดล (ภาพหลอน) เอกสารวิจัยล่าสุดที่ประเมินคุณภาพการสร้างโค้ดของ GitHub Copilot พบอัตราความผิดพลาด 20%ปัญหาที่เกิดขึ้นซ้ำเติมคือปริมาณผลลัพธ์ของ AI มหาศาล นักพัฒนาเพียงคนเดียวสามารถใช้ LLM เพื่อสร้างโค้ด 10,000 บรรทัดในเวลาไม่กี่นาที ซึ่งแซงหน้าความสามารถของนักพัฒนาที่เป็นมนุษย์ในการปรับให้เหมาะสมและตรวจสอบความถูกต้อง โปรแกรมวิเคราะห์แบบคงที่แบบเก่าที่ออกแบบมาสำหรับตรรกะที่เขียนโดยมนุษย์นั้นมีปัญหาในการจัดการกับรูปแบบความน่าจะเป็นของผลลัพธ์ของ AI ผลลัพธ์ที่ได้คือ ค่าใช้จ่ายคลาวด์ที่เพิ่มสูงขึ้นจากอัลกอริทึมที่ไม่มีประสิทธิภาพ ความเสี่ยงด้านการปฏิบัติตามข้อกำหนดจากการอ้างอิงที่ไม่ได้รับการตรวจสอบ และความล้มเหลวที่สำคัญที่แฝงอยู่ในสภาพแวดล้อมการผลิต
ชุมชน บริษัท และโครงสร้างพื้นฐานที่สำคัญของเราต่างก็พึ่งพาซอฟต์แวร์ที่ปรับขนาดได้ ยั่งยืน และปลอดภัย หนี้ทางเทคนิคที่ขับเคลื่อนโดย AI ที่ไหลเข้าสู่องค์กรอาจหมายถึงความเสี่ยงที่สำคัญต่อธุรกิจ... หรือแย่กว่านั้น
เรียกคืนการควบคุมโดยไม่ต้องทำลายบรรยากาศ
วิธีแก้ปัญหาคืออย่าละทิ้ง Generative AI เพื่อการเขียนโค้ด แต่ควรให้ผู้พัฒนานำระบบ AI แบบเอเจนต์มาใช้งานเป็นตัวปรับแต่งและตรวจสอบโค้ดที่ปรับขนาดได้จำนวนมาก โมเดลเอเจนต์สามารถใช้เทคนิคต่างๆ เช่น อัลกอริทึมเชิงวิวัฒนาการเพื่อปรับแต่งโค้ดซ้ำๆ ใน LLM หลายตัวเพื่อปรับให้เหมาะสมสำหรับตัวชี้วัดประสิทธิภาพที่สำคัญ เช่น ประสิทธิภาพ ความเร็วรันไทม์ การใช้หน่วยความจำ และตรวจสอบประสิทธิภาพและความน่าเชื่อถือภายใต้เงื่อนไขที่แตกต่างกัน
หลักการสามประการที่จะแยกแยะองค์กรที่ประสบความสำเร็จด้วย AI ออกจากองค์กรที่ต้องจมอยู่กับหนี้ทางเทคนิคที่ขับเคลื่อนโดย AI:
- การตรวจสอบที่ปรับขนาดได้นั้นไม่สามารถต่อรองได้:องค์กรต่างๆ ต้องนำระบบ AI ที่มีตัวแทนมาใช้ซึ่งสามารถตรวจสอบและเพิ่มประสิทธิภาพโค้ดที่สร้างโดย AI ในระดับขนาดใหญ่ การตรวจสอบด้วยตนเองแบบดั้งเดิมและเครื่องมือแบบเก่าไม่เพียงพอที่จะจัดการกับปริมาณและความซับซ้อนของโค้ดที่สร้างโดย LLM หากไม่มีการตรวจสอบที่ปรับขนาดได้ ประสิทธิภาพที่ลดลง ช่องโหว่ด้านความปลอดภัย และความเสี่ยงด้านการปฏิบัติตามกฎระเบียบจะเพิ่มมากขึ้น ส่งผลให้มูลค่าทางธุรกิจลดลง
- ความเร็วสมดุลกับธรรมาภิบาล:ในขณะที่ AI เร่งการผลิตโค้ด กรอบการกำกับดูแลจะต้องพัฒนาเพื่อให้ทันกับสถานการณ์ องค์กรต่างๆ จำเป็นต้องใช้แนวทางป้องกันเพื่อให้แน่ใจว่าโค้ดที่สร้างโดย AI เป็นไปตามมาตรฐานคุณภาพ ความปลอดภัย และประสิทธิภาพโดยไม่ขัดขวางนวัตกรรม ความสมดุลนี้มีความสำคัญอย่างยิ่งในการป้องกันไม่ให้ภาพลวงตาของความเร็วกลายเป็นหนี้ทางเทคนิคที่มีค่าใช้จ่ายสูง
- มีเพียง AI เท่านั้นที่สามารถตามทัน AI ได้:ปริมาณมหาศาลและความซับซ้อนของโค้ดที่สร้างโดย AI จำเป็นต้องมีโซลูชันขั้นสูงที่เท่าเทียมกัน องค์กรต่างๆ ต้องใช้ระบบที่ขับเคลื่อนด้วย AI ที่สามารถวิเคราะห์ ปรับให้เหมาะสม และตรวจสอบโค้ดได้อย่างต่อเนื่องในระดับขนาดใหญ่ ระบบเหล่านี้รับประกันว่าความเร็วของการพัฒนาที่ขับเคลื่อนด้วย AI จะไม่กระทบต่อคุณภาพ ความปลอดภัย หรือประสิทธิภาพการทำงาน ช่วยให้เกิดนวัตกรรมที่ยั่งยืนโดยไม่ต้องก่อหนี้ทางเทคนิคที่มากเกินไป
Vibe Coding: อย่าปล่อยให้ตัวเองหลงระเริงเกินไป
องค์กรต่างๆ ที่เลื่อนการดำเนินการเกี่ยวกับ "การเข้ารหัสด้วยสัญญาณ" จะต้องเผชิญกับผลที่ตามมาในที่สุด ได้แก่ การสูญเสียอัตรากำไรจากต้นทุนคลาวด์ที่สูงลิ่ว ความล้มเหลวของนวัตกรรมเนื่องจากทีมงานต้องดิ้นรนเพื่อแก้ไขโค้ดที่เปราะบาง หนี้ทางเทคนิคที่เพิ่มมากขึ้น และความเสี่ยงที่ซ่อนเร้นของข้อบกพร่องด้านความปลอดภัยที่เกิดจาก AI
เส้นทางข้างหน้าสำหรับนักพัฒนาและองค์กรต่าง ๆ จำเป็นต้องยอมรับว่า มีเพียง AI เท่านั้นที่สามารถปรับแต่งและตรวจสอบ AI ได้ ในระดับขนาดใหญ่ การให้นักพัฒนาเข้าถึงเครื่องมือตรวจสอบเอเจนต์ทำให้พวกเขาสามารถโอบรับ "การเข้ารหัสแบบไวบ์" ได้โดยไม่ต้องยอมให้องค์กรต้องแบกรับภาระทางเทคนิคที่เกิดจาก AI ที่เพิ่มขึ้น Karpathy ระบุว่าศักยภาพของโค้ดที่สร้างโดย AI นั้นน่าตื่นเต้นและน่ามึนเมาด้วยซ้ำ แต่ในการพัฒนาองค์กร จำเป็นต้องมีการตรวจสอบไวบ์โดย AI สายพันธุ์วิวัฒนาการใหม่เสียก่อน