ความปลอดภัยไซเบอร์
ธุรกิจพร้อมสำหรับการโจมตีไซเบอร์ที่มีพลังของ AI อีก波หรือไม่?
การวิเคราะห์แนวโน้มปัจจุบันช่วยให้专家สามารถคาดการณ์ได้ว่าผู้กระทำผิดจะใช้ความสามารถของ AI ในอนาคตอย่างไร ด้วยข้อมูลนี้ พวกเขาสามารถระบุภัยคุกคามที่เกิดขึ้นใหม่ที่ใหญ่ที่สุดและกำหนดได้ว่าธุรกิจพร้อมหรือไม่ พวกเขาอาจสามารถระบุวิธีแก้ปัญหาได้
สถานะของภัยคุกคาม AI ในช่วงไม่กี่ปีที่ผ่านมา
แม้ว่าเทคโนโลยี AI จะค่อนข้างใหม่ แต่ก็已经กลายเป็นเครื่องมือที่โดดเด่นสำหรับแฮกเกอร์ แนวโน้มเหล่านี้บ่งชี้ว่าการโจมตีไซเบอร์ที่มีพลังของ AI กำลังเพิ่มขึ้น
1. การทำลายแบบจำลอง
โดยการโจมตีแบบจำลองภาษาขนาดใหญ่ (LLMs) โดยตรง ผู้กระทำผิดสามารถจัดการพฤติกรรมของแบบจำลอง ลดความแม่นยำของเอาต์พุตหรือเปิดเผยข้อมูลส่วนบุคคลในการฝึกอบรมข้อมูล การทำลายข้อมูลและการออกแบบคำแนะนำเป็นเทคนิคการโจมตีที่พบบ่อย
การโจมตีบางครั้งถูกนำโดยผู้กระทำผิดที่พยายามสร้างความวุ่นวายหรือขโมยข้อมูลที่ละเอียดอ่อน อื่นๆ ถูกบริหารโดยศิลปินผิดหวังที่ต้องการปกป้องงานศิลปะของตนจาก AI การสแกน ไม่ว่าจะด้วยวิธีใด ธุรกิจและผู้ใช้ปลายทางก็ได้รับผลกระทบในทางลบ
2. การโจมตีด้วยการปลอมตัว
ในปี 2024 ผู้บริหารของ Ferrari ได้รับข้อความ WhatsApp หลายข้อจาก CEO Benedetto Vigna Vignaพูดถึงการเข้าซื้อกิจการในอนาคตและกระตุ้นให้พนักงานของเขาเซ็นข้อตกลงไม่เปิดเผยข้อมูล เขายังโทรศัพท์มาเพื่อหารือเกี่ยวกับการสนับสนุนด้านการเงิน มีปัญหาหนึ่ง — ไม่ใช่เขา
การปลอมตัวแบบ Deepfake เกือบจะสมบูรณ์แบบ โดยเลียนแบบเสียงภาษาอิตาลีใต้ของ Vigna ได้อย่างดีเยี่ยม แต่ความไม่สอดคล้องกันเล็กน้อยในเสียงทำให้ผู้บริหารต้องตื่นตัวว่ามันคือการหลอกลวง พนักงานถามเกี่ยวกับชื่อหนังสือที่ Vigna แนะนำเมื่อไม่กี่วันก่อน ซึ่งเป็นคำถามที่เฉพาะเจาะจงสำหรับ CEO จริงๆ ผู้หลอกลวงก็หยุดโทรศัพท์ทันที
AI สามารถโคลนนิ่งเสียง พฤติกรรมในการใช้เว็บ รูปแบบการเขียนและลักษณะคล้ายคลึงกัน เมื่อเทคโนโลยีนี้พัฒนาไป การระบุการปลอมตัวแบบ Deepfake จะยิ่งยากขึ้น ผู้หลอกลวงมักจะวางเป้าหมายในสถานการณ์ที่เร่งด่วนเพื่อป้องกันไม่ให้พวกเขาตั้งคำถามเกี่ยวกับความไม่สอดคล้องกันเล็กน้อย
3. การโจมตีแบบ Phishing โดย AI
ในอดีต บุคคลสามารถระบุอีเมลการปลอมตัวได้โดยการค้นหาการเขียนที่ไม่ดี ลิงก์ที่น่าสงสัย การทักทายทั่วไป และคำขอที่ไม่เหมาะสม ตอนนี้ด้วยเทคโนโลยีการประมวลผลภาษาธรรมชาติ ผู้กระทำผิดสามารถสร้างข้อความที่น่าเชื่อถือได้ด้วยไวยกรณ์ที่สมบูรณ์แบบ
นักวิจัยพบว่าอีเมลการปลอมตัวแบบ Spear Phishing ที่เปิดใช้งาน AI อย่างเต็มที่มอัตราการคลิก 54%ซึ่งเทียบเท่ากับการปลอมตัวที่เขียนโดยมนุษย์ เนื่องจากการหลอกลวงเหล่านี้มีความน่าเชื่อถือมากขึ้น จึงกลายเป็นเรื่องธรรมดา การศึกษาพบว่ามากกว่า 80% ของอีเมลการปลอมตัวแสดงให้เห็นถึงการมีส่วนร่วมของ AI
4. การโจมตีแบบ Social Engineering
การโจมตีแบบ Social Engineering เกี่ยวข้องกับการหลอกลวงบุคคลให้ดำเนินการหรือเปิดเผยข้อมูล AI ช่วยให้ผู้กระทำผิดสามารถตอบสนองได้เร็วขึ้นและสร้างข้อความที่น่าเชื่อถือมากขึ้น โมเดลการประมวลผลภาษาธรรมชาติใดๆ สามารถทำการวิเคราะห์เชิงคำศัพท์เพื่อระบุสถานะทางอารมณ์ของผู้รับ ทำให้พวกเขาเสี่ยงต่อการหลอกลวงมากขึ้น
นอกจากการเพิ่มเทคนิคการโจมตีแบบ Social Engineering แล้ว เทคโนโลยีการเรียนรู้ของเครื่องยังลดข้อจำกัดด้านการเข้าถึงแบบดั้งเดิม ทำให้ผู้เริ่มต้นสามารถดำเนินแคมเปญที่ซับซ้อนได้ หากใครก็ตามสามารถกลายเป็นนักอาชญากรรมไซเบอร์ได้ ใครก็ตามสามารถกลายเป็นเป้าหมายได้
การโจมตี AI ที่ขับเคลื่อนด้วยข้อมูลในอนาคต
ในช่วงต้นปี 2026 การโจมตี AI คาดว่าจะยังคงอยู่ในระดับการเติบโตต่ำ แต่จะพัฒนาไปอย่างรวดเร็วเมื่อเวลาผ่านไป ทำให้ผู้กระทำผิดสามารถเข้าสู่ขั้นตอนการเพิ่มประสิทธิภาพ การใช้งาน และการขยายขนาดได้ พวกเขาจะสามารถเปิดตัวแคมเปญที่เปิดใช้งาน AI อย่างเต็มที่ได้ไม่นาน ตัวอย่างที่ยืนยันการโจมตี AI ไซเบอร์จะไม่หายากในไม่ช้า
ไวรัส Polymorphic ที่มีพลังของ AI เป็นไวรัสที่สามารถเปลี่ยนแปลงโค้ดของมันเองทุกครั้งที่มันคูณกันเพื่อหลบหลีกการตรวจจับ ผู้โจมตีสามารถส่งพayload ผ่านระบบนิเวศของ AI เรียกใช้ LLMs ใน runtime เพื่อสร้างคำสั่งหรือฝังไวรัสไว้โดยตรงใน LLM กลุ่มการรักษาความปลอดภัยของ Google พบว่าผู้กระทำผิดใช้ไวรัสนี้ครั้งแรกในปี 2025
ไวรัสในครอบครัว PROMPTFLUX และ PROMPTSTEAL ระหว่างการดำเนินการ พวกมันใช้ LLMs เพื่อขอเทคนิคการหลบหลีกและบิดเบือน VBScript พวกมันหลบหลีกการตรวจจับตามลายลักษณ์อักษรโดยการบิดเบือนโค้ดของตนเองตามความต้องการ
หลักฐานบ่งชี้ว่าภัยคุกคามเหล่านี้ยังคงอยู่ในขั้นทดสอบ — คุณลักษณะที่ไม่สมบูรณ์บางอย่างถูกแสดงเป็นความคิดเห็น และการเรียกใช้ API มีข้อจำกัด ไวรัส AI เหล่านี้อาจยังคงอยู่ในขั้นพัฒนา แต่การมีอยู่ของพวกมันแสดงถึงขั้นตอนสำคัญในการพัฒนาวิธีการโจมตีที่เป็นอิสระและปรับเปลี่ยนได้
การวิจัยของ NYU Tandon แสดงให้เห็นว่า LLMs สามารถดำเนินการโจมตีแบบ Ransomware ได้อย่างอิสระ ซึ่งเรียกว่า Ransomware 3.0 พวกมันสามารถทำการสำรวจ การสร้างพayload และการข่มขู่โดยไม่ต้องมีการมีส่วนร่วมของมนุษย์เพียงต้องการคำสั่งภาษาธรรมชาติที่ฝังอยู่ในไบนารี่แบบจำลองให้ผลลัพธ์เป็นรูปแบบ Polymorphic ที่ปรับตัวให้เข้ากับสภาพแวดล้อมการดำเนินการโดยการสร้างโค้ดที่เป็นอันตรายได้อย่าง动态ใน runtime
ธุรกิจพร้อมสำหรับการโจมตี AI หรือไม่?
尽管มีการใช้จ่ายด้านความปลอดภัยทางไซเบอร์หลายพันล้านดอลลาร์ แต่ธุรกิจเอกชนยังคงดิ้นรนเพื่อตามทันภัยคุกคามที่เปลี่ยนแปลงอย่างรวดเร็ว เทคโนโลยีการเรียนรู้ของเครื่องอาจทำให้ซอฟต์แวร์ตรวจจับและตอบสนองการโจมตีที่มีอยู่ล้าสมัย ทำให้การป้องกันการโจมตี更加ซับซ้อน
รายงาน DIB Cybersecurity Maturity ในปี 2024 ได้สำรวจผู้เชี่ยวชาญด้านไอที 400 คนในสหรัฐอเมริกา พบว่ามากกว่าครึ่งหนึ่งของคนที่ตอบแบบสำรวจรายงานว่าพวกเขายังคงอยู่ห่างจากมาตรฐาน CMMC 2.0 เป็นเวลาหลายปี แม้ว่ามาตรฐาน NIST 800-171 ที่เทียบเท่าจะถูกกำหนดไว้ในสัญญาของ DoD ตั้งแต่ปี 2016 มาแล้ว
ข้อกำหนด CMMC ใหม่มีผลบังคับใช้เมื่อวันที่ 10 พฤศจิกายน 2025 เป็นต้นไป สัญญาทั้งหมดของ DoD จะต้องมีการปฏิบัติตาม CMMC ในระดับใดระดับหนึ่ง作为เงื่อนไขในการมอบสัญญา กฎใหม่เหล่านี้มีจุดมุ่งหมายเพื่อเสริมสร้างความปลอดภัยทางไซเบอร์ของ DIB แต่จะมีประสิทธิภาพในยุค AI หรือไม่?
AI การป้องกันเป็นคำตอบหรือไม่?
การต่อสู้กับไฟด้วยไฟอาจเป็นวิธีเดียวในการต่อต้านการโจมตี AI ที่ไม่避免ได้ ด้วย AI การป้องกัน องค์กรสามารถตอบสนองต่อภัยคุกคามในเวลาจริงได้อย่าง动态 อย่างไรก็ตาม การใช้ AI การป้องกันนี้มีข้อบกพร่องด้านความปลอดภัยของตนเอง — การรักษาความปลอดภัยของแบบจำลองจากการบุกรุกจะต้องมีการกำกับดูแลและตรวจสอบอย่างต่อเนื่อง
ตาม Harvard Business Reviewวิธีแก้ปัญหาแบบดั้งเดิมทำให้ธุรกิจเสี่ยงต่อการโจมตี AI ไซเบอร์เพื่อให้ได้รับการคุ้มครองทางไซเบอร์ พวกเขาต้องใช้เทคโนโลยีการเรียนรู้ของเครื่องเพื่อคาดการณ์และตอบสนองต่อภัยคุกคามโดยอัตโนมัติ
ไม่มีคำตอบง่ายๆ ว่า AI การป้องกันเป็นคำตอบสำหรับปัญหานี้หรือไม่ ควรจะลงทุนในการใช้งานเครื่องมือ AI ที่ไม่ได้รับการทดสอบหรือไม่ หรือควรขยายทีมไอทีของตนหรือไม่ เป็นเรื่องที่ไม่สามารถคาดเดาได้ว่าการลงทุนใดจะให้ผลตอบแทนในระยะยาว
องค์กรขนาดใหญ่อาจเห็นผลตอบแทนจากการรักษาความปลอดภัยทางไซเบอร์แบบอัตโนมัติ ในขณะที่ธุรกิจขนาดเล็กอาจดิ้นรนในการหาเหตุผลเข้าข้างตนเองสำหรับค่าใช้จ่าย เทคโนโลยีการอัตโนมัติแบบดั้งเดิมอาจสามารถปิดช่องว่างได้ในราคาที่ต่ำกว่ามาก แต่จะไม่สามารถตอบสนองต่อภัยคุกคามที่เปลี่ยนแปลงได้
Steve Durbin ซีอีโอของ Information Security Forum ระบุว่าการนำ AI มาใช้มีประโยชน์อย่างมาก แต่ก็มีข้อเสียที่สำคัญด้วย ตัวอย่างเช่น ธุรกิจมักจะประสบกับการเพิ่มขึ้นของการแจ้งเตือนแบบ False Positiveซึ่งทำให้ทีมรักษาความปลอดภัยเสียเวลา นอกจากนี้ การพึ่งพา AI มากเกินไปอาจทำให้ทีมมั่นใจมากเกินไป ส่งผลให้เกิดช่องโหว่ด้านความปลอดภัย
การนำทางภูมิทัศน์ภัยคุกคาม AI
เป็นเรื่องที่ไม่สามารถกำหนดได้ว่า AI มีอยู่ในภูมิทัศน์ภัยคุกคามในระดับใด เนื่องจากผู้โจมตีสามารถใช้มันเพื่อสร้างโค้ดที่เป็นอันตรายหรือร่างอีเมลการปลอมตัวได้ แทนที่จะใช้มันใน runtime ผู้กระทำผิดที่โดดเดี่ยวและกลุ่มผู้กระทำผิดที่ได้รับการสนับสนุนจากรัฐอาจใช้มันในระดับใหญ่
ตามข้อมูลที่มีอยู่ การทำลายแบบจำลอง การโจมตีแบบ Phishing โดย AI และไวรัส Polymorphic จะเป็นภัยคุกคามทางไซเบอร์ที่ใหญ่ที่สุดในปี 2026 ผู้กระทำผิดจะใช้ LLMs เพื่อสร้าง ส่งและปรับเปลี่ยนพayload ที่เป็นอันตราย โดยมุ่งเป้าไปที่อุตสาหกรรมที่มีมูลค่าสูง เช่น การเงิน เช่นเดียวกับบุคคลทั่วไป












