Connect with us

การแข่งขันอาวุธ AI: ทำไมความปลอดภัยของผู้บริโภคต้องการการป้องกันแบบเรียลไทม์

ผู้นำทางความคิด

การแข่งขันอาวุธ AI: ทำไมความปลอดภัยของผู้บริโภคต้องการการป้องกันแบบเรียลไทม์

mm

หากผู้ฉ้อโกงสามารถใช้โมเดลภาษาขนาดใหญ่ (LLM) เพื่อสร้างอีเมลฟิชชิงที่สมบูรณ์แบบและไม่ซ้ำกันหนึ่งล้านฉบับในหนึ่งชั่วโมง ทำไมเรายังคงต่อสู้กับการรบ AI ด้วยการอัปเดตสัญญาณลักษณ์ด้วยความเร็วของมนุษย์?

การเพิ่มขึ้นของปัญญาประดิษฐ์แบบสร้างสรรค์ไม่ใช่ภัยคุกคามที่เป็นนามธรรมอีกต่อไป แต่เป็นความเป็นจริงที่ไม่สามารถปฏิเสธได้ว่ากลุ่มอาชญากรในโลกไซเบอร์ได้ใช้เครื่องมือการเรียนรู้เชิงลึกเพื่อทำให้การฉ้อโกงทางสังคมเป็นอัตโนมัติและสมบูรณ์แบบ สำหรับผู้บริโภค การเปลี่ยนแปลงนี้ส่งผลให้เกิดความสูญเสียทางการเงินอย่างมาก: คณะกรรมการการค้าแห่งสหพันธรัฐ (FTC) รายงาน ว่าผู้บริโภคสูญเสียเงินไปกับการฉ้อโกงมากกว่า 12.5 พันล้านดอลลาร์ในปี 2024 , ซึ่งเพิ่มขึ้น 25% จากปี 2023 ตัวเลขที่น่าตกใจนี้ยืนยันถึงยุคใหม่ที่น่าห่วงใยซึ่งมาตรการรักษาความปลอดภัยแบบดั้งเดิมที่พึ่งพามนุษย์กำลังล้มเหลวต่อภัยคุกคามที่ขับเคลื่อนด้วย AI

ความซับซ้อนของการฉ้อโกงใหม่เหล่านี้ต้องการยุทธวิธีสนามรบใหม่ เราต้องไปไกลกว่าแบบจำลองการรักษาความปลอดภัยที่ตอบสนอง การสแกนแบบอิงสัญญาณ การกรองคีย์เวิร์ดแบบง่าย และโซลูชันการรักษาความปลอดภัย “bolt-on” และใช้ AI ที่มีพฤติกรรมแบบเรียลไทม์ที่กำลังปกป้องโครงสร้างพื้นฐานดิจิทัลที่สำคัญที่สุดของเรา

ความเป็นจริงใหม่ของการฉ้อโกงที่ได้รับการเพิ่มขีดความสามารถจาก AI

AI ที่สร้างสรรค์ได้ลดค่าเข้าใช้สำหรับการก่ออาชญากรรมในโลกไซเบอร์ ในขณะเดียวกันก็เพิ่มความน่าเชื่อถือของเนื้อหาที่เป็นอันตราย ผู้ฉ้อโกงสามารถดำเนินแคมเปญที่มีการจัดลำดับความสำคัญสูงได้ ซึ่งเลียนแบบบุคคลและสถาบันที่เชื่อถือได้อย่างสมบูรณ์แบบ

ตัวอย่างที่น่าสังเกตที่สุดของการเพิ่มขีดความสามารถนี้ ได้แก่

การปลอมตัวด้วย Deepfake และการโคลนเสียง

การฉ้อโกงแบบปลอมตัว经典 ซึ่งผู้กระทำความผิดแกล้งเป็นคนรักหรือผู้บริหารระดับสูง ได้รับการปรับปรุงโดย AI

  • CEO และผู้บริหาร Deepfakes: ในคดีฉ้อโกงทางธุรกิจที่มีชื่อเสียง การใช้วิดีโอและเสียง Deepfake เพื่อปลอมตัวเป็นผู้บริหารระดับสูงระหว่างการโทรทางวิดีโอ ทำให้เจ้าหน้าที่ฝ่ายการเงินเชื่อว่าควรอนุมัติการโอนเงินหลายล้านดอลลาร์ โดยการฝึก AI จากคลิปสั้น ๆ ของเสียงผู้บริหารหรือวิดีโอสาธารณะ ผู้กระทำผิดสามารถสร้างเสียงและวิดีโอที่ใกล้เคียงกับของจริงได้ ซึ่งสามารถหลบหลีกการป้องกันที่เชื่อถือได้มากที่สุดของเหยื่อ: ดวงตาและหู
  • การฉ้อโกงคริปโตด้วย Deepfake: บนแพลตฟอร์มผู้บริโภค การปลอมตัวด้วย Deepfake ของคนดัง เช่น เอลอน มัสก์ มักใช้ใน “การเพิ่ม bitcoin สองเท่า” การฉ้อโกง วิดีโอ Deepfake ซึ่งบ่อยครั้งถูกสตรีมสดบนแพลตฟอร์มที่ถูกบุกรุก จะแสดงคนดัง “สนับสนุน” การแจกคริปโตที่ฉ้อโกง ซึ่งนำไปสู่การรายงานการสูญเสียที่สำคัญหลายล้านเหรียญสหรัฐ การปลอมตัวด้วย Deepfake เหล่านี้มีความน่าเชื่อถือมากจนหลอกเหยื่อโดยการรักษาติดต่อสายตาระหว่างการขอ

การฟิชชิงแบบสนทนาที่มีการจัดลำดับความสำคัญสูง

AI ที่สร้างสรรค์ได้กำจัดสัญญาณที่บอกเป็นนัยของการฉ้อโกง “เจ้าชายไนจีเรีย” แบบคลาสสิก: การใช้ไวยากรณ์ที่ไม่ดี การพูดภาษาต่างประเทศ และการขานรับทั่วไป

  • การฟิชชิงแบบพอลิโมร์ฟิกที่มีขนาดใหญ่: ผู้โจมตีใช้ LLMs (รวมถึง LLM ที่ผิดกฎหมาย เช่น FraudGPT) เพื่อขุดคุ้ยข้อมูลสาธารณะ โปรไฟล์ LinkedIn โพสต์บนโซเชียลมีเดีย และเว็บไซต์ของบริษัท เพื่อสร้างแฟ้มข้อมูลรายละเอียดเกี่ยวกับเป้าหมาย จากนั้น AI จะสร้างอีเมลที่เลียนแบบโทนและคำศัพท์ของเพื่อนร่วมงานหรือหัวหน้า โดยอ้างถึงโครงการหรือติดต่อที่ใช้ร่วมกันจริงๆ ซึ่งมักจะเรียกว่าการฟิชชิงแบบพอลิโมร์ฟิก เนื่องจาก AI สามารถสร้างอีเมลที่มีลักษณะเฉพาะและสมบูรณ์แบบได้หลายล้านฉบับ ทำให้การตรวจจับแบบดั้งเดิมที่อาศัยสัญญาณลักษณ์ยากที่จะตรวจจับ
  • การฉ้อโกงทางรักโดยใช้ AI (การทำหมู): การใช้ AI ชัตบอทช่วยให้ผู้ฉ้อโกงสามารถจัดการโปรไฟล์约会ปลอมได้หลายร้อยรายการพร้อมๆ กัน AI จะรักษาความสัมพันธ์ที่ซับซ้อนและหลอกลวงทางอารมณ์เป็นเวลานานเพื่อสร้างความไว้วางใจ ซึ่งเป็นเทคนิคที่เรียกว่า “การทำหมู” การสื่อสารที่ไม่มีข้อผิดพลาดและความสามารถในการข้ามช่องว่างทางภาษา ช่วยให้ผู้ฉ้อโกงสามารถมีส่วนร่วมกับเหยื่อได้ลึกซึ้งมากขึ้นก่อนที่จะเปลี่ยนหัวข้อสนทนาไปสู่โครงการลงทุนที่ฉ้อโกง ซึ่งนำไปสู่การสูญเสียทางการเงินโดยเฉลี่ยต่อเหยื่อที่สูงที่สุด

จุดอ่อนที่ร้ายแรงของการรักษาความปลอดภัยแบบดั้งเดิม

สาเหตุที่การฉ้อโกงที่ได้รับการเพิ่มขีดความสามารถจาก AI นี้ประสบความสำเร็จคือมาตรการรักษาความปลอดภัยทางไซเบอร์แบบดั้งเดิมไม่ได้รับการออกแบบสำหรับสภาพแวดล้อมภัยคุกคามที่มีความเร็วสูงและปริมาณต่ำ พวกเขาใช้สมมติฐานที่ล้าสมัย:

1. การพึ่งพาสัญญาณลักษณ์และภัยคุกคามที่ทราบ

ซอฟต์แวร์ป้องกันไวรัสและรักษาความปลอดภัยแบบดั้งเดิมพึ่งพาฐานข้อมูลของภัยคุกคามที่ทราบหรือ “สัญญาณลักษณ์” เมื่อ ผู้โจมตีใช้ AI เพื่อสร้างอีเมลหรือรูปแบบใหม่ของมัลแวร์หรือวิดีโอ Deepfake ที่ไม่เคยเห็นมาก่อน ระบบการรักษาความปลอดภัยไม่มีสัญญาณลักษณ์ที่จะแจ้งเตือน โดยที่สัญญาณลักษณ์ใหม่ถูกสร้างและแจกจ่าย การฉ้อโกงได้เปลี่ยนไปสู่รูปแบบพอลิโมร์ฟิกที่ใหม่แล้ว นี่คือแบบจำลองที่ตอบสนองซึ่งช้าเกินไปสำหรับจังหวะของ AI ที่สร้างสรรค์

2. การขาดความตระหนักรู้ทางพฤติกรรมและบริบท

ระบบมรดกหลายระบบรักษาความปลอดภัยเป็นแบบแยกส่วนและทำธุรกรรมพื้นฐาน ตัวอย่างเช่น ตัวกรองพื้นฐานอาจตรวจสอบว่าอีเมลมีคำว่า “ใบแจ้งหนี้” หรือ “เร่งด่วน” หรือไม่ การฉ้อโกงทางสังคมที่ขับเคลื่อนด้วย AI ประสบความสำเร็จเพราะมุ่งเน้นไปที่ พฤติกรรม ไม่ใช่แค่คีย์เวิร์ด อีเมลฟิชชิงที่ซับซ้อนจะดูเหมือนถูกต้อง และวิดีโอ Deepfake จะดูและฟังเหมือนบุคคลที่อ้างว่าเป็น ระบบเครื่องมือแบบดั้งเดิมไม่มีความสามารถในการกำหนดพฤติกรรมที่เป็นปกติสำหรับผู้ใช้หรือเครือข่าย ซึ่งทำให้ไม่สามารถระบุพฤติกรรมที่ผิดปกติ ที่บ่งบอกถึงการฉ้อโกง

3. ข้อผิดพลาดของมนุษย์เป็นจุดอ่อนหลัก

การป้องกันสุดท้ายในระบบการรักษาความปลอดภัยแบบดั้งเดิมมักจะเป็นผู้ใช้ ซึ่งเป็นสิ่งที่ด้านการฉ้อโกงทางสังคมของการฉ้อโกง AI ได้รับการออกแบบมาเพื่อใช้ประโยชน์ การฝึกอบรมผู้ใช้เพื่อระบุการฉ้อโกงเป็นวิธีการบรรเทาที่มีประสิทธิภาพ แต่ไม่ใช่ระบบการตรวจจับ เมื่อเสียง Deepfake ที่ฟังดูเหมือนลูกของตนเองขอความช่วยเหลือ หรืออีเมลที่ดูเหมือนมาจาก CEO ของตนเอง การฝึกอบรมผู้ใช้ไม่สามารถต่อกรกับการจัดการทางอารมณ์และบริบทที่สร้างโดย AI ได้

ทางเลือกเชิงรุก: การตรวจจับภัยคุกคามแบบเรียลไทม์ที่ขับเคลื่อนด้วย AI

วิธีแก้คือการต่อสู้กับ AI ด้วย AI เช่นเดียวกับที่ AI ที่สร้างสรรค์ได้รับการบูรณาการเข้ากับกระบวนการโจมตี โมเดลการเรียนรู้ของเครื่องแบบเรียลไทม์กำลังถูกนำไปใช้และฝังตัวลงในแพลตฟอร์มผู้บริโภคและองค์กรหลักๆ เพื่อตรวจจับการเปลี่ยนแปลงพฤติกรรมแบบเรียลไทม์ การป้องกันที่ฝังตัวและแบบเรียลไทม์นี้นำเสนอแผนภาพสำหรับการรักษาความปลอดภัยรุ่นต่อไปสำหรับผู้บริโภค

บริษัทและแพลตฟอร์มหลักๆ ใช้โมเดล AI เหล่านี้เพื่อ:

  • การตรวจจับการฉ้อโกงทางการเงิน: สถาบันการเงินขนาดใหญ่ใช้การวิเคราะห์พฤติกรรม AI เพื่อตรวจสอบรูปแบบการเข้าสู่ระบบ ความผิดปกติของธุรกรรม และลายนิ้วมืออุปกรณ์แบบเรียลไทม์ หากผู้ใช้เริ่มการโอนเงินที่ไม่ปกติจากอุปกรณ์หรือที่ตั้งที่ไม่ได้ลงทะเบียน ระบบ AI จะแจ้งการเปลี่ยนแปลงนี้เพื่อตรวจสอบทันที ซึ่งมักจะหยุดการฉ้อโกงก่อนที่จะสูญเสียเงิน
  • การกรองอีเมลและเนื้อหา: Gmail ของ Google ตัวอย่างเช่น ประมวลผลและบล็อกอีเมลฟิชชิงหลายล้านฉบับต่อวันโดยใช้โมเดลการเรียนรู้ของเครื่องเพื่อวิเคราะห์เนื้อหาของข้อความ ประวัติผู้ส่ง และแม้แต่สไตล์การเขียน โมเดลเหล่านี้ไม่ขึ้นอยู่กับสัญญาณลักษณ์; พวกมันเรียนรู้ว่าอีเมลที่ถูกต้อง ดู และ ฟัง อย่างไร ทำให้พวกมันมีประสิทธิภาพสูงในการระบุความพยายามฟิชชิงแบบสเปียร์ที่ซับซ้อนและเฉพาะบริบท
  • การดูแลเนื้อหาโซเชียลมีเดีย: แพลตฟอร์ม เช่น Meta ใช้การประมวลผลภาษาธรรมชาติ (NLP) และการเรียนรู้ของเครื่องเพื่อตรวจจับและตอบสนองต่อเนื้อหาที่เป็นอันตรายและบัญชีปลอมแบบเรียลไทม์ โดยไปไกลกว่าการค้นหาคีย์เวิร์ดแบบง่ายๆ เพื่อทำความเข้าใจบริบทและความตั้งใจของการสื่อสาร

สิ่งที่เหมือนกันในตัวอย่างเหล่านี้คือการเปลี่ยนจากแบบจำลองการป้องกันที่ตอบสนองไปสู่การวิเคราะห์พฤติกรรมแบบเรียลไทม์ นี่คือชั้นที่สำคัญที่สุดสำหรับระบบนิเวศของผู้บริโภคและครอบครัวทั่วไป ซึ่งยังคงพึ่งพาเครื่องมือที่ล้าสมัย

คำตอบไม่ใช่การเพิ่มกุญแจดิจิทัลหลังจากที่บ้านถูกปล้นแล้ว มันคือระบบเตือนภัยแบบบูรณาการที่เรียนรู้เสียงของการเดินเท้าของคุณ มันจะมาจากความปลอดภัยที่ฉลาด; ระบบที่ใช้ AI แบบเรียลไทม์เพื่อสร้าง “ปกติ” สำหรับการมีปฏิสัมพันธ์ทางพฤติกรรม รูปแบบการสื่อสาร และการโต้ตอบดิจิทัล นี่เป็นวิธีเดียวที่จะระบุความผิดปกติที่สำคัญแต่ซับซ้อนที่สร้างโดยการปลอมตัวด้วย Deepfake หรือการฟิชชิงแบบสนทนาที่มีการจัดลำดับความสำคัญสูง ก่อนที่การฉ้อโกงจะสำเร็จ โดยการฝัง AI สำหรับการวิเคราะห์แบบเรียลไทม์อย่างต่อเนื่อง เราสามารถสร้างการป้องกันของผู้บริโภคที่มีความสามารถในการปรับขนาดกับการโจมตี AI ที่ซับซ้อนและพัฒนาอย่างต่อเนื่องได้

Ron Kerbs เป็นผู้ก่อตั้งและ CEO ของ Kidas เขาได้รับ MSc ในสาขาวิศวกรรมระบบข้อมูลและเครื่องมือจัดการข้อมูลจาก Technion, Israel Institute of Technology, MBA จาก Wharton School of Business และ MA ในสาขาการศึกษาทั่วโลกจาก Lauder Institute tại University of Pennsylvania Ron เคยเป็นนักลงทุนในระยะเริ่มต้น และก่อนหน้านั้น เขาเคยเป็นผู้จัดการฝ่ายวิจัยและพัฒนา ซึ่งนำทีมในการสร้างโซลูชันข้อมูลขนาดใหญ่และเครื่องมือจัดการข้อมูลสำหรับการรักษาความมั่นคงแห่งชาติ