ต้นขั้ว ข้อสันนิษฐานทั่วไปเกี่ยวกับการทำงานผิดพลาดของแมชชีนเลิร์นนิงอาจผิดพลาดได้ - Unite.AI
เชื่อมต่อกับเรา

ปัญญาประดิษฐ์

ข้อสันนิษฐานทั่วไปเกี่ยวกับความผิดปกติของการเรียนรู้ของเครื่องอาจผิดพลาดได้

วันที่อัพเดท on

โครงข่ายประสาทเทียมเชิงลึกเป็นหนึ่งในลักษณะพื้นฐานที่สุดของปัญญาประดิษฐ์ (AI) เนื่องจากใช้ในการประมวลผลภาพและข้อมูลผ่านการสร้างแบบจำลองทางคณิตศาสตร์ พวกเขามีหน้าที่รับผิดชอบต่อความก้าวหน้าที่ยิ่งใหญ่ที่สุดในสาขานี้ แต่พวกเขาก็ทำงานผิดปกติในลักษณะต่างๆ การทำงานผิดปกติเหล่านี้อาจมีผลกระทบเพียงเล็กน้อยหรือไม่มีเลยก็ได้ เช่น การระบุที่ผิดพลาดแบบง่ายๆ ไปจนถึงผลกระทบที่รุนแรงและร้ายแรงกว่า เช่น การทำงานผิดพลาดแบบไร้คนขับ

งานวิจัยใหม่จาก University of Houston ชี้ให้เห็นว่าข้อสันนิษฐานทั่วไปของเราเกี่ยวกับการทำงานผิดพลาดเหล่านี้อาจผิดพลาดได้ ซึ่งอาจช่วยประเมินความน่าเชื่อถือของเครือข่ายในอนาคตได้

กระดาษถูกตีพิมพ์ลงที่ ปัญญาเครื่องจักรธรรมชาติ ในเดือนพฤศจิกายน

“ตัวอย่างฝ่ายตรงข้าม”

การเรียนรู้ของเครื่องและ AI ประเภทอื่นๆ มีความสำคัญในหลายภาคส่วนและงานต่างๆ เช่น ระบบธนาคารและระบบรักษาความปลอดภัยทางไซเบอร์ ตามที่ Cameron Buckner รองศาสตราจารย์ด้านปรัชญาที่ UH กล่าวไว้ จะต้องมีความเข้าใจถึงความล้มเหลวที่เกิดจาก "ตัวอย่างที่เป็นปฏิปักษ์" ตัวอย่างฝ่ายตรงข้ามเหล่านี้เกิดขึ้นเมื่อระบบโครงข่ายประสาทเทียมระดับลึกตัดสินภาพและข้อมูลอื่นๆ ผิดพลาด เมื่อพบข้อมูลนอกอินพุตการฝึกอบรมที่ใช้ในการพัฒนาเครือข่าย

ตัวอย่างที่เป็นปฏิปักษ์นั้นหาได้ยาก เนื่องจากหลายครั้งพวกมันถูกสร้างหรือค้นพบโดยเครือข่ายแมชชีนเลิร์นนิงอื่น

“เหตุการณ์ที่เป็นปฏิปักษ์เหล่านี้บางเหตุการณ์อาจเป็นสิ่งประดิษฐ์แทน และเราจำเป็นต้องรู้ให้ดียิ่งขึ้นว่าเหตุการณ์เหล่านี้คืออะไร เพื่อจะได้รู้ว่าเครือข่ายเหล่านี้มีความน่าเชื่อถือเพียงใด” บัคเนอร์เขียน

Buckner กำลังบอกว่าความผิดปกติอาจเกิดจากปฏิสัมพันธ์ระหว่างรูปแบบจริงที่เกี่ยวข้องและสิ่งที่เครือข่ายกำหนดไว้ในการประมวลผล หมายความว่าไม่ใช่ความผิดพลาดทั้งหมด

รูปแบบเป็นสิ่งประดิษฐ์

Buckner กล่าวว่า "การทำความเข้าใจความหมายของตัวอย่างที่เป็นปฏิปักษ์จำเป็นต้องสำรวจความเป็นไปได้ที่สาม: อย่างน้อยรูปแบบเหล่านี้บางส่วนเป็นสิ่งประดิษฐ์" Buckner กล่าว “ดังนั้น ในปัจจุบันมีทั้งต้นทุนในการละทิ้งรูปแบบเหล่านี้และอันตรายจากการใช้อย่างไร้เดียงสา”

แม้ว่าจะไม่ใช่กรณีนี้ตลอดเวลา แต่การกระทำที่ผิดพลาดโดยเจตนาถือเป็นความเสี่ยงสูงสุดเกี่ยวกับเหตุการณ์ที่เป็นปฏิปักษ์เหล่านี้ซึ่งเป็นสาเหตุให้แมชชีนเลิร์นนิงทำงานผิดปกติ

“หมายความว่าผู้มุ่งร้ายสามารถหลอกระบบที่พึ่งพาเครือข่ายที่เชื่อถือได้” บัคเนอร์กล่าว “นั่นมีแอปพลิเคชันความปลอดภัย”

นี่อาจเป็นแฮ็กเกอร์ที่เจาะระบบรักษาความปลอดภัยที่ใช้เทคโนโลยีการจดจำใบหน้า หรือติดป้ายจราจรผิดเพื่อสร้างความสับสนให้กับยานพาหนะอัตโนมัติ

งานวิจัยอื่นๆ ก่อนหน้านี้ได้แสดงให้เห็นว่าตัวอย่างของฝ่ายตรงข้ามบางส่วนนั้นเกิดขึ้นตามธรรมชาติ โดยเกิดขึ้นเมื่อระบบแมชชีนเลิร์นนิงตีความข้อมูลอย่างผิดๆ ผ่านการโต้ตอบที่ไม่คาดคิด ซึ่งแตกต่างจากข้อผิดพลาดในข้อมูล ตัวอย่างที่เกิดขึ้นตามธรรมชาติเหล่านี้หาได้ยาก และวิธีเดียวในปัจจุบันที่จะค้นพบสิ่งเหล่านี้คือผ่าน AI

อย่างไรก็ตาม Buckner กล่าวว่านักวิจัยจำเป็นต้องคิดใหม่ถึงวิธีการจัดการกับความผิดปกติ

ความผิดปกติหรือสิ่งประดิษฐ์เหล่านี้ได้รับการอธิบายโดย Buckner ผ่านการเปรียบเทียบแสงแฟลร์ในภาพถ่าย ซึ่งไม่ได้เกิดจากข้อบกพร่องในเลนส์กล้อง แต่เกิดจากปฏิกิริยาของแสงกับกล้อง

หากรู้วิธีตีความแสงแฟลร์ของเลนส์ ข้อมูลสำคัญ เช่น ตำแหน่งของดวงอาทิตย์จะถูกดึงออกมา ด้วยเหตุนี้ Buckner จึงคิดว่าเป็นไปได้ที่จะดึงข้อมูลที่มีค่าพอๆ กันจากเหตุการณ์ไม่พึงประสงค์ในแมชชีนเลิร์นนิงที่เกิดจากสิ่งประดิษฐ์

Buckner ยังกล่าวอีกว่าทั้งหมดนี้ไม่ได้หมายความว่าการเรียนรู้เชิงลึกไม่ถูกต้องโดยอัตโนมัติ

“เหตุการณ์ที่เป็นปฏิปักษ์บางอย่างอาจเป็นสิ่งประดิษฐ์” เขากล่าว “เราต้องรู้ว่าสิ่งประดิษฐ์เหล่านี้คืออะไร เพื่อที่เราจะได้รู้ว่าเครือข่ายมีความน่าเชื่อถือเพียงใด”

Alex McFarland เป็นนักข่าวและนักเขียนด้าน AI ที่สำรวจการพัฒนาล่าสุดในด้านปัญญาประดิษฐ์ เขาได้ร่วมมือกับสตาร์ทอัพด้าน AI และสิ่งพิมพ์ต่างๆ มากมายทั่วโลก