ปัญญาประดิษฐ์
ข้อสันนิษฐานทั่วไปเกี่ยวกับความผิดปกติของการเรียนรู้ของเครื่องอาจผิดพลาดได้
โครงข่ายประสาทเทียมเชิงลึกเป็นหนึ่งในลักษณะพื้นฐานที่สุดของปัญญาประดิษฐ์ (AI) เนื่องจากใช้ในการประมวลผลภาพและข้อมูลผ่านการสร้างแบบจำลองทางคณิตศาสตร์ พวกเขามีหน้าที่รับผิดชอบต่อความก้าวหน้าที่ยิ่งใหญ่ที่สุดในสาขานี้ แต่พวกเขาก็ทำงานผิดปกติในลักษณะต่างๆ การทำงานผิดปกติเหล่านี้อาจมีผลกระทบเพียงเล็กน้อยหรือไม่มีเลยก็ได้ เช่น การระบุที่ผิดพลาดแบบง่ายๆ ไปจนถึงผลกระทบที่รุนแรงและร้ายแรงกว่า เช่น การทำงานผิดพลาดแบบไร้คนขับ
งานวิจัยใหม่จาก University of Houston ชี้ให้เห็นว่าข้อสันนิษฐานทั่วไปของเราเกี่ยวกับการทำงานผิดพลาดเหล่านี้อาจผิดพลาดได้ ซึ่งอาจช่วยประเมินความน่าเชื่อถือของเครือข่ายในอนาคตได้
กระดาษถูกตีพิมพ์ลงที่ ปัญญาเครื่องจักรธรรมชาติ ในเดือนพฤศจิกายน
“ตัวอย่างฝ่ายตรงข้าม”
การเรียนรู้ของเครื่องและ AI ประเภทอื่นๆ มีความสำคัญในหลายภาคส่วนและงานต่างๆ เช่น ระบบธนาคารและระบบรักษาความปลอดภัยทางไซเบอร์ ตามที่ Cameron Buckner รองศาสตราจารย์ด้านปรัชญาที่ UH กล่าวไว้ จะต้องมีความเข้าใจถึงความล้มเหลวที่เกิดจาก "ตัวอย่างที่เป็นปฏิปักษ์" ตัวอย่างฝ่ายตรงข้ามเหล่านี้เกิดขึ้นเมื่อระบบโครงข่ายประสาทเทียมระดับลึกตัดสินภาพและข้อมูลอื่นๆ ผิดพลาด เมื่อพบข้อมูลนอกอินพุตการฝึกอบรมที่ใช้ในการพัฒนาเครือข่าย
ตัวอย่างที่เป็นปฏิปักษ์นั้นหาได้ยาก เนื่องจากหลายครั้งพวกมันถูกสร้างหรือค้นพบโดยเครือข่ายแมชชีนเลิร์นนิงอื่น
“เหตุการณ์ที่เป็นปฏิปักษ์เหล่านี้บางเหตุการณ์อาจเป็นสิ่งประดิษฐ์แทน และเราจำเป็นต้องรู้ให้ดียิ่งขึ้นว่าเหตุการณ์เหล่านี้คืออะไร เพื่อจะได้รู้ว่าเครือข่ายเหล่านี้มีความน่าเชื่อถือเพียงใด” บัคเนอร์เขียน
Buckner กำลังบอกว่าความผิดปกติอาจเกิดจากปฏิสัมพันธ์ระหว่างรูปแบบจริงที่เกี่ยวข้องและสิ่งที่เครือข่ายกำหนดไว้ในการประมวลผล หมายความว่าไม่ใช่ความผิดพลาดทั้งหมด
รูปแบบเป็นสิ่งประดิษฐ์
Buckner กล่าวว่า "การทำความเข้าใจความหมายของตัวอย่างที่เป็นปฏิปักษ์จำเป็นต้องสำรวจความเป็นไปได้ที่สาม: อย่างน้อยรูปแบบเหล่านี้บางส่วนเป็นสิ่งประดิษฐ์" Buckner กล่าว “ดังนั้น ในปัจจุบันมีทั้งต้นทุนในการละทิ้งรูปแบบเหล่านี้และอันตรายจากการใช้อย่างไร้เดียงสา”
แม้ว่าจะไม่ใช่กรณีนี้ตลอดเวลา แต่การกระทำที่ผิดพลาดโดยเจตนาถือเป็นความเสี่ยงสูงสุดเกี่ยวกับเหตุการณ์ที่เป็นปฏิปักษ์เหล่านี้ซึ่งเป็นสาเหตุให้แมชชีนเลิร์นนิงทำงานผิดปกติ
“หมายความว่าผู้มุ่งร้ายสามารถหลอกระบบที่พึ่งพาเครือข่ายที่เชื่อถือได้” บัคเนอร์กล่าว “นั่นมีแอปพลิเคชันความปลอดภัย”
นี่อาจเป็นแฮ็กเกอร์ที่เจาะระบบรักษาความปลอดภัยที่ใช้เทคโนโลยีการจดจำใบหน้า หรือติดป้ายจราจรผิดเพื่อสร้างความสับสนให้กับยานพาหนะอัตโนมัติ
งานวิจัยอื่นๆ ก่อนหน้านี้ได้แสดงให้เห็นว่าตัวอย่างของฝ่ายตรงข้ามบางส่วนนั้นเกิดขึ้นตามธรรมชาติ โดยเกิดขึ้นเมื่อระบบแมชชีนเลิร์นนิงตีความข้อมูลอย่างผิดๆ ผ่านการโต้ตอบที่ไม่คาดคิด ซึ่งแตกต่างจากข้อผิดพลาดในข้อมูล ตัวอย่างที่เกิดขึ้นตามธรรมชาติเหล่านี้หาได้ยาก และวิธีเดียวในปัจจุบันที่จะค้นพบสิ่งเหล่านี้คือผ่าน AI
อย่างไรก็ตาม Buckner กล่าวว่านักวิจัยจำเป็นต้องคิดใหม่ถึงวิธีการจัดการกับความผิดปกติ
ความผิดปกติหรือสิ่งประดิษฐ์เหล่านี้ได้รับการอธิบายโดย Buckner ผ่านการเปรียบเทียบแสงแฟลร์ในภาพถ่าย ซึ่งไม่ได้เกิดจากข้อบกพร่องในเลนส์กล้อง แต่เกิดจากปฏิกิริยาของแสงกับกล้อง
หากรู้วิธีตีความแสงแฟลร์ของเลนส์ ข้อมูลสำคัญ เช่น ตำแหน่งของดวงอาทิตย์จะถูกดึงออกมา ด้วยเหตุนี้ Buckner จึงคิดว่าเป็นไปได้ที่จะดึงข้อมูลที่มีค่าพอๆ กันจากเหตุการณ์ไม่พึงประสงค์ในแมชชีนเลิร์นนิงที่เกิดจากสิ่งประดิษฐ์
Buckner ยังกล่าวอีกว่าทั้งหมดนี้ไม่ได้หมายความว่าการเรียนรู้เชิงลึกไม่ถูกต้องโดยอัตโนมัติ
“เหตุการณ์ที่เป็นปฏิปักษ์บางอย่างอาจเป็นสิ่งประดิษฐ์” เขากล่าว “เราต้องรู้ว่าสิ่งประดิษฐ์เหล่านี้คืออะไร เพื่อที่เราจะได้รู้ว่าเครือข่ายมีความน่าเชื่อถือเพียงใด”