Connect with us

คู่มือพฤติกรรม AI ใหม่ของ EU ที่จะส่งผลกระทบต่อการกำกับดูแล

กฎระเบียบ

คู่มือพฤติกรรม AI ใหม่ของ EU ที่จะส่งผลกระทบต่อการกำกับดูแล

mm

คณะกรรมาธิการยุโรปได้แนะนำ คู่มือพฤติกรรม ที่อาจเปลี่ยนแปลงวิธีการดำเนินงานของบริษัท AI ไม่ใช่แค่แนวทางใหม่ แต่เป็นการเปลี่ยนแปลงระบบการกำกับดูแล AI ทั้งหมดที่ผู้เล่นรายใหญ่ไม่สามารถเพิกเฉยได้

สิ่งที่ทำให้คู่มือนี้แตกต่างคืออะไร สำหรับครั้งแรก เราได้เห็นกฎที่เป็นรูปธรรมที่อาจบังคับให้บริษัทอย่าง OpenAI และ Google เปิดโมเดลของตนสำหรับการทดสอบภายนอก ซึ่งเป็นการเปลี่ยนแปลงพื้นฐานวิธีการพัฒนาและใช้งานระบบ AI ในยุโรป

ผู้เล่นใหม่ในด้านการกำกับดูแล AI

คณะกรรมาธิการยุโรปได้สร้างกรอบการทำงานที่มุ่งเป้าไปที่ระบบ AI ที่มี “ความเสี่ยงเชิงระบบ” เรากำลังพูดถึงโมเดลที่ได้รับการฝึกฝนด้วยพลังการคำนวณมากกว่า 10^25 FLOPs – ขอบเขตที่ GPT-4 ได้พ้นไปแล้ว

บริษัทต่างๆ จะต้องรายงานแผนการฝึกอบรม AI ของตน 2 สัปดาห์ก่อนที่จะเริ่มต้น

ที่ศูนย์กลางของระบบใหม่นี้มีเอกสารสำคัญ 2 ฉบับ ได้แก่ กรอบการทำงานด้านความปลอดภัยและความมั่นคง (SSF) และรายงานด้านความปลอดภัยและความมั่นคง (SSR) SSF เป็นแผนการครอบคลุมสำหรับการจัดการความเสี่ยง AI ซึ่งครอบคลุมทุกอย่างตั้งแต่การระบุความเสี่ยงเบื้องต้นไปจนถึงมาตรการรักษาความปลอดภัยอย่างต่อเนื่อง ในขณะที่ SSR ทำหน้าที่เป็นเครื่องมือการบันทึกโดยละเอียดสำหรับโมเดลแต่ละรายการ

การทดสอบภายนอกสำหรับโมเดล AI ที่มีความเสี่ยงสูง

คณะกรรมาธิการกำลังเรียกร้องให้มีการทดสอบภายนอกสำหรับโมเดล AI ที่มีความเสี่ยงสูง นี่ไม่ใช่การตรวจสอบคุณภาพภายในมาตรฐาน – ผู้เชี่ยวชาญอิสระและสำนักงาน AI ของ EU กำลังเข้าไปดูระบบเหล่านี้

ผลกระทบมีขนาดใหญ่ หากคุณเป็น OpenAI หรือ Google คุณจะต้องให้ผู้เชี่ยวชาญภายนอกตรวจสอบระบบของคุณ ร่างเอกสารระบุอย่างชัดเจนว่าบริษัทต่างๆ จะต้อง “รับรองการทดสอบโดยผู้เชี่ยวชาญอิสระก่อนการนำไปใช้งาน” นี่เป็นการเปลี่ยนแปลงครั้งใหญ่จากแนวทางการกำกับดูแลตนเองในปัจจุบัน

คำถามเกิดขึ้น: ใครมีคุณสมบัติที่จะทดสอบระบบ AI ที่ซับซ้อนเหล่านี้ สำนักงาน AI ของ EU กำลังเข้าสู่ดินแดนที่ไม่เคยสำรวจมาก่อน พวกเขาจะต้องมีผู้เชี่ยวชาญที่สามารถเข้าใจและประเมินเทคโนโลยี AI ใหม่ๆ ในขณะเดียวกันก็รักษาความลับเกี่ยวกับสิ่งที่พวกเขา发现

ข้อกำหนดการทดสอบภายนอกนี้อาจกลายเป็นข้อบังคับที่บังคับใช้ทั่วทั้ง EU ผ่านการออกข้อบังคับของ คณะกรรมาธิการ บริษัทต่างๆ อาจพยายามแสดงให้เห็นถึงความสอดคล้องผ่าน “วิธีการทดแทน” ที่เหมาะสม แต่ไม่มีใครแน่ใจว่าสิ่งนั้นหมายถึงอะไรในทางปฏิบัติ

การคุ้มครองลิขสิทธิ์มีความสำคัญ

EU ยังให้ความสำคัญกับการคุ้มครองลิขสิทธิ์อย่างจริงจัง พวกเขากำลังบังคับให้ผู้ให้บริการ AI สร้างนโยบายที่ชัดเจนเกี่ยวกับวิธีการจัดการทรัพย์สินทางปัญญา

คณะกรรมาธิการกำลังสนับสนุนมาตรฐาน robots.txt – ไฟล์ง่ายๆ ที่บอกเว็บครอว์เลอร์ว่าสามารถไปที่ไหนและไม่สามารถไปที่ไหน หากเว็บไซต์ระบุ “ไม่” ผ่าน robots.txt บริษัท AI ไม่สามารถเพิกเฉยและฝึกอบรมบนเนื้อหานั้นได้ เครื่องมือค้นหาจะไม่สามารถลงโทษเว็บไซต์ที่ใช้การยกเว้นเหล่านี้ได้ นี่เป็นการเคลื่อนไหวที่ให้ผู้สร้างเนื้อหากลับมาควบคุม

บริษัท AI ยังต้องหลีกเลี่ยงเว็บไซต์ละเมิดลิขสิทธิ์เมื่อพวกเขากำลังรวบรวมข้อมูลฝึกอบรม EU ยังชี้ให้พวกเขาไปที่ “รายการเฝ้าระวังการปลอมแปลงและการละเมิดลิขสิทธิ์” เป็นจุดเริ่มต้น

สิ่งนี้หมายถึงอะไรสำหรับอนาคต

EU กำลังสร้างสนามแข่งขันใหม่สำหรับการพัฒนา AI ข้อกำหนดเหล่านี้จะส่งผลกระทบต่อทุกอย่างตั้งแต่วิธีการวางแผนโครงการ AI ของบริษัทต่างๆ ไปจนถึงวิธีการรวบรวมข้อมูลฝึกอบรม

ทุกๆ บริษัท AI ที่สำคัญกำลังเผชิญกับการตัดสินใจ พวกเขาต้อง:

  • เปิดโมเดลของตนสำหรับการทดสอบภายนอก
  • ค้นหาว่า “วิธีการทดแทน” ของความสอดคล้องดูเหมือนอะไร
  • หรืออาจจำกัดการดำเนินงานในตลาด EU

กรอบเวลาในนี้มีความสำคัญเช่นกัน นี่ไม่ใช่การกำกับดูแลในอนาคตที่อยู่ห่างไกล – คณะกรรมาธิการกำลังดำเนินการอย่างรวดเร็ว พวกเขาสามารถรวบรวมผู้มีส่วนได้ส่วนเสียได้ประมาณ 1,000 คนแบ่งออกเป็น 4 กลุ่มทำงานที่กำลังทำงานรายละเอียดของวิธีการทำงานนี้

สำหรับบริษัทที่สร้างระบบ AI วันๆ ที่ “เคลื่อนไหวอย่างรวดเร็วและคิดถึงกฎหลังๆ” อาจกำลังจะสิ้นสุดลง พวกเขาจะต้องเริ่มคิดถึงข้อกำหนดเหล่านี้ตอนนี้ ไม่ใช่เมื่อพวกมันกลายเป็นข้อบังคับ ซึ่งหมายถึง:

  • การวางแผนสำหรับการตรวจสอบภายนอกในเส้นเวลาการพัฒนา
  • การสร้างระบบการปฏิบัติตามลิขสิทธิ์ที่มั่นคง
  • การสร้างเฟรมเวิร์กเอกสารที่ตรงกับข้อกำหนดของ EU

ผลกระทบจริงของข้อบังคับเหล่านี้จะเกิดขึ้นในช่วงเดือนข้างหน้า ในขณะที่บางบริษัทอาจพยายามหาวิธีหลบเลี่ยง อีกบริษัทหนึ่งจะรวมข้อกำหนดเหล่านี้เข้ากับกระบวนการ phát triểnของตน กรอบการทำงานของ EU อาจมีอิทธิพลต่อวิธีการพัฒนา AI ทั่วโลก โดยเฉพาะอย่างยิ่งหากภูมิภาคอื่นๆ ติดตามมาตรการกำกับดูแลที่คล้ายกัน เมื่อกฎเหล่านี้เปลี่ยนจากฉบับร่างไปสู่การนำไปใช้ อุตสาหกรรม AI จะเผชิญกับการเปลี่ยนแปลงการกำกับดูแลที่ใหญ่ที่สุด

Alex McFarland เป็นนักข่าวและนักเขียน AI ที่สำรวจการพัฒนาล่าสุดในด้านปัญญาประดิษฐ์ เขาได้ร่วมงานกับสตาร์ทอัพ AI และสื่อสิ่งพิมพ์ต่างๆ ทั่วโลก