กฎระเบียบ
คู่มือพฤติกรรม AI ใหม่ของ EU ที่จะส่งผลกระทบต่อการกำกับดูแล

คณะกรรมาธิการยุโรปได้แนะนำ คู่มือพฤติกรรม ที่อาจเปลี่ยนแปลงวิธีการดำเนินงานของบริษัท AI ไม่ใช่แค่แนวทางใหม่ แต่เป็นการเปลี่ยนแปลงระบบการกำกับดูแล AI ทั้งหมดที่ผู้เล่นรายใหญ่ไม่สามารถเพิกเฉยได้
สิ่งที่ทำให้คู่มือนี้แตกต่างคืออะไร สำหรับครั้งแรก เราได้เห็นกฎที่เป็นรูปธรรมที่อาจบังคับให้บริษัทอย่าง OpenAI และ Google เปิดโมเดลของตนสำหรับการทดสอบภายนอก ซึ่งเป็นการเปลี่ยนแปลงพื้นฐานวิธีการพัฒนาและใช้งานระบบ AI ในยุโรป
ผู้เล่นใหม่ในด้านการกำกับดูแล AI
คณะกรรมาธิการยุโรปได้สร้างกรอบการทำงานที่มุ่งเป้าไปที่ระบบ AI ที่มี “ความเสี่ยงเชิงระบบ” เรากำลังพูดถึงโมเดลที่ได้รับการฝึกฝนด้วยพลังการคำนวณมากกว่า 10^25 FLOPs – ขอบเขตที่ GPT-4 ได้พ้นไปแล้ว
บริษัทต่างๆ จะต้องรายงานแผนการฝึกอบรม AI ของตน 2 สัปดาห์ก่อนที่จะเริ่มต้น
ที่ศูนย์กลางของระบบใหม่นี้มีเอกสารสำคัญ 2 ฉบับ ได้แก่ กรอบการทำงานด้านความปลอดภัยและความมั่นคง (SSF) และรายงานด้านความปลอดภัยและความมั่นคง (SSR) SSF เป็นแผนการครอบคลุมสำหรับการจัดการความเสี่ยง AI ซึ่งครอบคลุมทุกอย่างตั้งแต่การระบุความเสี่ยงเบื้องต้นไปจนถึงมาตรการรักษาความปลอดภัยอย่างต่อเนื่อง ในขณะที่ SSR ทำหน้าที่เป็นเครื่องมือการบันทึกโดยละเอียดสำหรับโมเดลแต่ละรายการ
การทดสอบภายนอกสำหรับโมเดล AI ที่มีความเสี่ยงสูง
คณะกรรมาธิการกำลังเรียกร้องให้มีการทดสอบภายนอกสำหรับโมเดล AI ที่มีความเสี่ยงสูง นี่ไม่ใช่การตรวจสอบคุณภาพภายในมาตรฐาน – ผู้เชี่ยวชาญอิสระและสำนักงาน AI ของ EU กำลังเข้าไปดูระบบเหล่านี้
ผลกระทบมีขนาดใหญ่ หากคุณเป็น OpenAI หรือ Google คุณจะต้องให้ผู้เชี่ยวชาญภายนอกตรวจสอบระบบของคุณ ร่างเอกสารระบุอย่างชัดเจนว่าบริษัทต่างๆ จะต้อง “รับรองการทดสอบโดยผู้เชี่ยวชาญอิสระก่อนการนำไปใช้งาน” นี่เป็นการเปลี่ยนแปลงครั้งใหญ่จากแนวทางการกำกับดูแลตนเองในปัจจุบัน
คำถามเกิดขึ้น: ใครมีคุณสมบัติที่จะทดสอบระบบ AI ที่ซับซ้อนเหล่านี้ สำนักงาน AI ของ EU กำลังเข้าสู่ดินแดนที่ไม่เคยสำรวจมาก่อน พวกเขาจะต้องมีผู้เชี่ยวชาญที่สามารถเข้าใจและประเมินเทคโนโลยี AI ใหม่ๆ ในขณะเดียวกันก็รักษาความลับเกี่ยวกับสิ่งที่พวกเขา发现
ข้อกำหนดการทดสอบภายนอกนี้อาจกลายเป็นข้อบังคับที่บังคับใช้ทั่วทั้ง EU ผ่านการออกข้อบังคับของ คณะกรรมาธิการ บริษัทต่างๆ อาจพยายามแสดงให้เห็นถึงความสอดคล้องผ่าน “วิธีการทดแทน” ที่เหมาะสม แต่ไม่มีใครแน่ใจว่าสิ่งนั้นหมายถึงอะไรในทางปฏิบัติ
การคุ้มครองลิขสิทธิ์มีความสำคัญ
EU ยังให้ความสำคัญกับการคุ้มครองลิขสิทธิ์อย่างจริงจัง พวกเขากำลังบังคับให้ผู้ให้บริการ AI สร้างนโยบายที่ชัดเจนเกี่ยวกับวิธีการจัดการทรัพย์สินทางปัญญา
คณะกรรมาธิการกำลังสนับสนุนมาตรฐาน robots.txt – ไฟล์ง่ายๆ ที่บอกเว็บครอว์เลอร์ว่าสามารถไปที่ไหนและไม่สามารถไปที่ไหน หากเว็บไซต์ระบุ “ไม่” ผ่าน robots.txt บริษัท AI ไม่สามารถเพิกเฉยและฝึกอบรมบนเนื้อหานั้นได้ เครื่องมือค้นหาจะไม่สามารถลงโทษเว็บไซต์ที่ใช้การยกเว้นเหล่านี้ได้ นี่เป็นการเคลื่อนไหวที่ให้ผู้สร้างเนื้อหากลับมาควบคุม
บริษัท AI ยังต้องหลีกเลี่ยงเว็บไซต์ละเมิดลิขสิทธิ์เมื่อพวกเขากำลังรวบรวมข้อมูลฝึกอบรม EU ยังชี้ให้พวกเขาไปที่ “รายการเฝ้าระวังการปลอมแปลงและการละเมิดลิขสิทธิ์” เป็นจุดเริ่มต้น
สิ่งนี้หมายถึงอะไรสำหรับอนาคต
EU กำลังสร้างสนามแข่งขันใหม่สำหรับการพัฒนา AI ข้อกำหนดเหล่านี้จะส่งผลกระทบต่อทุกอย่างตั้งแต่วิธีการวางแผนโครงการ AI ของบริษัทต่างๆ ไปจนถึงวิธีการรวบรวมข้อมูลฝึกอบรม
ทุกๆ บริษัท AI ที่สำคัญกำลังเผชิญกับการตัดสินใจ พวกเขาต้อง:
- เปิดโมเดลของตนสำหรับการทดสอบภายนอก
- ค้นหาว่า “วิธีการทดแทน” ของความสอดคล้องดูเหมือนอะไร
- หรืออาจจำกัดการดำเนินงานในตลาด EU
กรอบเวลาในนี้มีความสำคัญเช่นกัน นี่ไม่ใช่การกำกับดูแลในอนาคตที่อยู่ห่างไกล – คณะกรรมาธิการกำลังดำเนินการอย่างรวดเร็ว พวกเขาสามารถรวบรวมผู้มีส่วนได้ส่วนเสียได้ประมาณ 1,000 คนแบ่งออกเป็น 4 กลุ่มทำงานที่กำลังทำงานรายละเอียดของวิธีการทำงานนี้
สำหรับบริษัทที่สร้างระบบ AI วันๆ ที่ “เคลื่อนไหวอย่างรวดเร็วและคิดถึงกฎหลังๆ” อาจกำลังจะสิ้นสุดลง พวกเขาจะต้องเริ่มคิดถึงข้อกำหนดเหล่านี้ตอนนี้ ไม่ใช่เมื่อพวกมันกลายเป็นข้อบังคับ ซึ่งหมายถึง:
- การวางแผนสำหรับการตรวจสอบภายนอกในเส้นเวลาการพัฒนา
- การสร้างระบบการปฏิบัติตามลิขสิทธิ์ที่มั่นคง
- การสร้างเฟรมเวิร์กเอกสารที่ตรงกับข้อกำหนดของ EU
ผลกระทบจริงของข้อบังคับเหล่านี้จะเกิดขึ้นในช่วงเดือนข้างหน้า ในขณะที่บางบริษัทอาจพยายามหาวิธีหลบเลี่ยง อีกบริษัทหนึ่งจะรวมข้อกำหนดเหล่านี้เข้ากับกระบวนการ phát triểnของตน กรอบการทำงานของ EU อาจมีอิทธิพลต่อวิธีการพัฒนา AI ทั่วโลก โดยเฉพาะอย่างยิ่งหากภูมิภาคอื่นๆ ติดตามมาตรการกำกับดูแลที่คล้ายกัน เมื่อกฎเหล่านี้เปลี่ยนจากฉบับร่างไปสู่การนำไปใช้ อุตสาหกรรม AI จะเผชิญกับการเปลี่ยนแปลงการกำกับดูแลที่ใหญ่ที่สุด












