Connect with us

Bộ Quy Tắc Hành Vi Mới Của EU Sẽ Tác Động Đến Quy Định

Quy định

Bộ Quy Tắc Hành Vi Mới Của EU Sẽ Tác Động Đến Quy Định

mm

Ủy Ban Châu Âu gần đây đã giới thiệu một Bộ Quy Tắc Hành Vi có thể thay đổi cách các công ty AI hoạt động. Nó không chỉ là một bộ hướng dẫn khác mà là một sự thay đổi hoàn toàn về giám sát AI mà ngay cả những người chơi lớn nhất cũng không thể bỏ qua.

Điều gì làm cho nó khác biệt? Lần đầu tiên, chúng ta thấy các quy tắc cụ thể có thể buộc các công ty như OpenAI và Google phải mở mô hình của họ cho thử nghiệm bên ngoài, một sự thay đổi cơ bản trong cách các hệ thống AI có thể được phát triển và triển khai ở châu Âu.

Các Người Chơi Mới Trong Giám Sát AI

Ủy Ban Châu Âu đã tạo ra một khuôn khổ nhắm vào những gì họ gọi là hệ thống AI có “rủi ro hệ thống.” Chúng ta đang nói về các mô hình được đào tạo với hơn 10^25 FLOPs của sức mạnh tính toán – một ngưỡng mà GPT-4 đã vượt qua.

Các công ty sẽ cần báo cáo kế hoạch đào tạo AI của họ hai tuần trước khi họ thậm chí bắt đầu.

Tại trung tâm của hệ thống mới này là hai tài liệu chính: Khung An Toàn và Bảo Mật (SSF) và Báo Cáo An Toàn và Bảo Mật (SSR). SSF là một bản đồ đường dài toàn diện để quản lý rủi ro AI, bao gồm mọi thứ từ việc xác định rủi ro ban đầu đến các biện pháp bảo mật liên tục. Trong khi đó, SSR đóng vai trò là một công cụ tài liệu chi tiết cho từng mô hình riêng lẻ.

Thử Nghiệm Bên Ngoài Cho Mô Hình AI Rủi Ro Cao

Ủy Ban đang yêu cầu thử nghiệm bên ngoài cho mô hình AI rủi ro cao. Đây không phải là kiểm tra chất lượng nội bộ tiêu chuẩn – các chuyên gia độc lập và Văn Phòng AI của EU đang xem xét kỹ lưỡng các hệ thống này.

Các tác động là lớn. Nếu bạn là OpenAI hoặc Google, bạn đột nhiên cần phải để các chuyên gia bên ngoài kiểm tra hệ thống của mình. Bản thảo cụ thể nêu rõ rằng các công ty phải “đảm bảo thử nghiệm chuyên gia độc lập trước khi triển khai.” Đó là một sự thay đổi lớn so với cách tiếp cận tự điều chỉnh hiện tại.

Câu hỏi đặt ra: Ai đủ tiêu chuẩn để kiểm tra các hệ thống AI phức tạp này? Văn Phòng AI của EU đang bước vào lãnh thổ chưa từng được khám phá trước đây. Họ sẽ cần các chuyên gia có thể hiểu và đánh giá công nghệ AI mới trong khi duy trì bí mật nghiêm ngặt về những gì họ phát hiện.

Yêu cầu thử nghiệm bên ngoài này có thể trở thành bắt buộc trên toàn EU thông qua một hành động thực hiện của Ủy Ban. Các công ty có thể cố gắng chứng minh tuân thủ thông qua “các phương tiện thay thế đầy đủ,” nhưng không ai biết chắc chắn điều đó có nghĩa là gì trong thực tế.

Bảo Vệ Bản Quyền Trở Nên Nghiêm Túc

EU cũng đang trở nên nghiêm túc về bản quyền. Họ đang buộc các nhà cung cấp AI phải tạo ra các chính sách rõ ràng về cách họ xử lý tài sản trí tuệ.

Ủy Ban đang hỗ trợ tiêu chuẩn robots.txt – một tệp đơn giản cho biết các trình thu thập web có thể và không thể đi đến đâu. Nếu một trang web nói “không” thông qua robots.txt, các công ty AI không thể đơn giản bỏ qua và đào tạo trên nội dung đó. Các công cụ tìm kiếm không thể phạt các trang web vì sử dụng các loại trừ này. Đó là một động thái quyền lực đưa các nhà tạo nội dung trở lại vị trí lái xe.

Các công ty AI cũng sẽ phải tích cực tránh các trang web vi phạm bản quyền khi thu thập dữ liệu đào tạo. EU thậm chí còn chỉ cho họ “Danh Sách Theo Dõi và Vi Phạm Bản Quyền” làm điểm khởi đầu.

Điều Này Có Nghĩa Là Gì Cho Tương Lai

EU đang tạo ra một sân chơi hoàn toàn mới cho sự phát triển AI. Những yêu cầu này sẽ ảnh hưởng đến mọi thứ từ cách các công ty lên kế hoạch cho dự án AI của họ đến cách họ thu thập dữ liệu đào tạo.

Mỗi công ty AI lớn hiện đang phải đối mặt với một lựa chọn. Họ cần phải:

  • Mở mô hình của họ cho thử nghiệm bên ngoài
  • Xác định những “phương tiện thay thế” bí ẩn của tuân thủ
  • Hoặc có thể hạn chế hoạt động của họ trên thị trường EU

Thời gian ở đây cũng rất quan trọng. Đây không phải là một quy định tương lai xa – Ủy Ban đang di chuyển nhanh. Họ đã quản lý để có khoảng 1.000 bên liên quan chia thành bốn nhóm làm việc, tất cả đều hoàn thiện chi tiết về cách thức hoạt động này.

Đối với các công ty xây dựng hệ thống AI, những ngày “di chuyển nhanh và tìm ra quy tắc sau” có thể đang kết thúc. Họ sẽ cần bắt đầu suy nghĩ về những yêu cầu này ngay bây giờ, không phải khi chúng trở nên bắt buộc. Điều đó có nghĩa là:

  • Lập kế hoạch cho các cuộc kiểm toán bên ngoài trong dòng thời gian phát triển
  • Thiết lập các hệ thống tuân thủ bản quyền mạnh mẽ
  • Xây dựng các khuôn khổ tài liệu phù hợp với yêu cầu của EU

Tác động thực sự của những quy định này sẽ được tiết lộ trong những tháng tới. Trong khi một số công ty có thể tìm kiếm các giải pháp thay thế, những công ty khác sẽ tích hợp những yêu cầu này vào quy trình phát triển của họ. Khung khổ của EU có thể ảnh hưởng đến cách phát triển AI diễn ra trên toàn cầu, đặc biệt nếu các khu vực khác theo đuổi các biện pháp giám sát tương tự. Khi những quy tắc này chuyển từ bản thảo sang thực hiện, ngành công nghiệp AI đang đối mặt với sự thay đổi quy định lớn nhất từ trước đến nay.

Alex McFarland là một nhà báo và nhà văn về trí tuệ nhân tạo, khám phá những phát triển mới nhất trong lĩnh vực trí tuệ nhân tạo. Ông đã hợp tác với nhiều công ty khởi nghiệp và xuất bản về trí tuệ nhân tạo trên toàn thế giới.