Lãnh đạo tư tưởng
Mẫu GPAI Mới Của Ủy Ban Châu Âu – Điều Này Có Nghĩa Là Gì Đối Với Việc Huấn Luyện AI?

Vào tháng 7, Ủy Ban Châu Âu (EC) đã phát hành một mẫu trí tuệ nhân tạo tổng quát (GPAI) mới. Điều này có nghĩa là các nhà cung cấp AI phải tiết lộ nội dung được nhập vào các mô hình để huấn luyện chúng. Điều này diễn ra sau nhiều tháng và tháng của các tiêu đề về các nhà sáng tạo đề nghị nội dung được sử dụng mà không có sự đồng ý để huấn luyện AI.
Với mẫu mới này, EU đã làm rõ vị trí của mình: minh bạch hiện không thể thương lượng. Huấn luyện hộp đen, nơi một thứ gì đó được tạo ra mà không tiết lộ các hoạt động nội bộ của nó, sẽ không phải là một lựa chọn cho các nhà phát triển AI. Điều này đánh dấu một sự thay đổi đáng kể vì hoạt động ở châu Âu sẽ yêu cầu khả năng hiển thị đầy đủ vào các đầu vào mô hình và nguồn gốc dữ liệu, buộc phải đánh giá lại việc thu thập và sử dụng dữ liệu.
Nhiều người đã chỉ ra sự khác biệt rõ ràng giữa điều này và kế hoạch hành động AI gần đây của Mỹ, tập trung nặng vào việc giảm quy định. Giống như với bất kỳ luật hoặc quy định mới nào, các doanh nghiệp hiện phải đánh giá và xác định chính xác mẫu GPAI sẽ ảnh hưởng đến hoạt động như thế nào.
Nếu họ hoạt động trên các khu vực, họ sẽ làm điều tương tự với kế hoạch hành động AI của Mỹ, làm cho mọi thứ trở nên phức tạp hơn. Vì bản chất phức tạp của những điều này và thực tế là việc quy định phát triển AI theo cách này là lãnh thổ chưa được khám phá, đầu ra của các nhà phát triển có khả năng sẽ khác nhau rất nhiều.
Phân Tích Mẫu Mô Hình Trí Tuệ Nhân Tạo Tổng Quát
Vào tháng 7 năm nay, Ủy Ban Châu Âu đã công bố một mẫu bắt buộc cho các nhà cung cấp GPAI để họ có thể xuất bản một bản tóm tắt công khai về dữ liệu được sử dụng để huấn luyện các mô hình của họ. Như một phần của Đạo Luật AI của EU, các nhà cung cấp phải tiết lộ các danh mục dữ liệu như các tập dữ liệu công khai, dữ liệu được cấp phép riêng, nội dung web được thu thập, dữ liệu người dùng và dữ liệu tổng hợp. Mục tiêu là để cho phép các chủ sở hữu bản quyền, người dùng và các nhà phát triển hạ nguồn thực hiện các quyền pháp lý của họ theo luật của EU.
GPT được huấn luyện với số lượng lớn dữ liệu; tuy nhiên, trên thị trường hiện tại, có rất ít thông tin có sẵn về nguồn gốc của dữ liệu này. Bản tóm tắt công khai mà mẫu này đưa ra sẽ cung cấp một cái nhìn tổng quan toàn diện về dữ liệu được sử dụng để huấn luyện một mô hình, liệt kê các bộ sưu tập dữ liệu chính và giải thích các nguồn khác được sử dụng.
So Sánh Và Đối Chiếu, Kế Hoạch Hành Động AI Của Mỹ
Để so sánh, Mỹ kiên quyết rằng họ sẽ thắng trong cuộc đua AI và duy trì lợi thế cạnh tranh của mình so với Trung Quốc, khi chính quyền Trump công bố Kế Hoạch Hành Động AI của mình vào đầu mùa hè. Khung AI mới này nhằm mục đích tăng tốc việc xây dựng các trung tâm dữ liệu tiêu thụ năng lượng cao cấp cho các hệ thống AI bằng cách giảm các quy định về môi trường. Đồng thời, nó cũng nhằm mục đích tăng cường xuất khẩu toàn cầu các công nghệ AI của Mỹ. Với 90 khuyến nghị, kế hoạch phản ánh nỗ lực ngày càng tăng của Mỹ để duy trì vị trí dẫn đầu so với các đối thủ toàn cầu của mình.
Kế hoạch này được xây dựng xung quanh ba trụ cột chính – tăng tốc đổi mới, xây dựng cơ sở hạ tầng AI của Mỹ và thúc đẩy lãnh đạo trong ngoại giao và an ninh AI quốc tế.
Như một phần của kế hoạch này, một điểm chính được nhấn mạnh là việc Mỹ sẽ ‘đi đầu bằng ví dụ’ khi nói đến sự phát triển của AI – thông qua đào tạo, trao đổi nhân tài và mở rộng việc áp dụng trên các ngành công nghiệp.
Với kế hoạch này, Mỹ nhằm mục đích简化 tất cả các quy định công nghệ hiện tại, đặc biệt là các quy định về môi trường, để đảm bảo rằng pháp luật không làm chậm sự phát triển, đồng thời khuyến khích phân phối quốc tế rộng rãi hơn các phần mềm và phần cứng AI của Mỹ. Cách tiếp cận ‘chống quy định’ này đánh dấu một sự thay đổi rõ ràng so với các khuôn khổ trước đó tập trung vào đạo đức, minh bạch và đổi mới có trách nhiệm – thay vào đó, chuyển sang một kế hoạch hành động ‘đổi mới trước’ tích cực hơn.
Thiếu Phần Quan Trọng
Đáng lẽ chúng ta nên bước lại và xem xét liệu các hành động này, mặc dù khác nhau, có thể bị ảnh hưởng bởi cùng một khiếm khuyết sẽ khiến các nhà phát triển thấy thiếu giá trị trong việc tuân thủ chúng. Các phương pháp của EU và Mỹ để lại một khoảng trống quan trọng xung quanh tài sản trí tuệ trong các tập dữ liệu huấn luyện AI. Đạo Luật AI của EU yêu cầu tóm tắt dữ liệu huấn luyện và chính sách tuân thủ bản quyền, nhưng nó không thiết lập một khuôn khổ có thể mở rộng để xác định hoặc cấp phép các tác phẩm có bản quyền.
Tại Mỹ, không có quy tắc cụ thể nào tồn tại – để lại các công ty AI phải điều hướng một khuôn khổ pháp lý đang phát triển được định hình bởi các phán quyết của tòa án và các tranh chấp đang diễn ra với các chủ sở hữu quyền. Ngoài văn bản pháp lý, điều gì đang thiếu là khía cạnh thực tế; không có phương pháp nào trong số các phương pháp này quy định các phương pháp có thể hoạt động, trên toàn ngành công nghiệp, để phát hiện nội dung được bảo vệ với quy mô lớn, xác minh việc sử dụng hợp pháp hoặc简化 việc cấp phép. Cho đến khi các giải pháp này được xác định, sự không chắc chắn xung quanh bản quyền trong các tập dữ liệu huấn luyện AI sẽ vẫn là một thách thức đáng kể cho ngành công nghiệp.
Chi Phí Ẩn Của Doanh Nghiệp Bỏ Qua Tính Traceability Của AI
Mặc dù một số khiếm khuyết trong các quy định này, người ta sẽ cho rằng chúng sẽ khiến các nhà phát triển AI trở nên tập trung cao độ vào cách thức để duy trì hoạt động từ góc độ pháp lý – nhưng điều này không phải lúc nào cũng đúng. Trên thực tế, sự chia rẽ thực sự trong AI hiện nay không nằm giữa quy định của EU và Mỹ, mà giữa các công ty đang đầu tư vào tính traceability ngày hôm nay và những công ty đang mạo hiểm rằng họ sẽ không phải làm như vậy. Đây là sự lặp lại của những gì chúng ta đã thấy nhiều năm trước với việc thực hiện Quy định Bảo vệ Dữ liệu Tổng quát (GDPR) – các công ty đã xây dựng quyền riêng tư từ thiết kế ban đầu không chỉ tránh được các khoản phạt mà còn giành được sự tin tưởng của người tiêu dùng và quyền truy cập suôn sẻ vào các thị trường khác sau này phản ánh các tiêu chuẩn của GDPR.
Mẫu tương tự có thể đang xuất hiện với AI. Tính traceability của dữ liệu huấn luyện và quyết định mô hình sẽ có khả năng trở thành một tiêu chuẩn toàn cầu, và các công ty trì hoãn sẽ phải thiết kế lại hệ thống của họ trong tương lai. Việc quay lại thêm tài liệu, theo dõi nguồn gốc và tính năng kiểm toán vào một hệ thống hiện có là tốn kém và phức tạp hơn nhiều so với việc xây dựng chúng từ đầu, lấy sự tập trung khỏi các xây dựng tập trung vào ROI mà công ty muốn hoàn thành.
Nói cách khác, tính traceability và minh bạch không phải là các tùy chọn bổ sung; chúng phải được nhúng vào các hệ thống AI từ ngày đầu tiên. Các doanh nghiệp coi chúng là những ý tưởng sau sẽ冒 rủi ro làm chậm sự đổi mới, đối mặt với phản ứng từ quy định và mất cuộc đua mãi mãi.
AI Đạo Đức Cần Sự Thống Nhất Toàn Cầu
Từ góc độ vĩ mô, những cách tiếp cận phân cực này tạo ra một vấn đề thực sự cho các doanh nghiệp toàn cầu. Các công ty ở các thị trường ít quy định như Mỹ có thể mở rộng nhanh hơn trong ngắn hạn, nhưng khi họ quyết định进入 EU, họ sẽ đối mặt với một bức tường tuân thủ: các quy tắc về tính traceability và tài liệu của Đạo Luật AI yêu cầu các khả năng mà họ chưa từng xây dựng.
Việc lắp đặt lại tính traceability, tài liệu và các tính năng kiểm toán vào một hệ thống hiện có là tốn kém, chậm và gây gián đoạn, đặc biệt là vì tính traceability là một trong những phần tốn nhiều tài nguyên nhất của việc tuân thủ. Đây là cùng một mẫu mà chúng ta đã thấy với GDPR, nơi những người đến muộn với thiết kế quyền riêng tư đã phải đối mặt với các cuộc đại tu tốn kém và bị chậm lại trong việc tiếp cận thị trường, trong khi những người đi đầu đã giành được lợi thế lâu dài.












