Connect with us

Quy định

Các Điểm then chốt trong Đạo luật Trí tuệ Nhân tạo Mới của EU, Quy định Trí tuệ Nhân tạo Lớn đầu tiên

mm

Sáng kiến của Liên minh Châu Âu nhằm quản lý trí tuệ nhân tạo đánh dấu một bước ngoặt quan trọng trong quản trị pháp lý và đạo đức của công nghệ. Với Đạo luật Trí tuệ Nhân tạo gần đây AI Act, EU bước lên vị trí là một trong những thực thể lớn toàn cầu đầu tiên giải quyết các phức tạp và thách thức do các hệ thống trí tuệ nhân tạo đặt ra. Đạo luật này không chỉ là một cột mốc lập pháp. Nếu thành công, nó có thể đóng vai trò là một mẫu cho các quốc gia khác đang xem xét các quy định tương tự.

Các Điều khoản then chốt của Đạo luật

Đạo luật Trí tuệ Nhân tạo giới thiệu một số biện pháp quản lý then chốt được thiết kế để đảm bảo sự phát triển và triển khai có trách nhiệm của các công nghệ trí tuệ nhân tạo. Những quy định này tạo thành xương sống của Đạo luật, giải quyết các lĩnh vực quan trọng như minh bạch, quản lý rủi ro và sử dụng đạo đức.

  1. Minh bạch Hệ thống Trí tuệ Nhân tạo: Một góc đá của Đạo luật Trí tuệ Nhân tạo là yêu cầu về minh bạch trong các hệ thống trí tuệ nhân tạo. Quy định này yêu cầu các nhà phát triển và vận hành trí tuệ nhân tạo cung cấp thông tin rõ ràng, dễ hiểu về cách các hệ thống trí tuệ nhân tạo của họ hoạt động, logic đằng sau quyết định của họ và tác động tiềm tàng mà những hệ thống này có thể có. Điều này nhằm mục đích làm rõ hoạt động của trí tuệ nhân tạo và đảm bảo trách nhiệm.
  2. Quản lý Trí tuệ Nhân tạo Rủi ro cao: Đạo luật xác định và phân loại một số hệ thống trí tuệ nhân tạo là ‘rủi ro cao’, đòi hỏi sự giám sát quản lý nghiêm ngặt hơn. Đối với những hệ thống này, việc đánh giá rủi ro nghiêm ngặt, quản lý dữ liệu mạnh mẽ và giám sát liên tục là bắt buộc. Điều này bao gồm các lĩnh vực quan trọng như chăm sóc sức khỏe, vận tải và ra quyết định pháp lý, nơi quyết định của trí tuệ nhân tạo có thể có hậu quả đáng kể.
  3. Giới hạn về Giám sát Sinh trắc học: Trong một động thái nhằm bảo vệ quyền riêng tư và tự do dân sự của cá nhân, Đạo luật áp đặt các hạn chế nghiêm ngặt đối với việc sử dụng công nghệ giám sát sinh trắc học thời gian thực, đặc biệt là trong không gian công cộng. Điều này bao gồm các hạn chế đối với hệ thống nhận dạng khuôn mặt của cơ quan thực thi pháp luật và các cơ quan công cộng khác, cho phép sử dụng chúng chỉ dưới các điều kiện kiểm soát chặt chẽ.

Giới hạn Ứng dụng Trí tuệ Nhân tạo

Đạo luật Trí tuệ Nhân tạo của EU cũng cấm tuyệt đối một số ứng dụng trí tuệ nhân tạo được coi là có hại hoặc gây ra rủi ro cao cho các quyền cơ bản. Những điều này bao gồm:

  • Hệ thống trí tuệ nhân tạo được thiết kế cho điểm số xã hội của chính phủ, điều này có thể dẫn đến phân biệt đối xử và mất quyền riêng tư.
  • Trí tuệ nhân tạo thao túng hành vi con người, cấm các công nghệ có thể khai thác các điểm yếu của một nhóm người cụ thể, dẫn đến tổn hại về thể chất hoặc tâm lý.
  • Hệ thống nhận dạng sinh trắc học từ xa thời gian thực trong không gian công cộng, với các trường hợp ngoại lệ cho các mối đe dọa đáng kể.

Bằng cách thiết lập những ranh giới này, Đạo luật nhằm mục đích ngăn chặn lạm dụng trí tuệ nhân tạo có thể đe dọa đến tự do cá nhân và các nguyên tắc dân chủ.

Khung Trí tuệ Nhân tạo Rủi ro cao

Đạo luật Trí tuệ Nhân tạo của EU thiết lập một khung cụ thể cho các hệ thống trí tuệ nhân tạo được coi là ‘rủi ro cao’. Đây là những hệ thống mà sự thất bại hoặc hoạt động không chính xác có thể gây ra các mối đe dọa đáng kể đến an toàn, quyền cơ bản hoặc có các tác động đáng kể khác.

Tiêu chí cho phân loại này bao gồm các yếu tố như lĩnh vực triển khai, mục đích dự kiến và mức độ tương tác với con người. Các hệ thống trí tuệ nhân tạo rủi ro cao phải tuân thủ các yêu cầu tuân thủ nghiêm ngặt, bao gồm đánh giá rủi ro toàn diện, tiêu chuẩn chất lượng dữ liệu cao, nghĩa vụ minh bạch và cơ chế giám sát của con người. Đạo luật yêu cầu các nhà phát triển và vận hành hệ thống trí tuệ nhân tạo rủi ro cao phải thực hiện các đánh giá định kỳ và tuân thủ các tiêu chuẩn nghiêm ngặt, đảm bảo rằng những hệ thống này an toàn, đáng tin cậy và tôn trọng các giá trị và quyền của EU.

Hệ thống Trí tuệ Nhân tạo Tổng quát và Đổi mới

Đối với các hệ thống trí tuệ nhân tạo tổng quát, Đạo luật Trí tuệ Nhân tạo cung cấp một tập hợp các hướng dẫn nhằm mục đích thúc đẩy đổi mới đồng thời đảm bảo sự phát triển và triển khai có đạo đức. Đạo luật thúc đẩy một cách tiếp cận cân bằng nhằm khuyến khích tiến bộ công nghệ và hỗ trợ các doanh nghiệp vừa và nhỏ (SME) trong lĩnh vực trí tuệ nhân tạo.

Nó bao gồm các biện pháp như hộp cát quản lý, cung cấp một môi trường được kiểm soát để thử nghiệm các hệ thống trí tuệ nhân tạo mà không có toàn bộ phổ quy định. Cách tiếp cận này cho phép phát triển và tinh chỉnh các công nghệ trí tuệ nhân tạo trong một bối cảnh thế giới thực, thúc đẩy đổi mới và tăng trưởng trong lĩnh vực. Đối với SME, những quy định này nhằm mục đích giảm các rào cản gia nhập và tạo ra một môi trường thuận lợi cho đổi mới, đảm bảo rằng các diễn viên nhỏ hơn cũng có thể đóng góp vào và hưởng lợi từ hệ sinh thái trí tuệ nhân tạo.

Thi hành và Phạt

Hiệu quả của Đạo luật Trí tuệ Nhân tạo được hỗ trợ bởi các cơ chế thi hành và phạt nghiêm ngặt. Những cơ chế này được thiết kế để đảm bảo tuân thủ nghiêm ngặt các quy định và phạt không tuân thủ một cách đáng kể. Đạo luật phác thảo một cấu trúc phạt phân cấp, với mức phạt thay đổi dựa trên mức độ nghiêm trọng và bản chất của vi phạm.

Ví dụ, việc sử dụng các ứng dụng trí tuệ nhân tạo bị cấm có thể dẫn đến các mức phạt đáng kể, có thể lên tới hàng triệu Euro hoặc một tỷ lệ đáng kể của doanh thu hàng năm toàn cầu của thực thể vi phạm. Cấu trúc này phản ánh cách tiếp cận của Quy định Bảo vệ Dữ liệu Tổng quát (GDPR), nhấn mạnh cam kết của EU trong việc duy trì các tiêu chuẩn cao trong quản trị kỹ thuật số.

Thi hành được thực hiện thông qua một nỗ lực phối hợp giữa các quốc gia thành viên EU, đảm bảo rằng các quy định có tác động đồng đều và mạnh mẽ trên thị trường châu Âu.

Tác động Toàn cầu và Tầm quan trọng

Đạo luật Trí tuệ Nhân tạo của EU không chỉ là quy định khu vực; nó có tiềm năng thiết lập một tiền lệ toàn cầu cho quy định trí tuệ nhân tạo. Cách tiếp cận toàn diện của nó, tập trung vào triển khai có đạo đức, minh bạch và tôn trọng các quyền cơ bản, đặt nó vào vị trí là một mẫu có thể cho các quốc gia khác.

Bằng cách giải quyết cả cơ hội và thách thức do trí tuệ nhân tạo đặt ra, Đạo luật có thể ảnh hưởng đến cách các quốc gia khác, và có thể là các tổ chức quốc tế, tiếp cận quản trị trí tuệ nhân tạo. Nó phục vụ như một bước quan trọng hướng tới việc tạo ra một khuôn khổ toàn cầu cho trí tuệ nhân tạo phù hợp với đổi mới công nghệ và các giá trị đạo đức, xã hội.

Alex McFarland là một nhà báo và nhà văn về trí tuệ nhân tạo, khám phá những phát triển mới nhất trong lĩnh vực trí tuệ nhân tạo. Ông đã hợp tác với nhiều công ty khởi nghiệp và xuất bản về trí tuệ nhân tạo trên toàn thế giới.