Connect with us

Hầu hết các giám đốc điều hành công nghệ của Mỹ muốn quy định AI, nhưng ai nên dẫn đầu?

Quy định

Hầu hết các giám đốc điều hành công nghệ của Mỹ muốn quy định AI, nhưng ai nên dẫn đầu?

mm

Giống như những năm 1990 có sự thương mại hóa của Internet, những năm 2000 có điện thoại thông minh, và những năm 2010 có sự trỗi dậy của truyền thông xã hội, những năm 2020 thuộc về AI. Giống như những đột phá công nghệ trước đó, AI cũng似乎 đang mở rộng nhanh hơn các nhà quản lý và nhà lập pháp có thể theo kịp.

Bong bóng dotcom đã nổ vào năm 1993 với sự ra mắt của trình duyệt Mosaic bao gồm, và cho đến năm 1996, Quốc hội Mỹ đã thông qua Đạo luật Truyền thông, đạo luật đầu tiên đề cập rõ ràng đến Internet. Tương tự, Apple đã ra mắt iPhone vào năm 2007, mặc dù các nhà lập pháp đã thông qua Đạo luật Truyền thông và Truyền hình Phục vụ Thế kỷ 21 vào năm 2010, yêu cầu tất cả điện thoại thông minh phải bao gồm các tính năng truy cập.

Và mặc dù “thập kỷ truyền thông xã hội” của những năm 2010 đã chứng kiến sự thành lập và mở rộng của các nền tảng như Facebook, WhatsApp, YouTube và Instagram, nhưng cho đến nửa cuối thập kỷ, Đạo luật FOSTA-SESTA đã được phê duyệt, khiến các nền tảng phải chịu trách nhiệm về việc biếtingly tạo điều kiện cho buôn bán người. Liệu lịch sử sẽ lặp lại với AI?

Trong khi AI đã trở thành hiện thực sau khi phát hành OpenAI’s ChatGPT vào năm 2022, quốc gia nơi nó được tạo ra vẫn chưa thông qua luật liên bang để quy định nó. Mỹ, thay vào đó, đã thay đổi quan điểm – từ hạn chế đến phi quy định – khi các chính quyền khác nhau đã thay đổi.

AI ở Mỹ: Một vấn đề lưỡng đảng

Cựu Tổng thống Joe Biden’s Đạo luật An toàn, Bảo mật và Tin cậy yêu cầu các cơ quan liên bang vào năm 2023 thực hiện các bước nhằm đảm bảo an toàn AI, quyền dân sự, công bằng và minh bạch. “Sử dụng AI vì lợi ích và nhận ra những lợi ích đa dạng của nó đòi hỏi phải giảm thiểu những rủi ro đáng kể của nó,” Đạo luật đã đọc.

Tuy nhiên, vào tháng 1 năm 2025, Tổng thống hiện tại Donald Trump đã ký Đạo luật Loại bỏ các rào cản đối với Lãnh đạo Mỹ trong Trí tuệ Nhân tạo, thu hồi các chính sách và chỉ thị AI hiện có “để loại bỏ các rào cản đối với sự đổi mới AI của Mỹ, mở đường cho Mỹ hành động quyết liệt để giữ vị trí lãnh đạo toàn cầu trong lĩnh vực trí tuệ nhân tạo.”

Chính quyền hiện tại, do đó, đang tìm cách tăng tốc đổi mới AI ở Mỹ thông qua các nỗ lực phi quy định, chống lại các rủi ro tiềm năng thông qua đầu tư vào nghiên cứu và phát triển. Tuy nhiên, câu hỏi vẫn còn, liệu đó có phải là chính phủ phải giải quyết những lo ngại này.

Ngày nay, có những lo ngại gần như phổ biến về rủi ro AI, bao gồm đạo đức, gián đoạn và niềm tin. Một nghiên cứu năm 2024 về các vấn đề đa bên liên quan đến AI, trên thực tế, đã tìm thấy những lo ngại quan trọng nhất bao gồm thiên vị, lạm dụng, hành động máy không mong muốn, bất bình đẳng, lo lắng xã hội và thay đổi trong chuỗi cung ứng, để đặt tên.

Hầu hết các giám đốc điều hành công nghệ của Mỹ đồng ý, nhưng nhấn mạnh sự mâu thuẫn. Một báo cáo của Solvd, một công ty tư vấn AI và kỹ thuật số, đã kết luận rằng mặc dù 97% các giám đốc thông tin (CIO) và giám đốc công nghệ (CTO) trả lời có lo ngại về việc sử dụng AI không đạo đức, nhưng 87% tin rằng quy định AI quá mức có thể hạn chế đổi mới và trở thành một bất lợi cạnh tranh.

Những lo ngại hàng đầu của các nhà lãnh đạo này phản ánh những lo ngại được xác định bởi nghiên cứu năm 2024: các mô hình AI trở nên mạnh mẽ đến mức không thể kiểm soát, các tác nhân độc hại có thể lợi dụng các lỗ hổng AI, các mô hình AI có quyền truy cập quá nhiều vào dữ liệu công ty, và thông tin sai lệch hoặc thiên vị mà công nghệ có thể gây ra.

Trong số 500 CIO và CTO Mỹ tại các công ty có doanh thu hàng năm hơn 500 triệu đô la được Solvd khảo sát, 61% ưa thích quy định công khai, trong khi 36% ưa thích quy định do ngành dẫn đầu.

Quy định do ngành dẫn đầu có thể biểu thị một mô hình hỗn hợp, trôi dạt từ sự phân chia công khai-tư nhân. Chính quyền Biden, trên thực tế, đã đàm phán một thỏa thuận với các giám đốc điều hành công nghệ hàng đầu vào năm 2023, trong đó chi tiết các cam kết tự nguyện về rào cản AI. Những cam kết này bao gồm việc đảm bảo rằng các sản phẩm an toàn trước khi ra mắt công khai, xây dựng các hệ thống đặt an ninh lên hàng đầu, và kiếm được niềm tin của công chúng thông qua minh bạch và tiết lộ khả năng, hạn chế và lĩnh vực sử dụng phù hợp và không phù hợp của các hệ thống AI.

Cuộc trò chuyện toàn cầu

Mặc dù sự phân chia trong sở thích của các giám đốc điều hành công ty về các khuôn khổ quy định công khai hoặc do ngành dẫn đầu, nhưng thực tế vẫn còn rằng 82% trong số họ chủ yếu chịu trách nhiệm dẫn đầu quản trị AI nội bộ, theo Solvd. Chỉ 8% người trả lời chỉ ra lãnh đạo cấp cao cho quy định AI nội bộ, và 5% cho biết công ty của họ có một hội đồng đạo đức AI hoặc ủy ban tuân thủ chuyên dụng.

Doanh nghiệp – và nhân viên của họ – do đó bị kẹt giữa việc chờ đợi một chính sách công khai mà có thể hoặc không thể đến, và hành động chủ yếu độc lập từ lãnh đạo cấp cao và các đội được đào tạo về đạo đức AI.

Các ngữ cảnh khác nhau đã tìm thấy các giải pháp khác nhau cho sự phức tạp này. Liên minh Châu Âu (EU), ví dụ, có sự tương phản rõ ràng với cách tiếp cận phi quy định của chính quyền Trump thông qua Đạo luật AI của EU, luật AI toàn diện đầu tiên trên thế giới. Đạo luật này đã được thông qua vào tháng 3 năm 2024, cấm certain ứng dụng AI, thiết lập một khuôn khổ đánh giá dựa trên rủi ro, và yêu cầu minh bạch và giao tiếp với người dùng.

Những người khác đang theo dõi ví dụ của EU. Chile, nhà lãnh đạo AI của Nam Mỹ, gần đây đã đề xuất một dự luật để quy định AI, lấy cảm hứng từ Đạo luật AI của châu Âu. Trung Quốc, mặt khác, chủ yếu tránh những chướng ngại vật này, vì hệ thống chính trị của nước này ủng hộ quy định được nhà nước chấp thuận, trợ cấp và đối tác với các công ty AI tư nhân. Các thử thách của quốc gia này xuất phát ít hơn từ sự phân chia quy định, và nhiều hơn từ rủi ro kiểm duyệt và can thiệp của nhà nước vào đổi mới.

Nhưng Mỹ, với tư cách là người lãnh đạo AI toàn cầu, có khả năng sẽ đặt ra giai điệu cho tương lai của các khuôn khổ quy định.

Suy nghĩ cuối cùng

Việc triển khai và đổi mới AI đã trở thành một lợi thế cạnh tranh trong gần như mọi ngành công nghiệp trên toàn cầu. Nhưng, mà không có sự rõ ràng về quy định và chính trị thay đổi, các giám đốc điều hành công nghệ phải tự đặt ra các rào cản, và phải chịu trách nhiệm về việc bảo vệ người tiêu dùng, kiếm được niềm tin của họ giữa nỗi sợ hãi lan rộng về AI, và đổi mới – tất cả đồng thời.

Mặc dù có những lo ngại giữa các ngành rằng các quy định nghiêm ngặt có thể cản trở đổi mới, nhưng điều ngược lại có thể đúng. Theo RegulatingAI, một tổ chức phi lợi nhuận của Mỹ chuyên khám phá sự giao nhau của AI và quy định, sự không chắc chắn về việc giám sát AI đang cản trở việc áp dụng công nghệ này, điều này làm chậm lại việc thực hiện các lợi ích kinh tế, thiếu đầu tư, và cản trở các công ty mở rộng biên độ.

“Làm rõ cách các hệ thống AI được định nghĩa trong các ngữ cảnh quy định là rất quan trọng, vì sự mơ hồ trong định nghĩa thêm vào các thách thức về tuân thủ,” tổ chức phi lợi nhuận đã lưu ý.

Tương tự, Solvd nhấn mạnh tầm quan trọng của việc các công ty tận dụng sự混乱 quy định hiện tại. “Bây giờ là thời điểm hoàn hảo cho các công ty thiết lập quản trị nội bộ hiệu quả trước khi các nhà quản lý bên ngoài bước vào và có thể áp đặt các giải pháp ít linh hoạt hơn,” báo cáo của công ty đã kết luận.

Trong bối cảnh này, các nhà đổi mới AI ở Mỹ phải đối mặt với những thách thức chưa từng có: rủi ro về danh tiếng khi không áp dụng các chính sách giám sát, và khả năng có khoảng trống tuân thủ khi quy định được đưa ra.

Nhưng cơ hội cũng đang hiện diện. Với tầm nhìn của Internet, điện thoại thông minh và truyền thông xã hội, bây giờ là thời điểm chính xác để nhìn về phía trước và xây dựng một hệ sinh thái cân bằng giữa đổi mới và trách nhiệm, tạo ra niềm tin và chuẩn bị cho sự không thể tránh khỏi của quy định.

Salomé là một nhà báo sinh tại Medellín và là Senior Reporter tại Espacio Media Incubator. Với nền tảng về Lịch sử và Chính trị, công việc của Salomé nhấn mạnh sự liên quan xã hội của các công nghệ mới nổi. Cô đã được giới thiệu trên Al Jazeera, Latin America Reports, và The Sociable, cùng với một số khác