sơ khai Những lo ngại về rủi ro tiềm tàng của ChatGPT đang đạt được động lực nhưng việc tạm dừng AI có phải là một động thái tốt? - Đoàn kết.AI
Kết nối với chúng tôi

Lãnh đạo tư tưởng

Những lo ngại về rủi ro tiềm tàng của ChatGPT đang đạt được động lực nhưng việc tạm dừng AI có phải là một động thái tốt?

mm

Được phát hành

 on

Trong khi Elon Musk và các nhà lãnh đạo công nghệ toàn cầu khác đã kêu gọi tạm dừng trong AI sau khi phát hành ChatGPT, một số nhà phê bình tin rằng việc ngừng phát triển không phải là câu trả lời. Nhà truyền giáo AI Andrew Pery của công ty tự động hóa thông minh ABBYY tin rằng việc nghỉ giải lao cũng giống như cho kem đánh răng trở lại vào trong tuýp. Tại đây, anh ấy cho chúng tôi biết tại sao…

Các ứng dụng AI đang lan rộng, tác động đến hầu hết mọi khía cạnh trong cuộc sống của chúng ta. Mặc dù đáng khen ngợi, nhưng việc hãm phanh ngay bây giờ có thể là điều không hợp lý.

Chắc chắn có những lo ngại rõ ràng kêu gọi tăng cường giám sát theo quy định để kiểm soát các tác động có hại tiềm ẩn của nó.

Mới gần đây, Cơ quan bảo vệ dữ liệu của Ý đã tạm thời chặn việc sử dụng ChatGPT trên toàn quốc do những lo ngại về quyền riêng tư liên quan đến cách thức thu thập và xử lý dữ liệu cá nhân được sử dụng để đào tạo mô hình, cũng như việc thiếu các biện pháp bảo vệ rõ ràng, khiến trẻ em phải đối mặt với các phản hồi “hoàn toàn không phù hợp với lứa tuổi và nhận thức của các em.”

Tổ chức Người tiêu dùng Châu Âu (BEUC) đang thúc giục EU điều tra các tác động có hại tiềm ẩn của các mô hình ngôn ngữ quy mô lớn do “mối lo ngại ngày càng tăng về cách ChatGPT và các chatbot tương tự có thể đánh lừa và thao túng mọi người. Các hệ thống AI này cần được công chúng giám sát chặt chẽ hơn và các cơ quan công quyền phải xác nhận lại quyền kiểm soát đối với chúng.”

Tại Mỹ, các Trung tâm AI và Chính sách kỹ thuật số đã đệ đơn khiếu nại lên Ủy ban Thương mại Liên bang rằng ChatGPT vi phạm mục 5 của Đạo luật Ủy ban Thương mại Liên bang (Đạo luật FTC) (15 USC 45). Cơ sở của khiếu nại là ChatGPT bị cáo buộc không đáp ứng các yêu cầu hướng dẫn do FTC đặt ra về tính minh bạch và khả năng giải thích của các hệ thống AI. Tài liệu tham khảo đã được thực hiện đối với các xác nhận của ChatGPT về một số đã biết rủi ro bao gồm xâm phạm quyền riêng tư, tạo nội dung có hại và tuyên truyền thông tin sai lệch.

Tiện ích của các mô hình ngôn ngữ quy mô lớn như ChatGPT mặc dù nghiên cứu chỉ ra tiềm năng của nó tối bên. Nó đã được chứng minh là đưa ra các câu trả lời không chính xác vì mô hình ChatGPT cơ bản dựa trên các thuật toán học sâu tận dụng các tập dữ liệu đào tạo lớn từ internet. Không giống như các chatbot khác, ChatGPT sử dụng các mô hình ngôn ngữ dựa trên các kỹ thuật học sâu để tạo ra văn bản tương tự như cuộc hội thoại của con người và nền tảng “đi đến câu trả lời bằng cách đưa ra một loạt dự đoán, đó là một phần lý do khiến nó có thể tranh luận về các câu trả lời sai như thể chúng hoàn toàn là sự thật.”

Hơn nữa, ChatGPT được chứng minh là làm nổi bật và khuếch đại sự thiên vị dẫn đến “các câu trả lời phân biệt đối xử với giới tính, chủng tộc và các nhóm thiểu số, điều mà công ty đang cố gắng giảm thiểu”. ChatGPT cũng có thể là cơ hội để những kẻ bất chính khai thác những người dùng cả tin, làm ảnh hưởng đến lợi ích của họ. riêng tư và phơi bày chúng tấn công lừa đảo.

Những lo ngại này đã khiến Nghị viện Châu Âu công bố một bình luận trong đó củng cố sự cần thiết phải tăng cường hơn nữa các quy định hiện hành của dự thảo Đạo luật trí tuệ nhân tạo của EU, (AIA) vẫn đang chờ phê chuẩn. Bài bình luận chỉ ra rằng dự thảo hiện tại của quy định được đề xuất tập trung vào những gì được gọi là ứng dụng AI hẹp, bao gồm các danh mục cụ thể của hệ thống AI có rủi ro cao như tuyển dụng, uy tín tín dụng, việc làm, thực thi pháp luật và đủ điều kiện nhận các dịch vụ xã hội. Tuy nhiên, dự thảo quy định AIA của EU không bao gồm AI có mục đích chung, chẳng hạn như các mô hình ngôn ngữ lớn cung cấp khả năng nhận thức nâng cao hơn và có thể “thực hiện nhiều nhiệm vụ thông minh”. Có những lời kêu gọi mở rộng phạm vi của dự thảo quy định để bao gồm một danh mục riêng biệt, có rủi ro cao của các hệ thống AI có mục đích chung, yêu cầu các nhà phát triển thực hiện kiểm tra tuân thủ nghiêm ngặt trước khi đưa các hệ thống đó ra thị trường và liên tục theo dõi hiệu suất của chúng cho các kết quả đầu ra có hại không mong muốn tiềm tàng.

Một phần đặc biệt hữu ích của nghiên cứu thu hút nhận thức về khoảng cách này rằng quy định AIA của EU “chủ yếu tập trung vào các mô hình AI thông thường chứ không phải thế hệ mới mà chúng ta đang chứng kiến ​​​​ngày nay.”

Nó đề xuất bốn chiến lược mà các cơ quan quản lý nên xem xét.

  1. Yêu cầu các nhà phát triển của các hệ thống như vậy báo cáo thường xuyên về hiệu quả của các quy trình quản lý rủi ro của họ để giảm thiểu các kết quả có hại.
  2. Các doanh nghiệp sử dụng các mô hình ngôn ngữ quy mô lớn phải có nghĩa vụ tiết lộ cho khách hàng của họ rằng nội dung do AI tạo ra.
  3. Các nhà phát triển nên đăng ký một quy trình chính thức của các bản phát hành theo giai đoạn, như một phần của khung quản lý rủi ro, được thiết kế để bảo vệ chống lại các kết quả có hại không lường trước được.
  4. Đặt trách nhiệm cho các nhà phát triển là “giảm thiểu rủi ro từ gốc rễ” bằng cách phải “chủ động kiểm tra tập dữ liệu đào tạo để phát hiện các thông tin sai lệch”.

Một yếu tố duy trì rủi ro liên quan đến các công nghệ đột phá là động lực của các nhà đổi mới nhằm đạt được lợi thế của người đi trước bằng cách áp dụng mô hình kinh doanh “xuất xưởng trước và khắc phục sau”. Trong khi OpenAI có phần minh bạch về những rủi ro tiềm ẩn của ChatGPT, họ đã phát hành nó để sử dụng rộng rãi cho mục đích thương mại với trách nhiệm "người mua hãy cẩn thận" đối với người dùng để cân nhắc và tự gánh chịu rủi ro. Đó có thể là một cách tiếp cận không thể thực hiện được do tác động lan tỏa của các hệ thống AI đàm thoại. Quy định chủ động cùng với các biện pháp thực thi mạnh mẽ phải là điều tối quan trọng khi xử lý một công nghệ đột phá như vậy.

Trí tuệ nhân tạo đã thâm nhập gần như mọi phần trong cuộc sống của chúng ta, có nghĩa là việc tạm dừng phát triển AI có thể gây ra vô số trở ngại và hậu quả không lường trước được. Thay vì đột ngột bơm tiền, những người chơi trong ngành và cơ quan lập pháp nên hợp tác một cách thiện chí để ban hành quy định khả thi bắt nguồn từ các giá trị lấy con người làm trung tâm như tính minh bạch, trách nhiệm giải trình và sự công bằng. Bằng cách tham khảo luật hiện hành như AIA, các nhà lãnh đạo trong khu vực tư nhân và công cộng có thể thiết kế các chính sách toàn cầu, kỹ lưỡng nhằm ngăn chặn việc sử dụng bất chính và giảm thiểu các kết quả bất lợi, do đó giữ cho trí tuệ nhân tạo nằm trong giới hạn cải thiện trải nghiệm của con người.

Andrew Pery là Nhà truyền bá đạo đức AI tại công ty tự động hóa thông minh ABBYY. Pery có hơn 25 năm kinh nghiệm dẫn dắt các chương trình quản lý sản phẩm cho các công ty công nghệ hàng đầu toàn cầu. Chuyên môn của ông là về tự động hóa quy trình tài liệu thông minh và xử lý thông minh với chuyên môn cụ thể về công nghệ AI, phần mềm ứng dụng, quyền riêng tư dữ liệu và đạo đức AI. Ông có bằng Thạc sĩ Luật loại Xuất sắc của Trường Luật Pritzker thuộc Đại học Northwestern và là Chuyên gia về Quyền riêng tư Dữ liệu được Chứng nhận.