Connect with us

Google Cấm Đào Tạo Deepfakes Trên Colab

Trí tuệ nhân tạo

Google Cấm Đào Tạo Deepfakes Trên Colab

mm

Vào một thời điểm nào đó trong hai tuần qua, Google đã im lặng thay đổi các điều khoản dịch vụ cho người dùng Colab, thêm một điều khoản rằng dịch vụ Colab không thể được sử dụng để đào tạo deepfakes.

Cập nhật tháng 5 mang lại lệnh cấm deepfake trên Colab.

Cập nhật tháng 5 mang lại lệnh cấm deepfake trên Colab. Nguồn: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Phiên bản đầu tiên được lưu trữ trên Internet Archive có lệnh cấm deepfake được lưu trữ vào thứ Ba, ngày 24 tháng 5. Phiên bản cuối cùng của FAQ Colab không đề cập đến lệnh cấm là vào ngày 14 tháng 5.

Trong hai phân phối tạo deepfake phổ biến, DeepFaceLab (DFL) và FaceSwap, cả hai đều là phân nhánh của mã匿名 được đăng trên Reddit vào năm 2017, chỉ có DFL nổi tiếng hơn dường như bị nhắm mục tiêu trực tiếp bởi lệnh cấm. Theo nhà phát triển deepfake ‘chervonij’ trên Discord của DFL, chạy phần mềm trên Google Colab hiện tạo ra một cảnh báo:

‘Bạn có thể đang thực hiện mã không được phép, và điều này có thể hạn chế khả năng sử dụng Colab trong tương lai. Vui lòng lưu ý các hành động bị cấm được quy định trong FAQ của chúng tôi.’

Tuy nhiên, thú vị là, người dùng hiện được phép tiếp tục thực hiện mã.

Cảnh báo mới xuất hiện khi người dùng DFL cố gắng chạy mã trên Google Colab.

Cảnh báo mới xuất hiện khi người dùng DFL cố gắng chạy mã trên Google Colab. Nguồn: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Theo một người dùng trên Discord của phân phối FaceSwap, mã của dự án này dường như không kích hoạt cảnh báo, cho thấy mã của DeepFaceLab (cũng là kiến trúc cho việc phát trực tuyến deepfake thời gian thực DeepFaceLive), là phương pháp deepfake phổ biến nhất, đã bị nhắm mục tiêu cụ thể bởi Colab.

Nhà phát triển chính của FaceSwap, Matt Tora, bình luận*:

‘Tôi thấy rất khó tin rằng Google làm điều này vì lý do đạo đức, hơn là Colab được thiết kế cho sinh viên/nhà khoa học dữ liệu/nhà nghiên cứu để chạy mã GPU tốn kém một cách dễ dàng và miễn phí. Tuy nhiên, tôi nghi ngờ rằng một số lượng người dùng không nhỏ đang khai thác tài nguyên này để tạo mô hình deepfake, điều này tốn kém về mặt tính toán và mất nhiều thời gian đào tạo để tạo ra kết quả.’

‘Bạn có thể nói rằng Colab nghiêng nhiều hơn về phía giáo dục, nghiên cứu của AI. Thực hiện các tập lệnh yêu cầu ít đầu vào từ người dùng, cũng như hiểu biết, có xu hướng đi ngược lại điều này. Tại Faceswap, chúng tôi tập trung vào việc giáo dục người dùng về AI và các cơ chế liên quan, đồng thời giảm thiểu rào cản gia nhập. Chúng tôi khuyến khích mạnh mẽ việc sử dụng mã này một cách có trách nhiệm và cảm thấy rằng việc cung cấp các công cụ này cho một đối tượng rộng lớn hơn giúp giáo dục mọi người về những gì có thể đạt được trong thế giới ngày nay, thay vì giữ nó ẩn cho một số ít.’

‘Thật không may, chúng tôi không thể kiểm soát cách thức mã của chúng tôi được sử dụng cuối cùng, cũng như nơi nó được chạy. Điều này làm tôi buồn khi một con đường đã bị đóng lại cho những người muốn thử nghiệm với mã của chúng tôi, tuy nhiên, về việc bảo vệ tài nguyên này để đảm bảo sự sẵn có của nó cho đối tượng mục tiêu thực sự, tôi thấy điều này là hợp lý.’

Không có bằng chứng cho thấy hạn chế mới này chỉ áp dụng cho tầng miễn phí của Google Colab – ở cuối danh sách các hoạt động bị cấm mà deepfakes đã được thêm vào, có lưu ý ‘Các hạn chế bổ sung tồn tại cho người dùng trả phí’, cho thấy đây là các quy định cơ bản. Liên quan đến lệnh cấm deepfakes, điều này đã gây nhầm lẫn cho một số người, vì ‘khai thác tiền điện tử’‘tham gia vào chia sẻ tệp ngang hàng’ được bao gồm trong cả phần ‘Hạn chế’ miễn phí và chuyên nghiệp.

Theo logic đó, mọi thứ bị cấm trong phần ‘Hạn chế’ miễn phí đều được phép trong phiên bản Pro, miễn là phiên bản Pro không cấm rõ ràng, bao gồm ‘chạy các cuộc tấn công từ chối dịch vụ’‘crack mật khẩu’. Các hạn chế bổ sung cho tầng Pro chủ yếu liên quan đến việc không ‘cho thuê lại’ quyền truy cập Colab Pro, mặc dù có sự hạn chế và trùng lặp chọn lọc.

Google Colab là một triển khai chuyên dụng của môi trường Jupyter notebook, cho phép đào tạo dự án học máy từ xa trên các GPU mạnh hơn nhiều so với những gì nhiều người dùng có thể mua.

Kể từ khi đào tạo deepfake là một việc tốn VRAM, và kể từ khi sự khan hiếm GPU, nhiều người tạo deepfake trong những năm gần đây đã từ bỏ việc đào tạo tại nhà để đào tạo từ xa trên Colab, nơi có thể, tùy thuộc vào cơ hội và tầng, đào tạo mô hình deepfake trên các thẻ mạnh như Tesla T4 (16GB VRAM, hiện khoảng 2.000 USD), V100 (32GB VRAM, khoảng 4.000 USD), và A100 (80GB VRAM, MSRP 32.097,00 USD), trong số những thẻ khác.

Lệnh cấm đào tạo trên Colab dường như sẽ giảm số lượng người tạo deepfake có thể đào tạo mô hình độ phân giải cao hơn, nơi các hình ảnh đầu vào và đầu ra lớn hơn, phù hợp hơn với kết quả độ phân giải cao và có khả năng trích xuất và tái tạo chi tiết khuôn mặt tốt hơn.

Một số người đam mê và nhiệt huyết nhất về deepfake, theo các bài đăng trên Discord và diễn đàn, đã đầu tư rất nhiều vào phần cứng địa phương trong vài năm qua, mặc dù giá GPU rất cao.

Tuy nhiên, do chi phí cao, các cộng đồng con đã xuất hiện để đối phó với những thách thức của việc đào tạo deepfakes trên Colab, với việc phân bổ GPU ngẫu nhiên là khiếu nại phổ biến nhất kể từ khi Colab hạn chế việc sử dụng GPU cấp cao cho người dùng miễn phí.

 

* Trong các tin nhắn riêng trên Discord

Được xuất bản lần đầu vào ngày 28 tháng 5 năm 2022.
Đã sửa đổi 7:28 sáng EST, sửa lỗi đánh máy trong trích dẫn.
Đã sửa đổi 12:40 chiều EST – thêm làm rõ về lệnh cấm deepfake cho tầng miễn phí và chuyên nghiệp, theo như có thể hiểu được từ danh sách ‘miễn phí’ và ‘chuyên nghiệp’ các hạn chế.

Nhà văn về học máy, chuyên gia lĩnh vực tổng hợp hình ảnh con người. Cựu trưởng nhóm nội dung nghiên cứu tại Metaphysic.ai.
Trang cá nhân: martinanderson.ai
Liên hệ: [email protected]