sơ khai Chuyên gia cho biết DeepFakes "Hoàn toàn có thật" sẽ xuất hiện sau 6 tháng nữa - Unite.AI
Kết nối với chúng tôi

Trí tuệ nhân tạo

Chuyên gia cho biết DeepFakes “Hoàn toàn có thật” sẽ xuất hiện sau 6 tháng nữa

mm
cập nhật on

Theo Hao Li, Giám đốc Phòng thí nghiệm Hình ảnh và Đồ họa tại Đại học Nam, các DeepFakes ấn tượng nhưng gây tranh cãi, hình ảnh và video được điều khiển hoặc tạo ra bởi mạng lưới thần kinh sâu, có thể sẽ trở nên ấn tượng hơn và gây tranh cãi hơn trong tương lai gần. California. Li là một chuyên gia về thị giác máy tính và DeepFakes, đồng thời trong một cuộc phỏng vấn gần đây với CNBC anh ấy nói rằng Deepfakes “hoàn toàn có thật” có thể sẽ xuất hiện trong vòng nửa năm tới.

Li giải thích rằng hầu hết các DeepFakes vẫn có thể nhận ra là giả bằng mắt thật và ngay cả những DeepFakes thuyết phục hơn vẫn đòi hỏi người tạo phải nỗ lực đáng kể để làm cho chúng trông giống thật. Tuy nhiên, Li tin chắc rằng trong vòng sáu tháng, DeepFakes có vẻ hoàn toàn giống thật có thể sẽ xuất hiện khi các thuật toán trở nên phức tạp hơn.

Li ban đầu nghĩ rằng sẽ mất từ ​​​​hai đến ba năm để DeepFakes cực kỳ thuyết phục trở nên phổ biến hơn, đưa ra dự đoán đó tại một hội nghị gần đây được tổ chức tại Viện Công nghệ Massachusetts. Tuy nhiên, Li đã sửa đổi dòng thời gian của mình sau tiết lộ về ứng dụng Zao gần đây của Trung Quốc và những phát triển gần đây khác liên quan đến công nghệ DeepFakes. Lý giải thích với CNBC rằng các phương pháp cần thiết để tạo DeepFakes thực tế ít nhiều là phương pháp hiện đang được sử dụng và thành phần chính sẽ tạo ra DeepFakes thực tế là nhiều dữ liệu đào tạo hơn.

Li và các nhà nghiên cứu đồng nghiệp của ông đã làm việc chăm chỉ với công nghệ phát hiện DeepFake, dự đoán sự xuất hiện của DeepFake cực kỳ thuyết phục. Li và các đồng nghiệp của mình, chẳng hạn như Hany Farid từ Đại học California Berkely, đã thử nghiệm các thuật toán DeepFake hiện đại để hiểu cách thức hoạt động của công nghệ tạo ra chúng.

Li giải thích với CNBC:

“Nếu bạn muốn có thể phát hiện deepfakes, bạn cũng phải xem giới hạn là gì. Nếu bạn cần xây dựng các khung AI có khả năng phát hiện những thứ cực kỳ thực, thì những khung đó phải được đào tạo bằng các loại công nghệ này, vì vậy theo một số cách, bạn không thể phát hiện ra những thứ đó nếu bạn không biết cách chúng hoạt động.”

Li và các đồng nghiệp của anh ấy đã đầu tư vào việc tạo ra các công cụ để phát hiện DeepFakes nhằm thừa nhận các vấn đề và nguy cơ tiềm ẩn mà công nghệ này gây ra. Li và các đồng nghiệp không phải là nhóm các nhà nghiên cứu AI duy nhất quan tâm đến những tác động có thể có của DeepFakes và quan tâm đến việc tạo ra các biện pháp đối phó với chúng.

Gần đây, Facebook bắt đầu hợp tác chung với MIT, Microsoft và Đại học Oxford để tạo ra Thử thách phát hiện DeepFake, nhằm mục đích tạo ra các công cụ có thể được sử dụng để phát hiện khi hình ảnh hoặc video bị thay đổi. Các công cụ này sẽ là nguồn mở và có thể sử dụng được bởi các công ty, tổ chức truyền thông và chính phủ. Trong khi đó, các nhà nghiên cứu từ Viện Khoa học Thông tin của Đại học Nam California gần đây đã tạo ra một loạt thuật toán có thể phân biệt video giả mạo với độ chính xác khoảng 96%.

Tuy nhiên, Li cũng giải thích rằng vấn đề với DeepFakes là cách chúng có thể bị lạm dụng chứ không phải bản thân công nghệ. Li đã lưu ý một số cách sử dụng hợp pháp có thể có đối với công nghệ DeepFake, bao gồm cả trong ngành giải trí và thời trang.

Các kỹ thuật DeepFake cũng đã được sử dụng để sao chép các nét mặt của những người có khuôn mặt bị che khuất trong hình ảnh. Các nhà nghiên cứu đã sử dụng Generative Adnversail Networks để tạo ra một khuôn mặt hoàn toàn mới có cùng biểu cảm của chủ thể trong ảnh gốc. Các kỹ thuật do Đại học Khoa học và Công nghệ Na Uy phát triển có thể giúp thể hiện nét mặt trong các cuộc phỏng vấn với những người nhạy cảm cần sự riêng tư, chẳng hạn như những người tố cáo. Một số người khác có thể sử dụng khuôn mặt của họ để thay thế cho người cần ẩn danh, nhưng vẫn có thể đọc được nét mặt của người đó.

Khi độ phức tạp của công nghệ Deepfake tăng lên, các trường hợp sử dụng hợp pháp cho Deepfakes cũng sẽ tăng lên. Tuy nhiên, mối nguy hiểm cũng sẽ tăng lên và vì lý do này, công việc phát hiện DeepFakes do Li và những người khác thực hiện càng trở nên quan trọng hơn.