Connect with us

Chuyên gia AI xếp hạng Deepfakes và 19 tội phạm dựa trên AI khác theo mức độ nguy hiểm

Trí tuệ nhân tạo

Chuyên gia AI xếp hạng Deepfakes và 19 tội phạm dựa trên AI khác theo mức độ nguy hiểm

mm

Một báo cáo mới được xuất bản bởi Đại học College London nhằm xác định các cách khác nhau mà AI có thể hỗ trợ tội phạm trong 15 năm tới. Báo cáo đã có 31 chuyên gia AI đánh giá 20 phương pháp sử dụng AI để thực hiện tội phạm và xếp hạng các phương pháp này dựa trên các yếu tố khác nhau. Các chuyên gia AI đã xếp hạng tội phạm theo các biến số như mức độ dễ dàng thực hiện tội phạm, mức độ thiệt hại xã hội có thể xảy ra, số tiền mà tội phạm có thể kiếm được và mức độ khó khăn trong việc ngăn chặn tội phạm. Theo kết quả của báo cáo, Deepfakes gây ra mối đe dọa lớn nhất đối với công dân và xã hội nói chung, vì tiềm năng khai thác của chúng bởi tội phạm và khủng bố là cao.

Các chuyên gia AI đã xếp hạng deepfakes ở vị trí đầu tiên trong danh sách các mối đe dọa AI tiềm năng vì deepfakes khó được xác định và chống lại. Deepfakes đang ngày càng tốt hơn trong việc đánh lừa thậm chí cả mắt của chuyên gia deepfakes và các phương pháp dựa trên AI khác để phát hiện deepfakes thường không đáng tin cậy. Về khả năng gây hại, deepfakes có thể dễ dàng được sử dụng bởi những kẻ xấu để làm mất uy tín của các nhân vật được tin cậy hoặc cố gắng lừa đảo người dân bằng cách giả mạo thành những người thân yêu hoặc các cá nhân đáng tin cậy khác. Nếu deepfakes trở nên phổ biến, người dân có thể bắt đầu mất niềm tin vào bất kỳ phương tiện truyền thông âm thanh hoặc video nào, điều này có thể khiến họ mất niềm tin vào tính xác thực của các sự kiện và sự kiện thực tế.

Tiến sĩ Matthew Caldwell, từ Khoa Khoa học Máy tính UCL, là tác giả đầu tiên của bài báo. Caldwell nhấn mạnh mối đe dọa ngày càng tăng của deepfakes khi càng nhiều hoạt động của chúng ta được chuyển sang trực tuyến. Như Caldwell được trích dẫn bởi UCL News:

“Không giống như nhiều tội phạm truyền thống, tội phạm trong lĩnh vực kỹ thuật số có thể dễ dàng được chia sẻ, lặp lại và thậm chí bán, cho phép các kỹ thuật tội phạm được tiếp thị và tội phạm được cung cấp như một dịch vụ. Điều này có nghĩa là tội phạm có thể outsource các khía cạnh khó khăn hơn của tội phạm dựa trên AI của họ.”

Đội ngũ chuyên gia đã xếp hạng năm công nghệ AI mới nổi khác là những tác nhân tiềm năng gây ra các loại tội phạm mới: phương tiện tự lái được sử dụng như vũ khí, tấn công mạng vào hệ thống và thiết bị được kiểm soát bởi AI, thu thập dữ liệu trực tuyến để mục đích tống tiền, lừa đảo dựa trên AI với các thông điệp được tùy chỉnh và thông tin giả/misinformation chung.

Theo Shane Johnson, Giám đốc Trung tâm Tội phạm Tương lai Dawes tại UCL, mục tiêu của nghiên cứu là xác định các mối đe dọa có thể xảy ra liên quan đến các công nghệ mới nổi và suy đoán cách thức để vượt qua các mối đe dọa này. Johnson cho biết rằng khi tốc độ thay đổi công nghệ tăng lên, điều quan trọng là “chúng ta phải dự đoán các mối đe dọa tội phạm trong tương lai để những người ra quyết định và các bên liên quan khác có thể hành động trước khi xảy ra các ‘mùa thu hoạch tội phạm’ mới”.

Về 14 tội phạm có thể khác trong danh sách, chúng được chia vào một trong hai loại: lo ngại vừa phải và lo ngại thấp.

Các tội phạm AI gây lo ngại vừa phải bao gồm việc lạm dụng robot quân sự, ngộ độc dữ liệu, máy bay không người lái tự động, tấn công mạng dựa trên học tập, tấn công từ chối dịch vụ cho các hoạt động trực tuyến, thao túng thị trường tài chính/chứng khoán, dầu rắn (bán dịch vụ gian lận ngụy trang dưới dạng AI/ML) và lừa dối nhận dạng khuôn mặt.

Các tội phạm AI gây lo ngại thấp bao gồm việc làm giả nghệ thuật hoặc âm nhạc, theo dõi hỗ trợ bởi AI, đánh giá giả được viết bởi AI, tránh các phương pháp phát hiện AI và “burglar bots” (bot xâm nhập vào nhà người dân để đánh cắp đồ đạc).

Tất nhiên, các mô hình AI có thể được sử dụng để giúp chống lại một số tội phạm này. Gần đây, các mô hình AI đã được triển khai để hỗ trợ phát hiện các kế hoạch rửa tiền, phát hiện các giao dịch tài chính đáng ngờ. Kết quả được phân tích bởi các nhà điều hành con người sau đó phê duyệt hoặc từ chối cảnh báo, và phản hồi được sử dụng để đào tạo mô hình tốt hơn. Dường như tương lai sẽ liên quan đến việc AI đối đầu với nhau, với tội phạm cố gắng thiết kế các công cụ AI hỗ trợ tốt nhất và an ninh, thực thi pháp luật và các nhà thiết kế AI đạo đức khác cố gắng thiết kế các hệ thống AI tốt nhất.

Blogger và lập trình viên với chuyên môn về Machine Learning Deep Learning topics. Daniel hy vọng giúp đỡ người khác sử dụng sức mạnh của AI cho lợi ích xã hội.