Connect with us

Trí tuệ nhân tạo

Trí tuệ nhân tạo lừa đảo: Khai thác các mô hình tạo sinh trong các kế hoạch tội phạm

mm
Discover how generative AI, including models like GPT-3 and DALL-E, is being exploited by cybercriminals for phishing, frauds, and deepfakes

Trí tuệ nhân tạo tạo sinh, một tập con của Trí tuệ nhân tạo, đã nhanh chóng đạt được sự nổi bật do khả năng tạo ra các dạng nội dung khác nhau, bao gồm văn bản giống con người, hình ảnh thực tế và âm thanh, từ các tập dữ liệu lớn. Các mô hình như GPT-3, DALL-EMạng đối kháng tạo sinh (GANs) đã chứng minh khả năng đặc biệt trong lĩnh vực này.

Một báo cáo của Deloitte nhấn mạnh bản chất kép của Trí tuệ nhân tạo tạo sinh và nhấn mạnh nhu cầu cảnh giác đối với Trí tuệ nhân tạo lừa đảo. Trong khi các tiến bộ về trí tuệ nhân tạo hỗ trợ trong việc phòng chống tội phạm, chúng cũng trao quyền cho các tác nhân độc hại. Mặc dù có các ứng dụng hợp pháp, những công cụ mạnh mẽ này đang ngày càng bị các tội phạm mạng, kẻ lừa đảo và các tác nhân được nhà nước hỗ trợ khai thác, dẫn đến sự gia tăng của các kế hoạch phức tạp và lừa đảo.

Sự trỗi dậy của Trí tuệ nhân tạo tạo sinh trong các hoạt động tội phạm

Sự trỗi dậy của Trí tuệ nhân tạo tạo sinh đã dẫn đến sự gia tăng của các hoạt động lừa đảo ảnh hưởng đến cả không gian mạng và cuộc sống hàng ngày. Phishing, một kỹ thuật để lừa người dùng tiết lộ thông tin nhạy cảm, hiện sử dụng Trí tuệ nhân tạo tạo sinh để tạo ra các email lừa đảo rất thuyết phục. Khi ChatGPT trở nên phổ biến, các email lừa đảo đã tăng lên, với tội phạm sử dụng nó để tạo ra các thông điệp được cá nhân hóa trông giống như các thông tin liên lạc hợp pháp.

Những email này, chẳng hạn như cảnh báo giả mạo từ ngân hàng hoặc các đề nghị hấp dẫn, lợi dụng tâm lý con người để lừa người nhận tiết lộ dữ liệu nhạy cảm. Mặc dù OpenAI cấm sử dụng bất hợp pháp các mô hình của mình, nhưng việc thực thi điều này không dễ dàng. Các lời nhắc vô hại có thể dễ dàng biến thành các kế hoạch độc hại, đòi hỏi cả người xem xét và hệ thống tự động để phát hiện và ngăn chặn việc lạm dụng.

Tương tự, lừa đảo tài chính cũng đã tăng lên với sự tiến bộ của trí tuệ nhân tạo. Trí tuệ nhân tạo tạo sinh thúc đẩy các lừa đảo, tạo ra nội dung lừa dối nhà đầu tư và thao túng tâm lý thị trường. Hãy tưởng tượng gặp một trợ lý ảo, rõ ràng là con người nhưng được thiết kế chỉ để lừa đảo. Trí tuệ nhân tạo tạo sinh cung cấp năng lượng cho các bot này, tham gia người dùng vào những cuộc trò chuyện có vẻ chân thực trong khi trích xuất thông tin nhạy cảm. Các mô hình tạo sinh cũng tăng cường các cuộc tấn công kỹ thuật xã hội bằng cách tạo ra các thông điệp được cá nhân hóa khai thác niềm tin, đồng cảm và sự cấp thiết. Nạn nhân trở thành mục tiêu của các yêu cầu về tiền, dữ liệu bí mật hoặc thông tin đăng nhập.

Doxxing, liên quan đến việc tiết lộ thông tin cá nhân về các cá nhân, là một lĩnh vực khác nơi Trí tuệ nhân tạo tạo sinh hỗ trợ tội phạm. Cho dù là tiết lộ các nhân vật trực tuyến ẩn danh hoặc tiết lộ chi tiết riêng tư, trí tuệ nhân tạo tăng cường tác động, dẫn đến hậu quả trong thế giới thực như đánh cắp danh tính và quấy rối.

Và sau đó là deepfakes, video, âm thanh hoặc hình ảnh giống như thật được tạo ra bởi trí tuệ nhân tạo. Những bản sao kỹ thuật số này làm mờ ranh giới giữa thực và hư cấu, đặt ra rủi ro từ thao túng chính trị đến ám sát nhân vật.

Các vụ việc Deepfake đáng chú ý với tác động quan trọng

Sự lạm dụng Trí tuệ nhân tạo tạo sinh đã dẫn đến một loạt các vụ việc bất thường, nhấn mạnh những rủi ro và thách thức sâu sắc mà công nghệ này đặt ra khi rơi vào tay sai. Công nghệ deepfake, đặc biệt, làm mờ ranh giới giữa thực và hư cấu. Kết quả từ sự kết hợp của GANs và sự độc ác sáng tạo, deepfakes kết hợp các yếu tố thực và giả tạo. GANs bao gồm hai mạng nơ-ron: người tạo và người phân biệt. Người tạo tạo ra nội dung ngày càng thực tế, chẳng hạn như khuôn mặt, trong khi người phân biệt cố gắng phát hiện ra những kẻ giả mạo.

Các vụ việc đáng chú ý liên quan đến deepfakes đã xảy ra. Ví dụ, Dessa đã sử dụng một mô hình trí tuệ nhân tạo để tạo ra một bản sao giọng nói thuyết phục của Joe Rogan, chứng minh khả năng của trí tuệ nhân tạo trong việc tạo ra các giọng nói giả thực tế. Deepfakes cũng đã có tác động đáng kể đến chính trị, như thấy trong các ví dụ khác nhau. Ví dụ, một cuộc gọi tự động giả mạo Tổng thống Mỹ Joe Biden đã lừa các cử tri ở New Hampshire, trong khi các bản ghi âm audio được tạo ra bởi trí tuệ nhân tạo ở Slovakia giả mạo một ứng cử viên tự do để ảnh hưởng đến kết quả bầu cử. Một số vụ việc tương tự đã được báo cáo ảnh hưởng đến chính trị của nhiều quốc gia.

Các vụ lừa đảo tài chính cũng đã sử dụng deepfakes. Một công ty kỹ thuật của Anh tên là Arup đã trở thành nạn nhân của một vụ lừa đảo deepfake trị giá 20 triệu bảng, trong đó một nhân viên tài chính đã bị lừa chuyển tiền trong một cuộc gọi video với những kẻ lừa đảo sử dụng giọng nói và hình ảnh được tạo ra bởi trí tuệ nhân tạo để giả mạo các giám đốc điều hành của công ty. Điều này nhấn mạnh tiềm năng của trí tuệ nhân tạo trong việc lừa đảo tài chính.

Các tội phạm mạng đã ngày càng khai thác các công cụ Trí tuệ nhân tạo tạo sinh như WormGPT và FraudGPT để tăng cường các cuộc tấn công, tạo ra một mối đe dọa an ninh mạng đáng kể. WormGPT, dựa trên mô hình GPT-J, hỗ trợ các hoạt động độc hại mà không có hạn chế về mặt đạo đức. Các nhà nghiên cứu từ SlashNext đã sử dụng nó để tạo ra một email lừa đảo rất thuyết phục. FraudGPT, được lưu hành trên các kênh Telegram, được thiết kế cho các cuộc tấn công phức tạp và có thể tạo ra mã độc, tạo ra các trang web lừa đảo thuyết phục và xác định các lỗ hổng của hệ thống. Sự xuất hiện của những công cụ này nhấn mạnh sự tinh vi ngày càng tăng của các mối đe dọa mạng và nhu cầu cấp thiết về các biện pháp an ninh được tăng cường.

Hậu quả pháp lý và đạo đức

Hậu quả pháp lý và đạo đức của sự lừa đảo do trí tuệ nhân tạo tạo ra đặt ra một nhiệm vụ đầy thách thức giữa sự phát triển nhanh chóng của các mô hình tạo sinh. Hiện tại, trí tuệ nhân tạo hoạt động trong một khu vực pháp lý xám, với các nhà hoạch định chính sách cần giúp đỡ để theo kịp sự phát triển công nghệ. Các khuôn khổ vững chắc là cần thiết để hạn chế việc lạm dụng và bảo vệ công chúng khỏi các hoạt động lừa đảo và gian lận do trí tuệ nhân tạo tạo ra.

Hơn nữa, những người tạo ra trí tuệ nhân tạo phải chịu trách nhiệm về mặt đạo đức. Minh bạch, tiết lộ và tuân thủ các hướng dẫn là những khía cạnh thiết yếu của việc phát triển trí tuệ nhân tạo có trách nhiệm. Các nhà phát triển phải dự đoán việc lạm dụng tiềm năng và thiết kế các biện pháp cho các mô hình trí tuệ nhân tạo của họ để giảm thiểu rủi ro một cách hiệu quả.

Việc duy trì sự cân bằng giữa đổi mới và an ninh là quan trọng trong việc giải quyết các thách thức do lừa đảo trí tuệ nhân tạo tạo ra. Việc quy định quá mức có thể kìm hãm tiến bộ, trong khi việc giám sát lỏng lẻo mời gọi đến sự hỗn loạn. Do đó, các quy định thúc đẩy đổi mới mà không ảnh hưởng đến an toàn là điều cần thiết cho sự phát triển bền vững.

Ngoài ra, các mô hình trí tuệ nhân tạo nên được thiết kế với an ninh và đạo đức trong tâm trí. Việc tích hợp các tính năng như phát hiện thiên vị, kiểm tra độ bền và đào tạo đối nghịch có thể tăng cường khả năng chống lại việc khai thác độc hại. Điều này đặc biệt quan trọng khi xem xét sự tinh vi ngày càng tăng của các vụ lừa đảo do trí tuệ nhân tạo tạo ra, nhấn mạnh nhu cầu về tầm nhìn đạo đức và sự linh hoạt của quy định để bảo vệ chống lại tiềm năng lừa đảo của các mô hình tạo sinh trí tuệ nhân tạo.

Chiến lược giảm thiểu

Các chiến lược giảm thiểu cho việc sử dụng lừa đảo các mô hình tạo sinh trí tuệ nhân tạo đòi hỏi một cách tiếp cận đa diện liên quan đến việc cải thiện các biện pháp an toàn và hợp tác giữa các bên liên quan. Các tổ chức phải sử dụng người xem xét để đánh giá nội dung được tạo ra bởi trí tuệ nhân tạo, sử dụng chuyên môn của họ để xác định các mẫu lạm dụng và tinh chỉnh các mô hình. Các hệ thống tự động được trang bị các thuật toán tiên tiến có thể quét các tín hiệu đỏ liên quan đến lừa đảo, hoạt động độc hại hoặc thông tin sai lệch, phục vụ như các hệ thống cảnh báo sớm chống lại các hành động gian lận.

Hơn nữa, sự hợp tác giữa các công ty công nghệ, cơ quan thực thi pháp luật và các nhà hoạch định chính sách là rất quan trọng trong việc phát hiện và ngăn chặn lừa đảo do trí tuệ nhân tạo tạo ra. Các gã khổng lồ công nghệ phải chia sẻ thông tin, thực hành tốt nhất và thông tin về mối đe dọa, trong khi các cơ quan thực thi pháp luật làm việc chặt chẽ với các chuyên gia trí tuệ nhân tạo để vượt qua tội phạm. Các nhà hoạch định chính sách cần tham gia với các công ty công nghệ, nhà nghiên cứu và xã hội dân sự để tạo ra các quy định hiệu quả, nhấn mạnh tầm quan trọng của hợp tác quốc tế trong việc chống lại lừa đảo do trí tuệ nhân tạo tạo ra.

Nhìn về tương lai, tương lai của Trí tuệ nhân tạo tạo sinh và phòng chống tội phạm được đặc trưng bởi cả thách thức và cơ hội. Khi Trí tuệ nhân tạo tạo sinh tiến hóa, các chiến thuật tội phạm cũng sẽ tiến hóa, với sự phát triển trong trí tuệ nhân tạo lượng tử, tính toán biên và các mô hình phân tán định hình lĩnh vực này. Do đó, giáo dục về phát triển trí tuệ nhân tạo đạo đức đang trở nên ngày càng cơ bản, với các trường học và đại học được khuyến khích đưa các khóa học về đạo đức vào chương trình bắt buộc cho các nhà thực hành trí tuệ nhân tạo.

Kết luận

Trí tuệ nhân tạo tạo sinh mang lại cả lợi ích to lớn và rủi ro đáng kể, nhấn mạnh nhu cầu cấp thiết về các khuôn khổ quy định vững chắc và phát triển trí tuệ nhân tạo đạo đức. Khi các tội phạm mạng khai thác các công cụ tiên tiến, các chiến lược giảm thiểu hiệu quả, chẳng hạn như giám sát của con người, các thuật toán phát hiện tiên tiến và hợp tác quốc tế, là điều cần thiết.

Bằng cách cân bằng đổi mới với an ninh, thúc đẩy minh bạch và thiết kế các mô hình trí tuệ nhân tạo với các biện pháp bảo vệ tích hợp, chúng ta có thể chống lại hiệu quả mối đe dọa ngày càng tăng của lừa đảo do trí tuệ nhân tạo tạo ra và đảm bảo một môi trường công nghệ an toàn hơn cho tương lai.

Dr. Assad Abbas, một Giáo sư Liên kết có thời hạn tại Đại học COMSATS Islamabad, Pakistan, đã nhận bằng Tiến sĩ từ Đại học North Dakota State, USA. Nghiên cứu của ông tập trung vào các công nghệ tiên tiến, bao gồm điện toán đám mây, sương mù và cạnh, phân tích dữ liệu lớn và AI. Dr. Abbas đã có những đóng góp đáng kể với các ấn phẩm trên các tạp chí khoa học và hội nghị uy tín. Ông cũng là người sáng lập của MyFastingBuddy.