Connect with us

Vào năm 2024, Deepfakes sẽ trở thành xu hướng chính. Dưới đây là cách các doanh nghiệp có thể bảo vệ mình

Lãnh đạo tư tưởng

Vào năm 2024, Deepfakes sẽ trở thành xu hướng chính. Dưới đây là cách các doanh nghiệp có thể bảo vệ mình

mm

Kể từ ít nhất cuộc bầu cử năm 2016, khi những lo ngại về thông tin sai lệch bùng nổ vào ý thức công cộng, các chuyên gia đã cảnh báo về deepfakes. Những tác động của công nghệ này đã và vẫn còn đáng sợ. Sự phổ biến không kiểm soát của phương tiện truyền thông tổng hợp siêu thực tế đe dọa đến mọi người – từ các chính trị gia đến những người bình thường. Trong một môi trường dễ cháy đã được đặc trưng bởi sự mất lòng tin rộng rãi, deepfakes hứa hẹn sẽ chỉ làm tăng thêm ngọn lửa.

Nhưng mọi thứ đang thay đổi – đang thay đổi ngay bây giờ. Trong hai năm qua, công nghệ trí tuệ nhân tạo tạo ra đã trở thành xu hướng chính, làm đơn giản hóa quá trình tạo ra deepfakes cho người tiêu dùng trung bình. Những đổi mới này cũng đã tăng đáng kể chất lượng của deepfakes, đến mức mà trong một thử nghiệm mù, hầu hết mọi người sẽ không thể phân biệt được một video bị chỉnh sửa với bản thật.

Năm nay, đặc biệt, chúng ta đã bắt đầu thấy những dấu hiệu của cách công nghệ này có thể ảnh hưởng đến xã hội nếu không có nỗ lực để chống lại nó. Ví dụ, năm ngoái, một bức ảnh được tạo ra bởi AI của Giáo hoàng Francis mặc một chiếc áo khoác rất thời trang đã lan truyền, và được nhiều người coi là đích thực. Mặc dù điều này có thể seem, trên một mức độ, như một bit của niềm vui vô hại, nhưng nó tiết lộ sự nguy hiểm của những deepfakes này và làm thế nào khó để ngăn chặn thông tin sai lệch một khi nó đã bắt đầu lan truyền. Chúng ta có thể mong đợi tìm thấy những trường hợp ít thú vị hơn – và nguy hiểm hơn – của loại lừa đảo lan truyền này trong những tháng và năm tới.

Vì lý do này, điều quan trọng là các tổ chức thuộc mọi loại – từ truyền thông đến tài chính đến chính phủ đến các nền tảng truyền thông xã hội – phải chủ động đối với việc phát hiện deepfakes và xác thực nội dung. Một văn hóa tin cậy thông qua các biện pháp an toàn cần được thiết lập ngay bây giờ, trước khi một làn sóng deepfakes có thể cuốn trôi sự hiểu biết chung của chúng ta về thực tại.

Trước khi đi sâu vào những gì các tổ chức có thể làm để chống lại sự gia tăng của deepfakes, điều đáng nói là tại sao các công cụ bảo vệ lại cần thiết. Thông thường, những người quan tâm đến deepfakes trích dẫn tiềm năng ảnh hưởng của chúng đến chính trị và sự tin cậy của xã hội. Những hậu quả tiềm tàng này cực kỳ quan trọng và không nên bị bỏ qua trong bất kỳ cuộc trò chuyện nào về deepfakes. Nhưng như nó xảy ra, sự trỗi dậy của công nghệ này có những tác động tiềm tàng khủng khiếp trên nhiều lĩnh vực của nền kinh tế Mỹ.

Lấy bảo hiểm, ví dụ. Hiện tại, gian lận bảo hiểm hàng năm ở Hoa Kỳ lên tới 308,6 tỷ đô la – một con số gần bằng một phần tư toàn bộ ngành công nghiệp. Đồng thời, các hoạt động phía sau của hầu hết các công ty bảo hiểm đang ngày càng được tự động hóa, với 70% yêu cầu tiêu chuẩn dự kiến sẽ không cần chạm vào năm 2025. Điều này có nghĩa là các quyết định đang ngày càng được đưa ra với sự can thiệp tối thiểu của con người: tự phục vụ ở phía trước và tự động hóa được hỗ trợ bởi AI ở phía sau.

Ironically, chính công nghệ đã cho phép tăng tự động hóa này – tức là học máy và trí tuệ nhân tạo – đã đảm bảo việc khai thác của những kẻ xấu. Bây giờ, dễ dàng hơn bao giờ hết cho người bình thường để thao túng các yêu cầu – ví dụ, bằng cách sử dụng các chương trình AI tạo ra như Dall-E, Midjourney hoặc Stable Diffusion để làm cho một chiếc xe看起来 bị hư hỏng hơn nó thực sự là. Hiện tại, các ứng dụng tồn tại cụ thể cho mục đích này, chẳng hạn như Dude Your Car!, cho phép người dùng tạo ra các vết lõm nhân tạo trong ảnh của xe.

Điều tương tự cũng áp dụng cho các tài liệu chính thức, có thể dễ dàng bị thao túng – với hóa đơn, đánh giá bảo hiểm và thậm chí chữ ký được điều chỉnh hoặc tạo ra toàn bộ. Khả năng này là một vấn đề không chỉ đối với các công ty bảo hiểm mà còn trên toàn nền kinh tế. Đó là một vấn đề đối với các tổ chức tài chính, phải xác minh tính xác thực của nhiều loại tài liệu. Đó là một vấn đề đối với các nhà bán lẻ, có thể nhận được khiếu nại rằng một sản phẩm đến bị lỗi, đi kèm với một hình ảnh bị chỉnh sửa.

Các doanh nghiệp đơn giản không thể hoạt động với mức độ không chắc chắn này. Một số mức độ gian lận có thể luôn không thể tránh khỏi, nhưng với deepfakes, chúng ta không nói về gian lận ở biên giới – chúng ta đang nói về một thảm họa nhận thức tiềm tàng trong đó các doanh nghiệp không có phương tiện rõ ràng để phân biệt sự thật và hư cấu, và kết thúc bằng việc mất hàng tỷ đô la vì sự混乱 này.

Hiểu về mối đe dọa của deepfakes

Trước khi đi sâu vào những gì các tổ chức có thể làm để chống lại sự gia tăng của deepfakes, điều đáng nói là tại sao các công cụ bảo vệ lại cần thiết. Thông thường, những người quan tâm đến deepfakes trích dẫn tiềm năng ảnh hưởng của chúng đến chính trị và sự tin cậy của xã hội. Những hậu quả tiềm tàng này cực kỳ quan trọng và không nên bị bỏ qua trong bất kỳ cuộc trò chuyện nào về deepfakes. Nhưng như nó xảy ra, sự trỗi dậy của công nghệ này có những tác động tiềm tàng khủng khiếp trên nhiều lĩnh vực của nền kinh tế Mỹ.

Đấu với lửa: cách AI có thể giúp

Vậy, điều gì có thể được thực hiện để chống lại điều này? Có thể không ngạc nhiên, câu trả lời nằm trong chính công nghệ tạo ra deepfakes. Nếu chúng ta muốn ngăn chặn sự lan truyền này trước khi nó thu được động lực, chúng ta cần chống lại nó bằng lửa. AI có thể giúp tạo ra deepfakes – nhưng nó cũng, may mắn thay, có thể giúp xác định chúng tự động và trên quy mô lớn.

Sử dụng các công cụ AI phù hợp, các doanh nghiệp có thể tự động xác định xem một bức ảnh, video hoặc tài liệu cụ thể có bị chỉnh sửa hay không. Mang lại hàng chục mô hình khác nhau để xác định giả mạo, AI có thể tự động thông báo cho các doanh nghiệp chính xác xem một bức ảnh hoặc video có đáng ngờ hay không. Giống như các công cụ mà các doanh nghiệp đang triển khai để tự động hóa các hoạt động hàng ngày, những công cụ này có thể chạy ở chế độ nền mà không làm tăng gánh nặng cho nhân viên đã quá tải hoặc lấy thời gian từ các dự án quan trọng.

Nếu và khi một bức ảnh được xác định là có khả năng bị chỉnh sửa, nhân viên có thể được cảnh báo và có thể đánh giá vấn đề trực tiếp, với thông tin được cung cấp bởi AI. Sử dụng phân tích quét sâu, nó có thể thông báo cho các doanh nghiệp tại sao nó tin rằng một bức ảnh có khả năng bị chỉnh sửa – chỉ ra, ví dụ, các siêu dữ liệu được chỉnh sửa thủ công, sự tồn tại của các hình ảnh giống hệt trên web, các bất thường nhiếp ảnh khác, v.v.

Không có gì trong số này là để giảm thiểu những tiến bộ đáng kinh ngạc mà chúng ta đã chứng kiến trong công nghệ AI tạo ra trong những năm qua, những công nghệ này thực sự có những ứng dụng hữu ích và sản xuất trên nhiều ngành công nghiệp. Nhưng chính sự mạnh mẽ – cũng như sự đơn giản – của công nghệ mới nổi này gần như đảm bảo sự lạm dụng của những kẻ tìm cách thao túng các tổ chức, cho dù để đạt được lợi ích cá nhân hay để gieo rắc sự hỗn loạn trong xã hội.

Các tổ chức có thể có cả hai thế giới tốt nhất: lợi ích về năng suất của AI mà không có những điểm tiêu cực của deepfakes phổ biến. Nhưng để làm được điều này, đòi hỏi một mức độ cảnh giác mới, đặc biệt là given the fact rằng đầu ra của AI tạo ra đang trở nên thuyết phục, chi tiết và giống như đời thực hơn mỗi ngày. Càng sớm các tổ chức chú ý đến vấn đề này, càng sớm họ có thể tận hưởng đầy đủ lợi ích của một thế giới tự động hóa.

Nicos Vekiarides là giám đốc điều hành và đồng sáng lập của Attestiv. Ông đã dành 20 năm qua trong lĩnh vực IT và đám mây doanh nghiệp, với tư cách là CEO và doanh nhân, đưa các công nghệ mới sáng tạo ra thị trường. Công ty khởi nghiệp trước đó của ông, TwinStrata, một công ty lưu trữ đám mây sáng tạo nơi ông tiên phong trong lưu trữ tích hợp đám mây cho doanh nghiệp, đã được EMC mua lại vào năm 2014. Trước đó, ông đã đưa ra thị trường thiết bị ảo hóa lưu trữ đầu tiên của ngành cho StorageApps, một công ty sau đó được HP mua lại.