sơ khai Sự nguy hiểm của AI Chatbots - Và cách đối phó với chúng - Unite.AI
Kết nối với chúng tôi

Lãnh đạo tư tưởng

Sự nguy hiểm của AI Chatbots – Và Cách Chống lại Chúng

mm

Được phát hành

 on

Từng được coi là các chương trình nói chuyện tự động, các chatbot AI giờ đây có thể học và tổ chức các cuộc hội thoại gần như không thể phân biệt được với con người. Tuy nhiên, sự nguy hiểm của chatbot AI cũng rất đa dạng.

Chúng có thể bao gồm từ những người lạm dụng chúng đến các rủi ro an ninh mạng thực tế. Khi con người ngày càng phụ thuộc vào công nghệ AI, việc biết được những hậu quả tiềm tàng của việc sử dụng các chương trình này là rất cần thiết. Nhưng bot có nguy hiểm không?

1. Thành kiến ​​và Phân biệt đối xử

Một trong những mối nguy hiểm lớn nhất của chatbot AI là xu hướng của chúng đối với những thành kiến ​​​​có hại. Bởi vì AI rút ra các kết nối giữa các điểm dữ liệu mà con người thường bỏ lỡ, nên nó có thể nhận ra những thành kiến ​​tinh tế, tiềm ẩn trong dữ liệu đào tạo của mình để dạy chính nó trở nên phân biệt đối xử. Do đó, các chatbot có thể nhanh chóng học cách phun ra nội dung phân biệt chủng tộc, phân biệt giới tính hoặc phân biệt đối xử khác, ngay cả khi không có gì cực đoan như vậy trong dữ liệu đào tạo của nó.

Một ví dụ điển hình là bot tuyển dụng bị loại bỏ của Amazon. Năm 2018, nổi lên rằng Amazon đã từ bỏ một dự án AI có nghĩa là để đánh giá trước hồ sơ của ứng viên vì nó đã xử phạt các ứng dụng từ phụ nữ. Bởi vì hầu hết các hồ sơ mà bot được đào tạo là của nam giới, nên nó tự dạy rằng các ứng viên nam được ưu tiên hơn, ngay cả khi dữ liệu đào tạo không nói rõ điều đó.

Chatbots sử dụng nội dung internet để dạy bản thân cách giao tiếp một cách tự nhiên có xu hướng thể hiện những thành kiến ​​thậm chí còn cực đoan hơn. Vào năm 2016, Microsoft đã ra mắt một chatbot có tên Tay, học cách bắt chước các bài đăng trên mạng xã hội. Trong vòng vài giờ, nó bắt đầu tweet nội dung xúc phạm cao, khiến Microsoft phải đình chỉ tài khoản trước đó không lâu.

Nếu các công ty không cẩn thận khi xây dựng và triển khai các bot này, họ có thể vô tình dẫn đến những tình huống tương tự. Chatbots có thể ngược đãi khách hàng hoặc lan truyền nội dung thiên vị có hại mà họ phải ngăn chặn.

2. Rủi ro an ninh mạng

Sự nguy hiểm của công nghệ AI chatbot cũng có thể gây ra mối đe dọa an ninh mạng trực tiếp hơn cho người dân và doanh nghiệp. Một trong những hình thức tấn công mạng phổ biến nhất là lừa đảo trực tuyến và vishing. Những liên quan những kẻ tấn công mạng bắt chước các tổ chức đáng tin cậy chẳng hạn như ngân hàng hoặc cơ quan chính phủ.

Lừa đảo lừa đảo thường hoạt động thông qua email và tin nhắn văn bản — việc nhấp vào liên kết sẽ cho phép phần mềm độc hại xâm nhập vào hệ thống máy tính. Khi đã vào bên trong, vi-rút có thể làm bất cứ điều gì, từ đánh cắp thông tin cá nhân đến chiếm giữ hệ thống để đòi tiền chuộc.

Tỷ lệ các cuộc tấn công lừa đảo đã tăng đều đặn trong và sau đại dịch COVID-19. Cơ quan an ninh cơ sở hạ tầng và an ninh mạng tìm thấy 84% cá nhân trả lời tin nhắn lừa đảo với thông tin nhạy cảm hoặc nhấp vào liên kết.

Những kẻ lừa đảo đang sử dụng công nghệ chatbot AI để tự động tìm kiếm nạn nhân, thuyết phục họ nhấp vào liên kết và cung cấp thông tin cá nhân. Chatbots được sử dụng bởi nhiều tổ chức tài chính — chẳng hạn như ngân hàng — để hợp lý hóa trải nghiệm dịch vụ khách hàng.

Những kẻ lừa đảo Chatbots có thể bắt chước các lời nhắc tự động giống như các ngân hàng sử dụng để lừa nạn nhân. Họ cũng có thể tự động quay số điện thoại hoặc liên hệ trực tiếp với nạn nhân trên các nền tảng trò chuyện tương tác.

3. Ngộ độc dữ liệu

Đầu độc dữ liệu là một cuộc tấn công mạng mới được hình thành nhắm trực tiếp vào trí tuệ nhân tạo. Công nghệ AI học hỏi từ các tập dữ liệu và sử dụng thông tin đó để hoàn thành nhiệm vụ. Điều này đúng với tất cả các chương trình AI, bất kể mục đích hay chức năng của chúng.

Đối với AI của chatbot, điều này có nghĩa là học nhiều câu trả lời cho các câu hỏi mà người dùng có thể đưa ra cho họ. Tuy nhiên, đây cũng là một trong những mối nguy hiểm của AI.

Các bộ dữ liệu này thường là các công cụ và tài nguyên nguồn mở có sẵn cho bất kỳ ai. Mặc dù các công ty AI thường giữ bí mật được bảo vệ chặt chẽ về nguồn dữ liệu của họ, nhưng những kẻ tấn công mạng có thể xác định nguồn nào họ sử dụng và thao túng dữ liệu.

Những kẻ tấn công mạng có thể tìm cách can thiệp vào bộ dữ liệu được sử dụng để huấn luyện AI, cho phép chúng thao túng các quyết định và phản ứng của mình. AI sẽ sử dụng thông tin từ dữ liệu đã thay đổi và thực hiện các hành vi mà kẻ tấn công muốn.

Ví dụ: một trong những nguồn được sử dụng phổ biến nhất cho tập dữ liệu là các nguồn Wiki như Wikipedia. Mặc dù dữ liệu không đến từ bài viết trực tiếp trên Wikipedia, nhưng nó đến từ các ảnh chụp nhanh dữ liệu được lấy vào những thời điểm cụ thể. Tin tặc có thể tìm cách chỉnh sửa dữ liệu để mang lại lợi ích cho chúng.

Trong trường hợp AI của chatbot, tin tặc có thể làm hỏng bộ dữ liệu được sử dụng để đào tạo chatbot hoạt động cho các tổ chức y tế hoặc tài chính. Họ có thể thao túng các chương trình chatbot để cung cấp cho khách hàng thông tin sai lệch có thể khiến họ nhấp vào liên kết chứa phần mềm độc hại hoặc trang web lừa đảo. Khi AI bắt đầu lấy dữ liệu bị nhiễm độc, rất khó để phát hiện và có thể dẫn đến vi phạm an ninh mạng nghiêm trọng mà không được chú ý trong một thời gian dài.

Cách giải quyết các mối nguy hiểm của AI Chatbots

Những rủi ro này đáng lo ngại, nhưng chúng không có nghĩa là bot vốn đã nguy hiểm. Thay vào đó, bạn nên tiếp cận chúng một cách thận trọng và xem xét những mối nguy hiểm này khi xây dựng và sử dụng chatbot.

Chìa khóa để ngăn chặn sự thiên vị của AI là tìm kiếm nó trong suốt quá trình đào tạo. Đảm bảo đào tạo nó trên các tập dữ liệu đa dạng và lập trình cụ thể cho nó để tránh tính đến những thứ như chủng tộc, giới tính hoặc khuynh hướng tình dục khi ra quyết định. Tốt nhất là nên có một nhóm các nhà khoa học dữ liệu đa dạng để xem xét hoạt động bên trong của chatbot và đảm bảo rằng chúng không thể hiện bất kỳ thành kiến ​​nào, dù là tinh tế.

Cách phòng chống lừa đảo tốt nhất là đào tạo. Đào tạo tất cả nhân viên để phát hiện dấu hiệu phổ biến của các nỗ lực lừa đảo để họ không rơi vào những cuộc tấn công này. Truyền bá nhận thức của người tiêu dùng về vấn đề này cũng sẽ hữu ích.

Bạn có thể ngăn ngừa ngộ độc dữ liệu bằng cách hạn chế quyền truy cập vào dữ liệu đào tạo của chatbot. Chỉ những người cần quyền truy cập vào dữ liệu này để thực hiện công việc của họ một cách chính xác mới có quyền — một khái niệm được gọi là nguyên tắc đặc quyền tối thiểu. Sau khi thực hiện những hạn chế đó, hãy sử dụng các biện pháp xác minh mạnh mẽ như xác thực đa yếu tố hoặc sinh trắc học để ngăn chặn rủi ro bị tội phạm mạng xâm nhập vào tài khoản được ủy quyền.

Luôn cảnh giác trước những nguy cơ của sự phụ thuộc vào AI

Trí tuệ nhân tạo là một công nghệ thực sự kỳ diệu với các ứng dụng gần như vô tận. Tuy nhiên, sự nguy hiểm của AI có thể không rõ ràng. Bot có nguy hiểm không? Vốn dĩ không phải, nhưng tội phạm mạng có thể sử dụng chúng theo nhiều cách gây rối khác nhau. Người dùng quyết định ứng dụng của công nghệ mới này là gì.

Zac Amos là một nhà văn công nghệ tập trung vào trí tuệ nhân tạo. Anh ấy cũng là Biên tập viên tính năng tại hack lại, nơi bạn có thể đọc thêm tác phẩm của anh ấy.