Connect with us

Liệu Có Giải Pháp Rõ Ràng Cho Các Rủi Ro Riêng Tư Được Đặt Ra Bởi Trí Tuệ Nhân Tạo Tạo Sinh?

Lãnh đạo tư tưởng

Liệu Có Giải Pháp Rõ Ràng Cho Các Rủi Ro Riêng Tư Được Đặt Ra Bởi Trí Tuệ Nhân Tạo Tạo Sinh?

mm

Các rủi ro riêng tư được đặt ra bởi trí tuệ nhân tạo tạo sinh là rất thực. Từ việc tăng cường giám sát và暴露 đến các chiến dịch lừa đảo và vishing hiệu quả hơn bao giờ hết, trí tuệ nhân tạo tạo sinh xói mòn quyền riêng tư hàng loạt, không phân biệt, trong khi cung cấp cho các tác nhân xấu, dù là tội phạm, được tài trợ bởi nhà nước hay chính phủ, với các công cụ họ cần để nhắm vào các cá nhân và nhóm.

Giải pháp rõ ràng nhất cho vấn đề này liên quan đến việc người tiêu dùng và người dùng tập thể quay lưng lại với sự cường điệu về AI, yêu cầu minh bạch từ những người phát triển hoặc triển khai các tính năng AI được gọi là, và quy định hiệu quả từ các cơ quan chính phủ giám sát hoạt động của họ. Mặc dù đáng để phấn đấu, nhưng điều này không có khả năng xảy ra trong thời gian gần.

Còn lại là những cách tiếp cận hợp lý, thậm chí nếu cần thiết không đầy đủ, để giảm thiểu các rủi ro riêng tư của trí tuệ nhân tạo tạo sinh. Dự đoán dài hạn, chắc chắn, nhưng nhàm chán là càng nhiều người dùng được giáo dục về quyền riêng tư dữ liệu nói chung, thì càng ít rủi ro riêng tư được đặt ra bởi việc áp dụng hàng loạt trí tuệ nhân tạo tạo sinh.

Có Phải Chúng Ta Đã Hiểu Đúng Khái Niệm Trí Tuệ Nhân Tạo Tạo Sinh?

Sự cường điệu về AI là rất phổ biến đến mức một cuộc khảo sát về những gì người dùng hiểu về trí tuệ nhân tạo tạo sinh hầu như không cần thiết. Tất nhiên, không có “tính năng AI” nào, chức năng và sản phẩm thực sự đại diện cho ví dụ về trí tuệ nhân tạo thực sự, bất cứ điều gì đó có thể trông như thế nào. Thay vào đó, chúng chủ yếu là ví dụ về học máy (ML), học sâu (DL), và mô hình ngôn ngữ lớn (LLMs).

Trí tuệ nhân tạo tạo sinh, như tên gọi của nó, có thể tạo ra nội dung mới – dù là văn bản (bao gồm ngôn ngữ lập trình), âm thanh (bao gồm âm nhạc và giọng nói giống con người) hoặc video (với âm thanh, đối thoại, cắt và thay đổi máy quay). Tất cả điều này được thực hiện bằng cách đào tạo LLM để xác định, khớp và tái tạo các mẫu trong nội dung do con người tạo ra.

Hãy lấy ChatGPT làm ví dụ. Giống như nhiều LLM, nó được đào tạo trong ba giai đoạn rộng lớn:

  • Đào tạo trước: Trong giai đoạn này, LLM được “cho ăn” tài liệu văn bản từ internet, sách, tạp chí học thuật và bất cứ thứ gì khác chứa văn bản có thể có liên quan hoặc hữu ích.
  • Đào tạo hướng dẫn giám sát tinh chỉnh: Các mô hình được đào tạo để phản hồi một cách mạch lạc hơn với các hướng dẫn bằng cách sử dụng các cặp hướng dẫn-phản hồi chất lượng cao, thường được lấy từ con người.
  • Học tăng cường từ phản hồi của con người (RLHF): LLM như ChatGPT thường trải qua giai đoạn đào tạo bổ sung này, trong đó các tương tác với người dùng được sử dụng để tinh chỉnh mô hình với các trường hợp sử dụng điển hình.

Tất cả ba giai đoạn của quá trình đào tạo đều liên quan đến dữ liệu, dù là các kho dữ liệu lớn đã được thu thập trước (như những dữ liệu được sử dụng trong đào tạo trước) hay dữ liệu được thu thập và xử lý gần như thời gian thực (như những dữ liệu được sử dụng trong RLHF). Chính dữ liệu đó mang lại phần lớn rủi ro riêng tư từ trí tuệ nhân tạo tạo sinh.

Các Rủi Ro Riêng Tư Được Đặt Ra Bởi Trí Tuệ Nhân Tạo Tạo Sinh?

Quyền riêng tư bị xâm phạm khi thông tin cá nhân liên quan đến một cá nhân (chủ thể dữ liệu) được cung cấp cho các cá nhân hoặc thực thể khác mà không có sự đồng ý của chủ thể dữ liệu. LLM được đào tạo trước và tinh chỉnh trên một phạm vi rộng lớn của dữ liệu có thể và thường bao gồm dữ liệu cá nhân. Dữ liệu này thường được thu thập từ các nguồn công khai, nhưng không phải lúc nào cũng vậy.

Ngay cả khi dữ liệu đó được lấy từ các nguồn công khai, việc dữ liệu đó được tổng hợp và xử lý bởi một LLM và sau đó về cơ bản được tìm kiếm thông qua giao diện của LLM có thể được cho là vi phạm quyền riêng tư.

Giai đoạn học tăng cường từ phản hồi của con người (RLHF) làm phức tạp mọi thứ. Ở giai đoạn đào tạo này, các tương tác thực với người dùng được sử dụng để sửa đổi và tinh chỉnh phản hồi của LLM. Điều này có nghĩa là các tương tác của người dùng với một LLM có thể được xem, chia sẻ và phổ biến bởi bất kỳ ai có quyền truy cập vào dữ liệu đào tạo.

Trong hầu hết các trường hợp, điều này không phải là vi phạm quyền riêng tư, vì hầu hết các nhà phát triển LLM bao gồm các chính sách quyền riêng tư và điều khoản dịch vụ yêu cầu người dùng phải đồng ý trước khi tương tác với LLM. Rủi ro riêng tư ở đây nằm ở việc nhiều người dùng không biết rằng họ đã đồng ý với việc thu thập và sử dụng dữ liệu như vậy. Những người dùng như vậy có khả năng tiết lộ thông tin riêng tư và nhạy cảm trong quá trình tương tác với các hệ thống này, không nhận ra rằng những tương tác này không phải là bí mật hay riêng tư.

Như vậy, chúng ta đến với ba cách chính mà trí tuệ nhân tạo tạo sinh đặt ra rủi ro riêng tư:

  • Các kho dữ liệu lớn có thể chứa thông tin cá nhân có thể bị xâm phạm và bị đánh cắp.
  • Thông tin cá nhân được bao gồm trong dữ liệu đào tạo trước có thể bị rò rỉ cho người dùng khác của cùng một LLM thông qua phản hồi của nó với các truy vấn và hướng dẫn.
  • Thông tin cá nhân và bí mật được cung cấp trong quá trình tương tác với LLM sẽ kết thúc với nhân viên của LLM và có thể với các nhà thầu bên thứ ba, từ đó nó có thể được xem hoặc bị rò rỉ.

Tất cả những điều này đều là rủi ro đối với quyền riêng tư của người dùng, nhưng khả năng thông tin nhận dạng cá nhân (PII) kết thúc ở tay sai lầm vẫn có vẻ khá thấp. Đó là, ít nhất, cho đến khi các nhà môi giới dữ liệu tham gia vào bức tranh.

Với PII và các dữ liệu cá nhân khác đã trở thành một loại hàng hóa và ngành công nghiệp môi giới dữ liệu nảy sinh để lợi dụng điều này, bất kỳ dữ liệu cá nhân nào “được đưa ra ngoài kia” đều có khả năng cao sẽ bị các nhà môi giới dữ liệu thu thập và lan truyền rộng rãi.

Các Rủi Ro Riêng Tư Của Trí Tuệ Nhân Tạo Tạo Sinh Trong Bối Cảnh

Trước khi xem xét các rủi ro trí tuệ nhân tạo tạo sinh đặt ra cho quyền riêng tư của người dùng trong bối cảnh các sản phẩm, dịch vụ và quan hệ đối tác doanh nghiệp cụ thể, hãy bước lại và xem xét một cách có cấu trúc hơn về toàn bộ bảng màu của các rủi ro trí tuệ nhân tạo tạo sinh. Viết cho IAPP, Moraes và Previtali đã thực hiện một cách tiếp cận dựa trên dữ liệu để tinh chỉnh “Thuật ngữ học về quyền riêng tư” của Solove năm 2006, giảm 16 rủi ro riêng tư được mô tả ở đó xuống 12 rủi ro riêng tư cụ thể của AI.

Đây là 12 rủi ro riêng tư được bao gồm trong phân loại học được sửa đổi của Moraes và Previtali:

  • Giám sát: AI làm tăng rủi ro giám sát bằng cách tăng quy mô và phổ biến của việc thu thập dữ liệu cá nhân.
  • Xác định: Công nghệ AI cho phép liên kết danh tính tự động trên các nguồn dữ liệu khác nhau, làm tăng rủi ro liên quan đến việc暴露 danh tính cá nhân.
  • Tổng hợp: AI kết hợp các mảnh dữ liệu khác nhau về một người để đưa ra suy luận, tạo ra rủi ro xâm phạm quyền riêng tư.
  • Phrenology và physiognomy: AI suy luận về tính cách hoặc thuộc tính xã hội từ các đặc điểm vật lý, một loại rủi ro mới không có trong thuật ngữ học của Solove.
  • Sử dụng thứ cấp: AI làm tăng việc sử dụng dữ liệu cá nhân cho các mục đích khác với mục đích ban đầu thông qua việc sử dụng lại dữ liệu.
  • Loại trừ: AI làm cho việc không thông báo hoặc không cho người dùng kiểm soát cách dữ liệu của họ được sử dụng trở nên tồi tệ hơn thông qua các hoạt động dữ liệu không minh bạch.
  • Bất an toàn: Các yêu cầu dữ liệu và thực hành lưu trữ của AI rủi ro về việc rò rỉ dữ liệu và truy cập không đúng.
  • Tiêu thụ: AI có thể tiết lộ thông tin nhạy cảm, chẳng hạn như thông qua các kỹ thuật trí tuệ nhân tạo tạo sinh.
  • Biến dạng: Khả năng của AI tạo ra nội dung thực tế nhưng giả mạo làm tăng sự lan truyền của thông tin sai lệch hoặc lừa đảo.
  • Tiêu thụ: AI có thể gây ra việc chia sẻ dữ liệu không đúng khi nó suy luận thêm thông tin nhạy cảm từ dữ liệu thô.
  • Tăng khả năng tiếp cận: AI làm cho thông tin nhạy cảm trở nên dễ tiếp cận hơn với khán giả rộng lớn hơn dự định.
  • Xâm phạm: Công nghệ AI xâm phạm không gian cá nhân hoặc sự cô độc, thường thông qua các biện pháp giám sát.

Điều này tạo nên một số nội dung đọc khá đáng lo ngại. Điều quan trọng cần lưu ý là thuật ngữ học này, để tín nhiệm của nó, tính đến xu hướng của trí tuệ nhân tạo tạo sinh để ảo giác – để tạo ra và trình bày thông tin không chính xác một cách tự tin. Hiện tượng này, mặc dù hiếm khi tiết lộ thông tin thực, cũng là một rủi ro riêng tư. Sự phổ biến của thông tin sai lệch và lừa đảo ảnh hưởng đến quyền riêng tư của chủ thể theo những cách tinh vi hơn so với trường hợp của thông tin chính xác, nhưng nó vẫn ảnh hưởng đến quyền riêng tư.

Hãy đào sâu vào một số ví dụ cụ thể về cách các rủi ro riêng tư này được phát vào trong bối cảnh các sản phẩm AI thực tế.

Tương Tác Trực Tiếp Với Hệ Thống Trí Tuệ Nhân Tạo Tạo Sinh Dựa Trên Văn Bản

Trường hợp đơn giản nhất là trường hợp người dùng tương tác trực tiếp với hệ thống trí tuệ nhân tạo tạo sinh, như ChatGPT, Midjourney hoặc Gemini. Các tương tác của người dùng với nhiều sản phẩm như vậy được ghi lại, lưu trữ và sử dụng cho RLHF (học tăng cường từ phản hồi của con người), đào tạo hướng dẫn giám sát tinh chỉnh và thậm chí đào tạo trước của các LLM khác.

Phân tích các chính sách quyền riêng tư của nhiều dịch vụ như vậy cũng tiết lộ các hoạt động chia sẻ dữ liệu khác được hỗ trợ bởi các mục đích rất khác nhau, như tiếp thị và môi giới dữ liệu. Đây là một loại rủi ro riêng tư khác được đặt ra bởi trí tuệ nhân tạo tạo sinh: những hệ thống này có thể được đặc trưng là những chiếc phễu dữ liệu khổng lồ, thu thập dữ liệu do người dùng cung cấp cũng như dữ liệu được tạo ra thông qua các tương tác với LLM cơ bản.

Tương Tác Với Hệ Thống Trí Tuệ Nhân Tạo Tạo Sinh Nhúng

Một số người dùng có thể đang tương tác với các giao diện trí tuệ nhân tạo tạo sinh được nhúng trong bất kỳ sản phẩm nào họ đang sử dụng một cách rõ ràng. Người dùng có thể biết rằng họ đang sử dụng một “tính năng AI”, nhưng họ ít có khả năng biết điều đó có nghĩa là gì về các rủi ro riêng tư của dữ liệu. Điều gì nổi bật với các hệ thống nhúng là sự thiếu đánh giá về thực tế rằng dữ liệu cá nhân được chia sẻ với LLM có thể kết thúc ở tay của các nhà phát triển và môi giới dữ liệu.

Có hai mức độ thiếu nhận thức ở đây: một số người dùng nhận ra rằng họ đang tương tác với một sản phẩm trí tuệ nhân tạo tạo sinh; và một số người tin rằng họ đang sử dụng bất kỳ sản phẩm nào mà trí tuệ nhân tạo tạo sinh được xây dựng vào hoặc truy cập thông qua. Trong cả hai trường hợp, người dùng có thể đã (và có khả năng) đồng ý về mặt kỹ thuật với các điều khoản và điều kiện liên quan đến các tương tác của họ với hệ thống nhúng.

Các Quan Hệ Đối Tác Khác Phơi Bày Người Dùng Với Hệ Thống Trí Tuệ Nhân Tạo Tạo Sinh

Một số công ty nhúng hoặc bao gồm các giao diện trí tuệ nhân tạo tạo sinh trong phần mềm của họ theo những cách ít rõ ràng hơn, khiến người dùng tương tác – và chia sẻ thông tin – với các bên thứ ba mà không nhận ra điều đó. May mắn thay, “AI” đã trở thành một điểm bán hàng hiệu quả đến mức không có khả năng một công ty sẽ giữ bí mật những triển khai như vậy.

Một hiện tượng khác trong bối cảnh này là sự phản ứng dữ dội ngày càng tăng mà các công ty như vậy đã trải qua sau khi cố gắng chia sẻ dữ liệu người dùng hoặc khách hàng với các công ty trí tuệ nhân tạo tạo sinh như OpenAI. Công ty xóa dữ liệu Optery, ví dụ, đã đảo ngược một quyết định để chia sẻ dữ liệu người dùng với OpenAI trên cơ sở chọn ra, có nghĩa là người dùng được đăng ký vào chương trình theo mặc định.

Không chỉ khách hàng nhanh chóng tiết lộ sự thất vọng của họ, mà dịch vụ xóa dữ liệu của công ty cũng đã bị gỡ khỏi danh sách dịch vụ xóa dữ liệu được khuyến nghị của Privacy Guides. Để tín nhiệm của Optery, nó đã nhanh chóng và minh bạch đảo ngược quyết định của mình, nhưng điều đáng kể ở đây là sự phản ứng dữ dội chung: người dùng đang bắt đầu đánh giá cao các rủi ro của việc chia sẻ dữ liệu với “công ty AI”.

Ví dụ Optery làm cho một ví dụ tốt ở đây vì người dùng của nó là, theo một nghĩa nào đó, ở tiền phong của sự hoài nghi ngày càng tăng xung quanh các triển khai “AI” được gọi là. Những người dùng như vậy là những người sẽ chú ý đến các thay đổi trong điều khoản dịch vụ và chính sách quyền riêng tư.

Bằng Chứng Của Sự Phản Ứng Dữ Dội Ngày Càng Tăng Của Trí Tuệ Nhân Tạo Tạo Sinh

Người tiêu dùng quan tâm đến quyền riêng tư không phải là những người duy nhất đã nêu lên các lo ngại về hệ thống trí tuệ nhân tạo tạo sinh và các rủi ro riêng tư của dữ liệu liên quan. Ở cấp lập pháp, Đạo Luật Trí Tuệ Nhân Tạo của EU phân loại rủi ro theo mức độ nghiêm trọng của chúng, với quyền riêng tư của dữ liệu là tiêu chí được nêu rõ hoặc ngụ ý cho việc quy định mức độ nghiêm trọng trong hầu hết các trường hợp. Đạo luật cũng giải quyết các vấn đề về sự đồng ý thông báo mà chúng tôi đã thảo luận trước đó.

Mỹ, nổi tiếng là chậm trong việc áp dụng luật bảo vệ dữ liệu toàn diện, đã có ít nhất một số rào cản nhờ Đạo Luật Hành Chính 14110. Lại nữa, các lo ngại về quyền riêng tư của dữ liệu đang ở tiền phong của các mục đích được nêu cho Đạo Luật: “sử dụng không có trách nhiệm [các công nghệ AI] có thể làm trầm trọng thêm các tác hại xã hội như gian lận, phân biệt đối xử, thiên vị và thông tin sai lệch” – tất cả đều liên quan đến sự sẵn có và phổ biến của dữ liệu cá nhân.

Trở lại cấp độ người tiêu dùng, không chỉ những người tiêu dùng đặc biệt quan tâm đến quyền riêng tư đã phản ứng lại các triển khai xâm phạm quyền riêng tư của trí tuệ nhân tạo tạo sinh. Tính năng Recall “được hỗ trợ bởi AI” của Microsoft, được định sẵn cho hệ điều hành Windows 11 của nó, là một ví dụ chính. Khi mức độ của các rủi ro quyền riêng tư và bảo mật được tiết lộ, sự phản ứng dữ dội là đủ để khiến gã khổng lồ công nghệ này phải quay đầu lại. Thật không may, Microsoft dường như không từ bỏ ý tưởng, nhưng phản ứng công khai ban đầu vẫn rất đáng khích lệ.

Ở lại với Microsoft, chương trình Copilot của nó đã bị chỉ trích rộng rãi vì cả vấn đề quyền riêng tư của dữ liệu và bảo mật dữ liệu. Khi Copilot được đào tạo trên dữ liệu GitHub (chủ yếu là mã nguồn), sự tranh cãi cũng nảy sinh xung quanh các vi phạm được cho là của Microsoft về các thỏa thuận cấp phép phần mềm của các lập trình viên và nhà phát triển. Đây là những trường hợp mà ranh giới giữa quyền riêng tư của dữ liệu và quyền sở hữu trí tuệ bắt đầu mờ dần, trao cho cái trước một giá trị tiền tệ – điều không dễ dàng thực hiện.

Có lẽ dấu hiệu lớn nhất cho thấy AI đang trở thành một lá cờ đỏ trong mắt người tiêu dùng là phản ứng công khai lạnh nhạt, nếu không muốn nói là cảnh giác, mà Apple nhận được đối với việc ra mắt AI ban đầu của mình, đặc biệt là liên quan đến các thỏa thuận chia sẻ dữ liệu với OpenAI.

Các Giải Pháp Từng Phần

Có những bước mà các nhà lập pháp, nhà phát triển và công ty có thể thực hiện để giảm thiểu một số rủi ro được đặt ra bởi trí tuệ nhân tạo tạo sinh. Đây là những giải pháp chuyên dụng cho các khía cạnh cụ thể của vấn đề chung, không có giải pháp nào trong số này được coi là đủ, nhưng tất cả chúng, làm việc cùng nhau, có thể tạo ra sự khác biệt thực sự.

  • Giảm thiểu dữ liệu. Giảm thiểu lượng dữ liệu được thu thập và lưu trữ là một mục tiêu hợp lý, nhưng nó đối lập trực tiếp với mong muốn của các nhà phát triển trí tuệ nhân tạo tạo sinh về dữ liệu đào tạo.
  • Minh bạch. Cho đến nay, điều này có thể không thậm chí là kỹ thuật có thể thực hiện được trong nhiều trường hợp. Sự hiểu biết về dữ liệu được xử lý và cách thức khi tạo ra đầu ra nhất định là một cách để đảm bảo quyền riêng tư trong các tương tác với trí tuệ nhân tạo tạo sinh.
  • Nhân danh. Bất kỳ PII nào không thể bị loại khỏi dữ liệu đào tạo (thông qua giảm thiểu dữ liệu) nên được nhân danh. Vấn đề là nhiều kỹ thuật nhân danh và giả danh phổ biến dễ bị đánh bại.
  • Sự đồng ý của người dùng. Yêu cầu người dùng đồng ý với việc thu thập và chia sẻ dữ liệu của họ là điều cần thiết nhưng quá dễ bị lạm dụng và quá dễ bị người tiêu dùng chủ quan để có hiệu quả. Đó là sự đồng ý thông báo mà ở đây cần thiết và hầu hết người tiêu dùng, được thông báo đúng, sẽ không đồng ý với việc chia sẻ dữ liệu như vậy, vì vậy các khuyến khích là không phù hợp.
  • Bảo vệ dữ liệu trong quá trình truyền输 và khi nghỉ. Một nền tảng khác của cả quyền riêng tư của dữ liệu và bảo mật dữ liệu, việc bảo vệ dữ liệu thông qua các phương tiện mã hóa và các phương tiện khác luôn có thể được thực hiện hiệu quả hơn. Tuy nhiên, các hệ thống trí tuệ nhân tạo tạo sinh có xu hướng rò rỉ dữ liệu thông qua các giao diện của chúng, khiến điều này chỉ là một phần của giải pháp.
  • Thi hành luật bản quyền và sở hữu trí tuệ trong bối cảnh “AI”. Học máy có thể hoạt động trong một “hộp đen”, khiến nó khó nếu không phải là không thể theo dõi tài liệu bản quyền và sở hữu trí tuệ nào kết thúc trong đầu ra trí tuệ nhân tạo tạo sinh nào.
  • Kiểm toán. Một biện pháp rào cản quan trọng khác bị cản trở bởi bản chất “hộp đen” của LLM và các hệ thống trí tuệ nhân tạo tạo sinh mà chúng hỗ trợ. Sự hạn chế này được tăng cường bởi bản chất mã nguồn đóng của hầu hết các sản phẩm trí tuệ nhân tạo tạo sinh, điều này hạn chế các cuộc kiểm toán chỉ với những cuộc kiểm toán được thực hiện theo sự thuận tiện của nhà phát triển.

Tất cả những cách tiếp cận này với vấn đề đều hợp lệ và cần thiết, nhưng không có giải pháp nào là đủ. Tất cả chúng đều yêu cầu sự hỗ trợ lập pháp để có hiệu lực có nghĩa, điều này có nghĩa là chúng bị định sẵn để ở phía sau khi lĩnh vực này tiếp tục phát triển.

Giải Pháp Rõ Ràng

Giải pháp cho các rủi ro riêng tư được đặt ra bởi trí tuệ nhân tạo tạo sinh không phải là cách mạng hay thú vị, nhưng khi được đưa đến kết luận logic, kết quả của nó có thể là cả hai. Giải pháp rõ ràng liên quan đến việc người tiêu dùng hàng ngày trở nên nhận thức về giá trị của dữ liệu của họ với các công ty và giá trị không thể đo lường của quyền riêng tư của dữ liệu đối với chính họ.

Người tiêu dùng là nguồn và động cơ đằng sau thông tin riêng tư powers gìn giữ nền kinh tế giám sát hiện đại. Khi một khối lượng quan trọng của người tiêu dùng bắt đầu ngăn chặn dòng chảy của dữ liệu riêng tư vào không gian công cộng và bắt đầu yêu cầu trách nhiệm từ các công ty kinh doanh dữ liệu cá nhân, hệ thống sẽ phải tự điều chỉnh.

Điều khích lệ về trí tuệ nhân tạo tạo sinh là, không giống như các mô hình quảng cáo và tiếp thị hiện tại, nó không cần phải liên quan đến thông tin cá nhân tại bất kỳ giai đoạn nào. Dữ liệu đào tạo trước và tinh chỉnh không cần phải bao gồm PII hoặc dữ liệu cá nhân khác và người dùng không cần phải暴露 cùng trong quá trình tương tác với các hệ thống trí tuệ nhân tạo tạo sinh.

Để loại bỏ thông tin cá nhân của họ khỏi dữ liệu đào tạo, người dùng có thể đi thẳng đến nguồn và loại bỏ hồ sơ của họ khỏi các nhà môi giới dữ liệu (bao gồm cả trang web tìm kiếm người) thu thập hồ sơ công khai, đưa chúng vào lưu thông trên thị trường mở. Dịch vụ xóa dữ liệu cá nhân tự động hóa quá trình này, khiến nó trở nên nhanh chóng và dễ dàng. Tất nhiên, việc xóa dữ liệu cá nhân khỏi cơ sở dữ liệu của các công ty này có nhiều lợi ích khác và không có nhược điểm.

Người dùng cũng tạo ra dữ liệu cá nhân khi tương tác với phần mềm, bao gồm trí tuệ nhân tạo tạo sinh. Để ngăn chặn dòng chảy của dữ liệu này, người dùng sẽ phải cẩn thận hơn khi nhận ra rằng các tương tác của họ đang được ghi lại, xem xét, phân tích và chia sẻ. Các lựa chọn của họ để tránh điều này giảm xuống việc hạn chế những gì họ tiết lộ cho các hệ thống trực tuyến và sử dụng LLM trên thiết bị và mã nguồn mở ở bất cứ nơi nào có thể. Người dùng nói chung đã làm một công việc tốt trong việc điều chỉnh những gì họ thảo luận ở nơi công cộng – chúng ta chỉ cần mở rộng những trực giác này vào lĩnh vực trí tuệ nhân tạo tạo sinh.

David Balaban là một nhà nghiên cứu bảo mật máy tính với hơn 17 năm kinh nghiệm trong phân tích malware và đánh giá phần mềm chống vi-rút. David điều hành các dự án MacSecurity.net Privacy-PC.com trình bày ý kiến chuyên gia về các vấn đề bảo mật thông tin đương đại, bao gồm kỹ thuật xã hội, malware, kiểm tra thâm nhập, thông tin về mối đe dọa, quyền riêng tư trực tuyến và hacking mũ trắng. David có nền tảng mạnh mẽ về khắc phục sự cố malware, với trọng tâm gần đây là các biện pháp đối phó với ransomware.