sơ khai Phát hiện giọng nói ghét AI để chống lại sự rập khuôn và thông tin sai lệch - Unite.AI
Kết nối với chúng tôi

Trí tuệ nhân tạo

Phát hiện giọng nói ghét AI để chống lại sự rập khuôn và thông tin sai lệch

mm

Được phát hành

 on

Blog nổi bật Hình ảnh-AI Phát hiện lời nói căm thù để chống lại sự rập khuôn & thông tin sai lệch

Ngày nay, internet là huyết mạch của giao tiếp và kết nối toàn cầu. Tuy nhiên, với khả năng kết nối trực tuyến chưa từng có này, chúng ta cũng chứng kiến ​​mặt tối của hành vi con người, tức là ngôn từ kích động thù địch, định kiến ​​​​và nội dung có hại. Những vấn đề này đã tràn ngập mạng xã hội, diễn đàn trực tuyến và các không gian ảo khác, gây ra thiệt hại lâu dài cho các cá nhân và xã hội. Do đó, nhu cầu phát hiện ngôn từ kích động thù địch.

Theo Trung tâm nghiên cứu Pew, 41% người Mỹ trưởng thành cho biết cá nhân họ đã từng bị lạm dụng trên internet và 25% là nạn nhân của sự quấy rối nghiêm trọng.

Để thúc đẩy một môi trường trực tuyến tích cực và tôn trọng hơn, bắt buộc phải áp dụng các biện pháp chủ động và tận dụng sức mạnh của công nghệ. Về vấn đề này, Trí tuệ nhân tạo (AI) cung cấp các giải pháp sáng tạo để phát hiện và xử lý ngôn từ kích động thù địch và định kiến.

Hạn chế của các kỹ thuật giảm thiểu hiện tại và sự cần thiết của các biện pháp chủ động

Các biện pháp hiện tại để giảm thiểu lời nói căm thù còn hạn chế. Họ không thể hạn chế hiệu quả sự lan truyền của nội dung có hại trực tuyến. Những hạn chế này bao gồm:

  • Các phương pháp tiếp cận phản ứng, chủ yếu dựa vào sự kiểm duyệt của con người và các thuật toán tĩnh, đang cố gắng bắt kịp tốc độ lan truyền nhanh chóng của ngôn từ kích động thù địch.
  • Khối lượng lớn nội dung trực tuyến áp đảo người điều hành, dẫn đến phản hồi chậm trễ và bỏ lỡ các trường hợp hùng biện có hại.
  • Ngoài ra, việc hiểu theo ngữ cảnh và các sắc thái ngôn ngữ đang phát triển đặt ra những thách thức đối với các hệ thống tự động trong việc xác định và diễn giải chính xác các trường hợp ngôn từ kích động thù địch.

Để giải quyết những hạn chế này và thúc đẩy một môi trường trực tuyến an toàn hơn, bắt buộc phải chuyển hướng sang các biện pháp chủ động. Bằng cách áp dụng các biện pháp do AI cung cấp, chúng ta có thể củng cố các cộng đồng kỹ thuật số của mình, khuyến khích tính toàn diện và một thế giới trực tuyến gắn kết.

Xác định và gắn cờ ngôn từ kích động thù địch bằng AI

Trong cuộc chiến chống lại lời nói căm thù, AI nổi lên như một đồng minh đáng gờm, với các thuật toán học máy (ML) để xác định và gắn cờ nội dung có hại một cách nhanh chóng và chính xác. Bằng cách phân tích lượng dữ liệu khổng lồ, các mô hình AI có thể học cách nhận biết các kiểu mẫu và sắc thái ngôn ngữ liên quan đến lời nói căm thù, cho phép chúng phân loại và phản hồi nội dung xúc phạm một cách hiệu quả.

Đến đào tạo mô hình AI cho chính xác lời nói căm thù kỹ thuật học tập phát hiện, giám sát và không giám sát được sử dụng. Học có giám sát bao gồm việc cung cấp các ví dụ được gắn nhãn về lời nói căm thù và nội dung không gây hại để dạy mô hình phân biệt giữa hai loại. Ngược lại, các phương pháp học không giám sát và bán giám sát tận dụng dữ liệu không được gắn nhãn để phát triển sự hiểu biết của mô hình về lời nói căm thù.

Tận dụng các kỹ thuật phản ngôn bằng AI để chống lại lời nói căm thù

Phản biện nổi lên như một chiến lược mạnh mẽ để chống lại lời nói căm thù bằng cách trực tiếp thách thức và giải quyết những câu chuyện có hại. Nó liên quan đến việc tạo ra nội dung thuyết phục và nhiều thông tin để thúc đẩy sự đồng cảm, hiểu biết và lòng khoan dung. Nó trao quyền cho các cá nhân và cộng đồng tham gia tích cực vào việc tạo ra một môi trường kỹ thuật số tích cực.

Mặc dù các chi tiết cụ thể của các mô hình đối đáp riêng lẻ có thể khác nhau dựa trên các phương pháp phát triển và công nghệ AI, nhưng một số tính năng và kỹ thuật phổ biến bao gồm:

  • Tạo ngôn ngữ tự nhiên (NLG): Các mô hình đối âm sử dụng NLG để tạo ra các phản hồi giống như con người ở dạng viết hoặc nói. Các câu trả lời mạch lạc và phù hợp theo ngữ cảnh đối với trường hợp cụ thể của ngôn từ kích động thù địch mà nó đang chống lại.
  • Phân tích cảm xúc: Các mô hình phản biện bằng AI sử dụng phân tích tình cảm để đánh giá giai điệu cảm xúc của lời nói căm thù và điều chỉnh phản ứng của chúng cho phù hợp. Điều này đảm bảo rằng bài phát biểu phản biện vừa có tác động vừa gây được sự đồng cảm.
  • Hiểu theo ngữ cảnh: Bằng cách phân tích bối cảnh xung quanh ngôn từ kích động thù địch, các mô hình phản ngôn có thể tạo ra phản hồi giải quyết các vấn đề cụ thể hoặc quan niệm sai lầm, góp phần tạo ra phản ngôn tập trung và hiệu quả hơn.
  • Đa dạng dữ liệu: Để tránh những thành kiến ​​và đảm bảo tính công bằng, các mô hình phản biện được đào tạo trên các bộ dữ liệu đa dạng đại diện cho các quan điểm và sắc thái văn hóa khác nhau. Điều này giúp tạo ra các phản ứng toàn diện và nhạy cảm về mặt văn hóa.
  • Học hỏi từ phản hồi của người dùng: Các mô hình phản biện có thể liên tục cải thiện bằng cách học hỏi từ phản hồi của người dùng. Vòng phản hồi này cho phép mô hình tinh chỉnh các phản hồi của nó dựa trên các tương tác trong thế giới thực, nâng cao hiệu quả của nó theo thời gian.

Ví dụ về chống lại lời nói căm thù bằng AI

Một ví dụ thực tế về kỹ thuật phản biện AI là “Phương pháp chuyển hướng" được phát triển bởi Trò chơi ghép hình của GoogleMoonshot CVE. Phương pháp chuyển hướng sử dụng quảng cáo được nhắm mục tiêu để tiếp cận các cá nhân dễ bị ảnh hưởng bởi hệ tư tưởng cực đoan và ngôn từ kích động thù địch. Phương pháp tiếp cận do AI cung cấp này nhằm mục đích ngăn cản các cá nhân tham gia vào nội dung có hại và thúc đẩy sự đồng cảm, hiểu biết và thay đổi khỏi niềm tin cực đoan.

Các nhà nghiên cứu cũng đã phát triển một mô hình AI mới gọi là BiCapsGhét hoạt động như một công cụ hiệu quả chống lại ngôn từ kích động thù địch trực tuyến, như đã báo cáo trong Giao dịch của IEEE trên các hệ thống xã hội tính toán. Nó hỗ trợ phân tích ngôn ngữ hai chiều, nâng cao khả năng hiểu ngữ cảnh để xác định chính xác nội dung thù hận. Tiến bộ này tìm cách giảm thiểu tác động có hại của ngôn từ kích động thù địch trên mạng xã hội, mang lại khả năng tương tác trực tuyến an toàn hơn.

Tương tự, các nhà nghiên cứu tại Đại học Michigan đã tận dụng AI để chống lại ngôn từ kích động thù địch trực tuyến bằng cách sử dụng phương pháp gọi là Quy tắc theo ví dụ (RBE). Sử dụng phương pháp học sâu, phương pháp này học các quy tắc phân loại ngôn từ kích động thù địch từ các ví dụ về nội dung kích động thù địch. Các quy tắc này được áp dụng cho văn bản đầu vào để xác định và dự đoán chính xác ngôn từ kích động thù địch trực tuyến.

Cân nhắc đạo đức cho các mô hình phát hiện lời nói căm thù

Để tối đa hóa hiệu quả của các mô hình phản biện do AI cung cấp, cân nhắc đạo đức là tối quan trọng. Tuy nhiên, điều quan trọng là phải cân bằng quyền tự do ngôn luận và việc cấm phổ biến nội dung có hại để tránh bị kiểm duyệt.

Tính minh bạch trong việc phát triển và triển khai các mô hình đối thoại AI là điều cần thiết để thúc đẩy niềm tin và trách nhiệm giải trình giữa người dùng và các bên liên quan. Ngoài ra, đảm bảo sự công bằng cũng quan trọng không kém, vì sự thiên vị trong các mô hình AI có thể duy trì sự phân biệt đối xử và loại trừ.

Chẳng hạn, AI được thiết kế để xác định lời nói căm thù có thể vô tình khuếch đại Xu hướng chủng tộc. Nghiên cứu phát hiện ra rằng các mô hình AI hàng đầu về ngôn từ kích động thù địch có khả năng đánh dấu các tweet của người Mỹ gốc Phi là xúc phạm cao gấp 1.5 lần. Họ có khả năng gắn cờ các tweet là ngôn từ kích động thù địch cao gấp 2.2 lần Tiếng Anh Mỹ gốc Phi. Bằng chứng tương tự xuất hiện từ một nghiên cứu về 155,800 bài đăng trên Twitter liên quan đến lời nói căm thù, nêu bật thách thức giải quyết thành kiến ​​​​chủng tộc trong kiểm duyệt nội dung AI.

trong một nghiên cứu, các nhà nghiên cứu đã thử nghiệm bốn hệ thống AI để phát hiện lời nói căm thù và nhận thấy tất cả chúng đều đang gặp khó khăn trong việc xác định chính xác những câu độc hại. Để chẩn đoán chính xác các vấn đề trong các mô hình phát hiện lời nói căm thù này, họ đã tạo ra một danh sách phân loại gồm 18 loại lời nói căm thù, bao gồm cả ngôn ngữ nói xấu và đe dọa. Họ cũng nêu bật 11 tình huống khiến AI gặp khó khăn, chẳng hạn như sử dụng ngôn từ tục tĩu trong các câu nói không mang tính thù hận. Kết quả là, nghiên cứu đã tạo ra kiểm tra ghét, một bộ dữ liệu nguồn mở gồm gần 4,000 ví dụ, nhằm mục đích nâng cao hiểu biết về các sắc thái ngôn từ kích động thù địch cho các mô hình AI.

Nhận thức & kiến ​​thức kỹ thuật số

Chống lại lời nói căm thù và sự rập khuôn đòi hỏi một cách tiếp cận chủ động và đa chiều. Do đó, việc nâng cao nhận thức và thúc đẩy hiểu biết về kỹ thuật số là rất quan trọng trong việc chống lại ngôn từ kích động thù địch và định kiến.

Giáo dục các cá nhân về tác động của nội dung có hại sẽ thúc đẩy văn hóa đồng cảm và hành vi trực tuyến có trách nhiệm. Các chiến lược khuyến khích tư duy phản biện trao quyền cho người dùng phân biệt giữa diễn ngôn hợp pháp và ngôn từ kích động thù địch, giảm sự lan truyền của những câu chuyện có hại. Ngoài ra, việc trang bị cho người dùng các kỹ năng để xác định và phản ứng hiệu quả với ngôn từ kích động thù địch là rất quan trọng. Nó sẽ trao quyền cho họ để thách thức và chống lại những luận điệu có hại, góp phần tạo nên một môi trường kỹ thuật số an toàn và tôn trọng hơn.

Khi công nghệ AI phát triển, khả năng giải quyết lời nói căm thù và khuôn mẫu với độ chính xác và tác động cao hơn sẽ tăng theo cấp số nhân. Do đó, điều quan trọng là phải củng cố phản biện do AI cung cấp như một công cụ hữu hiệu trong việc thúc đẩy sự đồng cảm và tương tác tích cực trên mạng.

Để biết thêm thông tin về xu hướng và công nghệ AI, hãy truy cập đoàn kết.ai.