Connect with us

Sztuczna inteligencja

Model AI może zidentyfikować osoby rozpowszechniające dezinformację przed ich działaniem

mm

Model AI stworzony przez badaczy z University of Sheffield może potencjalnie określić, którzy użytkownicy Twittera opublikują dezinformację przed tym, zanim to zrobią. Jeśli model okaże się niezawodny, może być użyty do uzupełnienia istniejących metod walki z dezinformacją w mediach społecznościowych.

Według TechXplore, studium zostało poprowadzone przez badaczy z Wydziału Informatyki University of Sheffield, w tym dr. Nikos Aletras i Yida Mu. Studium zostało opublikowane w czasopiśmie PeerJ i szczegółowo opisuje metody użyte do przewidzenia, czy użytkownik mediów społecznościowych jest prawdopodobnie rozpowszechniający dezinformację poprzez publikowanie treści z niewiarygodnych źródeł informacji.

Zespół badawczy zebrano ponad 1 milion tweetów od ponad 6000 użytkowników Twittera, wszystkie dostępne publicznie. Zespół zastosował techniki przetwarzania języka naturalnego, aby przygotować dane do szkolenia modelu AI. AI był modelem klasyfikacji binarnej, oznaczającym użytkowników jako prawdopodobnie udostępniających informacje z niewiarygodnych źródeł lub nieprawdopodobnie udostępniających. Po przeszkoleniu modelu na danych, osiągnął on około 79,7% dokładności klasyfikacji.

Podczas analizy wyników wydajności modelu, badacze stwierdzili, że użytkownicy, którzy często używali niegrzecznych słów i stale tweetowali o religii i polityce, byli bardziej prawdopodobnie publikować informacje z niewiarygodnych źródeł. W szczególności, było duże użycie słów takich jak “liberal”, “media”, “rząd”, “Izrael” i “Islam”. Tymczasem, użytkownicy, którzy publikowali informacje z wiarygodnych źródeł, tendencję do używania słów takich jak “I’ll”, “gonna”, “wanna”, “mood”, “excited” i “urodziny”. Poza tym, zwykle dzielili się historiami ze swojego życia, takimi jak interakcje z przyjaciółmi, ich emocjami lub informacjami o swoich hobby.

Wyniki studium mogą pomóc firmom mediów społecznościowych, takim jak Facebook, Reddit i Twitter, opracować nowe sposoby walki z rozpowszechnianiem dezinformacji w Internecie. Badania mogą również pomóc psychologom i naukowcom społecznym lepiej zrozumieć zachowania, które prowadzą do rozpowszechniania dezinformacji w sieci społecznej.

Jak wyjaśnił Aletras według TechXplore, media społecznościowe przekształciły się w jeden z głównych sposobów, w jaki ludzie uzyskują informacje. Miliony użytkowników na całym świecie uzyskują informacje poprzez Facebook i Twitter każdego dnia, ale te platformy stały się również narzędziami do rozpowszechniania dezinformacji w społeczeństwie. Aletras dodał, że niezawodne identyfikowanie pewnych trendów w zachowaniu użytkowników może pomóc w ograniczaniu dezinformacji. Jak wyjaśnił Aletras, “korelacja między użyciem niegrzecznego języka a rozpowszechnianiem niewiarygodnej treści może być przypisana do wysokiej wrogości politycznej w sieci”.

Według Mu analiza zachowania użytkowników, którzy udostępniają niewiarygodne informacje, może pomóc platformom mediów społecznościowych uzupełnić istniejące metody sprawdzania faktów i modelowania dezinformacji na poziomie użytkownika. Jak powiedział Mu za pośrednictwem TechXplore:

“Studium i analiza zachowania użytkowników, którzy udostępniają treści z niewiarygodnych źródeł informacji, może pomóc platformom mediów społecznościowych zapobiec rozpowszechnianiu fałszywych informacji na poziomie użytkownika, uzupełniając istniejące metody sprawdzania faktów, które działają na poziomie postu lub źródła informacji”.

Badania przeprowadzone przez Aletrasa i Mu mogą być przykładem wykorzystania AI do walki z dezinformacją generowaną przez AI. Ostatnie miesiące przyniosły wzrost dezinformacji związanej z polityką lokalną i narodową, z dużą częścią treści generowanych i rozpowszechnianych przez algorytmy AI. Głębokie sieci neuronowe zostały wykorzystane do konstruowania realistycznych fotografii i profili fałszywych kont, które służą jako rozpowszechniające fałszywe informacje. Badania Aletrasa i Mu mogą pomóc firmom mediów społecznościowych określić, które konta są fałszywe, konta botów stworzone w celu rozpowszechniania szkodliwej propagandy i dezinformacji.

Blogger i programista ze specjalnościami w Machine Learning i Deep Learning tematy. Daniel liczy, że pomoże innym wykorzystać moc sztucznej inteligencji dla dobra społecznego.