Yapay Zekâ
AI Modeli Yanlış Bilgi Yayıcılarını Eylem Öncesi Tanıyabilir

Sheffield Üniversitesi’nden araştırmacılar tarafından oluşturulan bir AI modeli, Twitter kullanıcılarının yanlış bilgi yayınlamadan önce bunları potansiyel olarak belirleyebilir. Model güvenilir çıkarsa, sosyal medyada yanlış bilgiyle mücadele existing yöntemlerini tamamlayacak şekilde kullanılabilir.
TechXplore’e göre, Çalışma, Sheffield Üniversitesi Bilgisayar Bilimi Bölümü’nden araştırmacılar tarafından yürütüldü, bunlar arasında Dr. Nikos Aletras ve Yida Mu da vardı. Çalışma, PeerJ dergisinde yayımlandı ve sosyal medya kullanıcılarının güvensiz haber kaynaklarından içerik yayınlama olasılığını tahmin etmek için kullanılan yöntemleri ayrıntılarıyla anlatıyor.
Araştırma ekibi, 6000’den fazla Twitter kullanıcısından över 1 milyon tweet topladı, hepsi halka açık olarak mevcuttu. Ekibin doğal dil işleme tekniklerini kullanarak veriyi AI modelinin eğitimi için hazırladı. AI, ikili sınıflandırma modeli olarak etiketlendi, kullanıcıları güvensiz kaynaklardan bilgi paylaşma olasılığına göre ya da olasılığa göre etiketledi. Model verilere eğitildikten sonra, yaklaşık %79,7 sınıflandırma doğruluğuna ulaştı.
Araştırmacılar, modelin performansının sonuçlarını analiz ederken, kaba dil kullanan ve sürekli olarak din ve siyaset hakkında tweet atan kullanıcıların güvensiz kaynaklardan bilgi yayınlama olasılığının daha yüksek olduğunu buldu. Özellikle “liberal”, “medya”, “hükümet”, “İsrail” ve “İslam” gibi kelimelerin yoğun kullanımı vardı. Öte yandan, güvenilir kaynaklardan bilgi paylaşan kullanıcılar genellikle “I’ll”, “gonna”, “wanna”, “mood”, “excited” ve “birthday” gibi kelimeleri kullandılar. Ayrıca, genellikle arkadaşlarıyla etkileşimleri, duyguları veya hobileri hakkında hikayeler paylaştılar.
Çalışmanın bulguları, Facebook, Reddit ve Twitter gibi sosyal medya şirketlerine, çevrimiçi yanlış bilgi yayılmasına karşı yeni yöntemler geliştirmelerine yardımcı olabilir. Araştırma, ayrıca psikologlar ve sosyal bilimcilerin, sosyal ağlar genelinde yanlış bilginin yayılmasına yol açan davranışı daha iyi anlamalarına yardımcı olabilir.
Aletras, TechXplore’e göre, sosyal medya insanların haber alma şeklini değiştirdi. Milyonlarca kullanıcı dünya çapında her gün Facebook ve Twitter aracılığıyla haberlere ulaşıyor, ancak bu platformlar aynı zamanda toplum genelinde yanlış bilgi yaymak için araçlar haline geldi. Aletras, belirli kullanıcı davranışlarındaki trendleri güvenilir bir şekilde tanımlamanın yanlış bilgiyi önlemede yardımcı olabileceğini açıkladı. Aletras, kaba dil kullanımı ve güvensiz içerik yayılması arasındaki korelasyonun “çevrimiçi siyasi düşmanlığa” atfedilebileceğini söyledi.
Mu’ya göre, güvenilir olmayan haber kaynaklarından içerik paylaşan kullanıcıların davranışlarını analiz etmek, sosyal medya platformlarına mevcut gerçeklik kontrolü yöntemlerini tamamlayacak şekilde yardımcı olabilir. Mu, TechXplore’e göre dedi ki:
“Güvensiz haber kaynaklarından içerik paylaşan kullanıcıların davranışlarını incelemek ve analiz etmek, sosyal medya platformlarının kullanıcı düzeyinde sahte haberlerin yayılmasını önmesine yardımcı olabilir, böylece mevcut gerçeklik kontrolü yöntemlerini tamamlayabilir.”
Aletras ve Mu tarafından yürütülen araştırma, AI tarafından üretilen yanlış bilgilere karşı AI kullanmanın bir örneği olabilir. Son aylarda, yerel ve ulusal siyasete ilişkin yanlış bilgilerde bir artış oldu ve bu içeriklerin büyük kısmı AI algoritmaları tarafından oluşturuldu ve yayıldı. Derin sinir ağları, sahte hesaplar oluşturmak ve sahte haberleri yaymak için gerçekçi fotoğraflar ve profiller oluşturmak için kullanıldı. Aletras ve Mu’nun çalışması, sosyal medya şirketlerine, hangi hesapların sahte olduğunu, bot hesaplarının hangi amaçla yanlış propaganda ve yanlış bilgi yaymak için oluşturulduğunu belirlemelerine yardımcı olabilir.
