Connect with us

Yapay Zekâ

İstatistiksel Model, Sosyal Medyada Yanlış Bilgiyi Tespit Etmeye Yardımcı Olur

mm

Amerikan Üniversitesi’nden bir matematik profesörü ve işbirliği yaptığı ekip, sosyal medya gönderilerinde yanlış bilgiyi tespit edebilen bir istatistiksel model geliştirdi.

Makine öğrenimi, yanlış bilginin yayılmasını durdurmak için giderek daha fazla kullanılıyor, ancak siyah kutular sorunuyla ilgili büyük bir engel仍 devam ediyor. Bu, araştırmacıların bir makinenin insan eğitmenlerle aynı kararı nasıl aldığına理解 edemediği duruma işaret ediyor.

İstatistiksel Modellerle Yanlış Bilgiyi Tespit Etme

AU Matematik ve İstatistik Bölümü’nde yardımcı profesör olan Zois Boukouvalas, COVID-19 hakkında yanlış bilgi içeren bir Twitter veri setini kullanarak, istatistiksel modellerin büyük olaylar sırasında sosyal medyada yanlış bilgiyi nasıl tespit edebileceğini gösterdi.

Boukouvalas ve ekibi, AU öğrencisi Caitlin Moroney ve Bilgisayar Bilimi Profesörü Nathalie Japkowics, modelin kararlarının insanlarla nasıl uyumlu olduğunu yayımlanan yeni araştırmada gösterdiler.

“Bir makine karar aldığında ne düşündüğünü ve neden insan eğitmenlerle aynı fikirde olduğunu bilmeyi isteriz” dedi Boukouvalas. “Modelin önyargılı bir karar alması nedeniyle birinin sosyal medya hesabını engelleme istemeyiz.”

Ekibin kullandığı yöntem, istatistiğe dayanan bir tür makine öğrenimidir. İstatistiksel modeller etkili ve yanlış bilgiyle mücadele etmek için başka bir yol sunar.

Model, yüksek bir tahmin performansı elde etti ve 112 gerçek ve yanlış bilgi içeren tweeti nearly 90% doğrulukla sınıflandırdı.

“Bu bulgunun önemli yanı, modelin yüksek doğruluk elde ederken, yanlış bilgi olarak tespit ettiği tweetleri nasıl tespit ettiğine ilişkin şeffaflık sağlamasıdır” diye devam etti Boukouvalas. “Derin öğrenme yöntemleri bu tür bir doğruluğu şeffaflıkla elde edemez.”

Modeli Eğitmek ve Hazırlamak

Araştırmacılar, modeli test etmeden önce eğitmek için hazırladılar, çünkü insanların sağladığı bilgiler önyargı ve siyah kutulara neden olabilir.

Araştırmacılar, tweetleri önceden tanımlanmış kurallara göre yanlış bilgi veya gerçek olarak etiketledi. Ekibin ayrıca insan dilindeki nüansları ve yanlış bilgiyle bağlantılı dilbilimsel özellikleri dikkate aldı.

Modeli eğitmeye başlamadan önce, Maryland Baltimore County Üniversitesi’nden sosyo-dilbilim profesörü Christine Mallinson, yanlış bilgi, önyargı ve haber medyasındaki menos güvenilir kaynaklarla ilgili yazım stillerini tanımladı.

“Bu girdileri modelimize eklediğimizde, iyi ve kötü bilginin ayrımına yol açan temel faktörleri anlamaya çalışıyor” dedi Japkowicz. “Bağlamı ve kelimelerin nasıl etkileşimde bulunduğunu öğreniyor.”

Araştırmacılar, şimdi modelin kullanıcı arayüzünü ve sosyal medya gönderilerinde resim veya diğer multimedya içeren yanlış bilgiyi tespit etme yeteneğini geliştirmeye çalışacaklar. İstatistiksel model, yanlış bilgi oluşturmak için çeşitli farklı unsurların nasıl etkileşimde bulunduğunu öğrenmek zorunda kalacak.

Hem Boukouvalas hem de Japkowicz, yanlış bilginin yayılmasını durdurmak için insan zekâsının ve haber okuryazarlığının önemli olduğunu söylüyor.

“Çalışmamızda, yanlış bilgiyi ortadan kaldırmak için makine öğrenimi tabanlı araçlar tasarlıyoruz ve halkı uyarmak ve eğitmek istiyoruz, ancak insanların yanlış bilgiyi yaymaktan aktif olarak sorumlu olması gerektiğini güçlü bir şekilde düşünüyoruz” dedi Boukouvalas.

Alex McFarland yapay zeka muhabiri ve yazarıdır ve yapay zekadaki son gelişmeleri araştırıyor. Birçok yapay zeka başlangıç şirketi ve dünya çapındaki yayınlarda işbirliği yaptı.