Connect with us

Facebook’ın AI’sinin Nasıl Yanlış Bilgi Yaydığı ve Demokrasiyi Tehdit Ettiği

Düşünce Liderleri

Facebook’ın AI’sinin Nasıl Yanlış Bilgi Yaydığı ve Demokrasiyi Tehdit Ettiği

mm

LinkedIn’de AI araştırmalarını denetleyen Dan Tunkelang, “Öneriler kararları etkileme gücüne sahip olduğunda, spamcılar, dolandırıcılar ve soylu olmayan amaçları olan diğer insanlar için bir hedef haline gelirler” dedi.

Bu, Facebook gibi sosyal medya şirketlerinin karşılaştığı ikilem. Facebook, dolaylı geri bildirim kullanarak tıklamaları, görüntülemeleri ve diğer ölçülebilir kullanıcı davranışlarını izler. Bu, “öneri motoru” olarak tanımlanan bir AI sistemi tasarlamak için kullanılır ve bu sistem, hangi içeriğin kimin tarafından ve ne zaman görüntülendiğine karar verme konusunda nihai güce sahiptir.

Facebook, öneri motorunu kullanıcı etkileşimini en üst düzeye çıkarmak için optimize etti ve bu, Facebook platformuna harcanan zamanla ölçülür. Zamanın maksimize edilmesi, önerilen içeriğin kalitesi veya doğruluğundan daha önemli bir öncelik olarak kabul edilir.

Sistem, kullanıcıları bilişsel önyargılarını kullanarak, hatta bu başlıkların Rus troller tarafından toplumun bölünmesi veya siyasi seçimlerin etkilenmesi amacıyla yazılmış olsa bile, kullanıcıları etkileyen sansasyonel başlıkları ödüllendirmek üzere tasarlanmıştır.

Facebook’ın AI’ı Nasıl Kullanıyor

Facebook’un kullanıcıların gördüğü ve etkileşimde bulunduğu içeriği nasıl belirlediğine ilişkin yeterli bir farkındalık yoktur. Öncelikle teyit önyargısı nedir, bunu anlamak gerekir. Psychology Today bunu şöyle tanımlar:

Teyit önyargısı, önceden sahip olunan inançları veya değerleri onaylayan veya destekleyen bilgileri arama, yorumlama, tercih etme ve hatırlama eğilimidir.

Facebook, kullanıcıların teyit önyargısını besleyen haberlere tıklama olasılıklarının daha yüksek olduğunu anlar. Bu, komplo teorilerinin yayılması ve kullanıcıların yalnızca görmek istediklerini, doğruluğuna veya toplum üzerindeki etkisine bakılmaksızın, yalnızca görmek istediklerini sunan ekolarda yaşadıkları için tehlikeli bir先例 oluşturur.

MIT tarafından yapılan bir çalışma, Twitter’da yanlış haberlerin gerçek haberlerden 6 kat daha hızlı yayıldığını gösterdi.

Bu, hem Twitter hem de Facebook’un silahlandırılabileceği anlamına gelir. Twitter, herhangi bir kullanıcının dar veya önyargılı görüşlere sahip akışları takip etmesini sağlarken, Facebook bunu bir adım öteye taşır. Facebook’ta bir kullanıcı, şu anda gördüklerini kontrol etme veya ölçme konusunda hiçbir şekilde güç sahibi değildir, bu tamamen Facebook’un öneri motoru, kullanıcı etkileşimini nasıl ölçtüğü ve bu kullanıcı etkileşimini nasıl optimize ettiği tarafından kontrol edilir.

Facebook, kullanıcıların arzularını şekillendirmeye ve tahmin etmeye çalışır. Facebook, kullanıcının henüz deneyimlemediği bir haber maddesini ne kadar seveceğini veya sevmeyeceğini tahmin eder. Kullanıcı etkileşiminde bir kayıp yaşamak istemeyen Facebook, kullanıcıyı teyit önyargısını besleyen haber maddeleriyle etkilemek için haber maddelerini atlar ve daha fazla tıklama, yorum, beğeni ve paylaşıma yol açar.

Facebook ayrıca, tarihi kullanıcı eylemleri ve görüşlerini otomatik olarak işbirliği yaparak, benzer görüşlere sahip katılımcıları (arkadaşları) otomatik olarak eşleştirmek için işbirliği filtrelemesini kullanır. Facebook, tercihlerinizi görmek istediğiniz öğeleri matematiksel olarak tahmin eden ve sıralayan bir fayda işlevi kullanır.

Bu, kullanıcıların bir rabbit hole’a düşmesine neden olur, sahte haberlerle tuzağa düşürülürler ve gördükleri içerik, bilişsel önyargılarını pekiştirir. Sunulan içerik, temelde neye tıkladığınızı etkileme amacını taşır. Eğer Bill Gates’in insanları aşı kullanarak mikroçiplemek istediğine dair bir komplo teorisi olduğuna inanıyorsanız, neden Facebook size bununla çelişen kanıtları sunsun ki? Bir siyasi adaya destek verdiğiniz sürece, neden Facebook size bu adaya karşıt görüşleri sunsun ki?

Facebook ayrıca, insanların kitlelerin eylemlerini takip edeceği fikrine dayanan filtre balonları kullanır.

Facebook Reklamları

Facebook kullanıcıları, farkında olmadan reklamlara tıklıyor olabilir. Bunun nedeni basittir, eğer bir reklam sadece ilk kez görüntülendiğinde, reklam açıklaması görünür. Eğer bu kullanıcı reklamı paylaşırsa, arkadaş listesindeki herkes sadece paylaşılan haber maddesini görür ve Facebook kasten reklam açıklamasını düşürür. Aniden, kullanıcılar gardlarını düşürürler, reklam ve organik olarak görünen içerik arasında ayrım yapamazlar.

Facebook Paylaşımları

Maalesef, durum daha da kötüleşir. Eğer bir kullanıcının 1000 arkadaşı aynı anda içerik paylaşırsa, öneri motoru, aynı görüşleri paylaşan azınlığın içeriğini, hatta bu içeriklerin çoğu vezesiz komplo teorileri olsa bile, önceliklendirir. Kullanıcı, bu haber maddelerinin herkes tarafından görüldüğü izlenimine kapılır ve bu haberle etkileşime girdikçe, diğer kullanıcıların sosyal kanıtlarını optimize eder.

Bir kullanıcı, başka bir kullanıcıyı aldatıcı veya sahte bir madde hakkında aydınlatmaya çalıştığında, haber maddesiyle etkileşime girmenin eylemi, orijinal kullanıcının etkileşim süresini artırır. Bu geri bildirim döngüsü, Facebook’un bu kullanıcıya daha fazla sahte haber sunmasını sağlar.

Bu, bir ekol oluşturur, bir filtre balonu oluşturur ve kullanıcı yalnızca gördüğü şeye inanmaya eğitilir. Gerçek, basitçe bir illüzyondur.

Sorunun Ciddiliği

10 milyondan fazla insan, Papa Francis’in 2016 seçiminde Trump’ı desteklediğini iddia eden bir haber maddesiyle etkileşime girdi. Bunun hiçbir kanıtı yoktu, sadece Rusya’dan çıkan bir sahte haberdi ve bu, 2016 seçiminden önceki üç ayda Facebook’ta en çok paylaşılan haberdi.

Haber maddesi, “İnternet Araştırma Ajansı” adını veren bir Rus trol çiftliği tarafından üretildi. Aynı organizasyon, Twitter ve Facebook’ta ırkçı makaleleri yayınlamak, Black Lives Matter’ı kötülemek ve sahte haber maddelerini yaymakla sorumluydu.

Seçilme Komitesi, Rus Aktif Önlemler Kampanyaları ve Müdahaleleri hakkında 85 sayfalık bir rapor yayınladı ve bunların çoğunun 2016 ABD seçimini etkilemek amacıyla bölücü sahte haber ve propaganda yaymak olduğunu belirtti.

2020 seçimlerine gelindiğinde, sorun daha da kötüleşti. Eylül 2020’de, FBI’nin bir ipucuna dayanarak Facebook ve Twitter, Rusya’nın devlet propagandası çabalarına bağlı bir haber organizasyonu olan PeaceData’ya ait sosyal medya hesaplarını askıya aldı.

Maalesef, hesapları kapatmak geçici ve etkisiz bir çözümdür. Rus hesapları genellikle arkadaşlık istekleri olarak ortaya çıkar, genellikle çekici profillere sahip kadınların hedef aldığı erkekleri hedef alır veya düzenli olarak paylaşılan paylaşımlara sahip olan ele geçirilen kullanıcı hesaplarını hedef alır. Bu ele geçirilen hesaplar, yavaş yavaş daha siyasi paylaşımlara kayar, sonunda propaganda veya komplo teorileriyle domine edilir.

Bir kullanıcı, arkadaşının hesabının tehlikeye girdiğinden habersiz olabilir. Eğer bu kullanıcı komplo teorilerine karşı savunmasızsa, sahte haber maddesiyle etkileşime girebilir ve Rus trolü, genellikle bir bot, sosyal kanıtları beğeni veya yorum yoluyla sağlar.

Zayıf kullanıcılar genellikle teknoloji ve AI’ın nasıl çalıştığını en az anlayanlardır. 65 yaş üstü nüfus, en çok oy kullanma olasılığı olan nüfusun aynı zamanda sahte haberleri yayma olasılığı en yüksek olan nüfus olduğu New York Times tarafından bildirildi.

Çalışmaya göre Facebook kullanıcıları 65 yaş ve üstü, 29 yaş ve altındaki yetişkinlerden 7 kat daha fazla sahte haber sitesi makalesi paylaştı. Dijital medya okuryazarlığı eksikliği, bu yaş grubunun gerçeklere veya doğruluğa dayalı değil, yalnızca kullanıcı etkileşimine dayalı bir haber akışına karşı hazırlıksız bırakıyor.

Kötü aktörler, Facebook’un öneri motorunu, bilişsel önyargılarımıza karşı kullanıyor. Aynı organizasyonlar, Facebook’un AI’ını komplo teorileri ve propaganda yaymak için optimize etti. İlk bakışta masum görünen komplo teorileri, souvent beyaz üstünlükçülüğü, aşırı sağcı milliyetçiliği veya QAnon gibi liberal pedofillerden dünyayı kurtarmaya çalışan Trump’ı içeren bir komplo teorisi gibi saçma bir komplo teorisi içine çekilir.

Özet

Facebook’un bir problem olduğunun farkında olduğu ve Topluluk Standartlarını ihlal eden içeriği kaldırmaya odaklanan bir strateji açıkladığı açık. Problemin kaynağı, hesapları silmenin geçici bir önlem olması ve botlar tarafından topluca oluşturulan veya kullanıcı hesaplarının topluca ele geçirilmesinin etkisiz olmasıdır. Ayrıca, çoğu paylaşımların bilinçsiz olarak yanlış bilgi yaymakla suçlanan normal kullanıcılar tarafından yapıldığı gerçeğini çözmez.

Uyarı etiketleri eklemek, sadece sosyal medya devlerinin muhafazakarlar karşıtı önyargılı olduğu şeklindeki komplo teorilerini pekiştirir, ki bunlar sahte haberlere en çok maruz kalanlardır.

Çözüm, yalnızca kullanıcı etkileşimini değil, aynı zamanda kullanıcı mutluluğunu ölçen ve gerçeği sunan, kullanıcıların kendileri hakkında daha fazla farkındalık kazanmalarını sağlayan yeni bir öneri motoru olmalıdır.

Bu arada, Facebook’un Twitter’ın siyasi reklamları yasakladığı yolu izlemesi gerekir.

Son olarak, bir soru sorulmalıdır. İnsanlar gördükleri haberleri seçme özgürlüğüne sahip olmadıklarında, öneri nerede biter ve zihin kontrolü nerede başlar?

Önerilen Okuma:

Rus Aktif Önlemler Kampanyaları ve Müdahaleleri – Seçilme Komitesi Birleşik Devletler Senatosu tarafından hazırlanan rapor.

Demokrasinin SonuGeorge Washington Üniversitesi Tarih Haber Ağı’nın kurucusu Rick Shenkman.

Yaşlı İnsanların Facebook’ta Sahte Haber Paylaştığı – New York Times tarafından bildirildi.

Antoine bir vizyoner lider ve Unite.AI'in kurucu ortağıdır ve AI ve robotik geleceğini şekillendirmek ve tanıtmak için sarsılmaz bir tutkuyla hareket etmektedir. Bir seri girişimci olarak, toplum için elektrik kadar yıkıcı olacağına inandığı AI'nin potansiyeli hakkında sık sık konuşur ve coşkusunu dile getirir.
Bir futurist olarak, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adanmıştır. Ayrıca, Securities.io kurucusudur, bu platform geleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren teknolojilere yatırım yapmaya odaklanmıştır.