Yapay Zekâ
Yapay Zeka Mühendisleri, Yanlış Bilgi Yayanların Niyetini Tespit Edebilecek Bir Yöntem Geliştirdiler

Dijital çağda yanlış bilgiyle başa çıkmak karmaşık bir sorundur. Yanlış bilginin yalnızca tanımlanması, etiketlenmesi ve düzeltilmesi değil, aynı zamanda bu iddialardan sorumlu olanların niyetinin de ayırt edilmesi gerekir. Bir kişi yanlış bilgiyi bilmeyerek yayabilir veya bir konuya ilişkin görüşünü ifade edebilir, ancak daha sonra bu görüş gerçek olarak raporlanabilir. Dartmouth’ta bir grup yapay zeka araştırmacısı ve mühendisleri, “sahte haber” raporlarından görüş türetmek için kullanılabilen bir çerçeve oluşturdu.
ScienceDaily’nin bildirdiği gibi, Dartmouth ekibinin çalışması yakın zamanda Deneysel ve Teorik Yapay Zeka Dergisi’nde yayımlandı. Önceki çalışmalar sahte haberleri tanımlamaya ve aldatmacayla mücadele etmeye çalışırken, bu çalışmanın sahte haberlerde konuşmacının niyetini belirlemeyi amaçlayan ilk çalışma olabileceği söyleniyor. Gerçek bir hikaye çeşitli aldatıcı formlara dönüştürülebilirse, aldatmacanın amaçlandığından emin olmak önemlidir. Araştırma ekibi, yanlış bilginin dikkate alınması konusunda niyetin önemli olduğunu, aldatmacanın yalnızca yanlış yönlendirme niyeti varsa mümkün olabileceğini savunuyor. Bir kişi yanlış bilgi yaydığını fark etmediyse veya sadece görüşünü ifade ediyorsa, aldatma olamaz.
Dartmouth’un Thayer Mühendislik Okulu’nda mühendislik profesörü olan Eugene Santos Jr., ScienceDaily’ye neden modelinin aldatıcı niyeti ayırt etmeye çalıştığını açıkladı:
“Kasten dinleyicileri yanıltma niyeti, kasıtsız hatalardan çok daha büyük bir tehdit oluşturur. Bilgimize göre, algoritmemiz hem aldatmayı hem de kötü niyetli eylemleri masum eylemlerden ayıran tek yöntemdir.”
Modelini oluşturmak için araştırma ekibi, aldatıcı akıl yürütmenin özelliklerini analiz etti. Sonuçlanan algoritma, bir kişinin geçmişteki argümanlarıyla mevcut ifadeleri arasındaki tutarsızlıklara odaklanarak, niyeti aldatmadan diğer iletişim formlarından ayırt edebildi. Araştırma ekibinin oluşturduğu model, bir kişinin geçmişteki argümanlarından ne kadar saptığını ölçmek için kullanılabilen büyük miktarda veriye ihtiyaç duyuyor. Ekibin modelini eğitmek için kullandığı eğitim verileri, tartışmalı konulardaki görüşlerin anketinden alınan verilerden oluşuyordu. 100’den fazla kişi bu tartışmalı konular hakkında görüşlerini belirtti. Veriler ayrıca 20 farklı otelin incelemelerinden oluşuyordu ve bu incelemeler 400 kurgusal inceleme ve 800 gerçek incelemeden oluşuyordu.
Santos’a göre, araştırmacıların geliştirdiği çerçeve, haber organizasyonları ve okuyucular tarafından incelendiği takdirde, “sahte haber” makalelerinin içeriğini analiz etmelerine olanak tanıyabilir. Okuyucular, makaleleri görüşlerin varlığı açısından inceleyebilir ve mantıksal bir argümanın kullanılıp kullanılmadığını kendileri belirleyebilir. Santos ayrıca ekibin yanlış bilginin etkisini ve bunun doğurduğu sonuçları incelemek istediğini söyledi.
Popüler kültür genellikle yüz ifadeleri gibi sözsüz davranışları yalan söylemenin göstergeleri olarak gösterir, ancak çalışmanın yazarları bu davranış ipuçlarının her zaman güvenilir yalan göstergeleri olmadığını belirtiyorlar. Çalışmanın ortak yazarı Deqing Li, araştırmalarının, akıl yürütme niyetine dayalı modellerin, davranışsal ve sözel farklılıklardan daha iyi yalan göstergeleri olduğunu bulduğunu açıkladı. Li, akıl yürütme niyeti modellerinin “kasıtlı yalanları diğer tür bilgi bozulmalarından daha iyi ayırt edebildiğini” söyledi.
Dartmouth araştırmacılarının çalışması, yapay zeka ile yanlış bilgiyle mücadele alanında yapılan son gelişmelerin tek başına değildir. Tıklama amaçlı başlıkları olan haber makaleleri genellikle yanlış bilgiyi gizler. Örneğin, bir olayın gerçekleştiğinden farklı bir şeyin gerçekleştiğini ima edebilirler.
AINews’in bildirdiği gibi, Arizona Eyalet Üniversitesi ve Penn Eyalet Üniversitesi’nden bir grup araştırmacı, tıklama amaçlı başlıkları tespit edebilecek bir yapay zeka oluşturmak için işbirliği yaptı. Araştırmacılar, insanlara kendi tıklama amaçlı başlıklarını yazmalarını istedi ve ayrıca tıklama amaçlı başlıklar oluşturmak için bir program yazdı. Her iki tür başlık da, makine veya insanlar tarafından yazılmış olmasından bağımsız olarak tıklama amaçlı başlıkları etkili bir şekilde tespit edebilecek bir modeli eğitmek için kullanıldı.
Araştırmacılara göre, onların algoritması, tıklama amaçlı başlıkları tespit etme konusunda geçmişteki diğer yapay zekalardan yaklaşık %14,5 daha doğru oldu. Projenin baş araştırmacısı ve Penn Eyalet Üniversitesi Bilgi Bilimleri ve Teknoloji Koleji’nde yardımcı profesör olan Dongwon Lee, deneylerinin, bir yapay zeka ile veri oluşturmanın ve bunu eğitim pipeline’ına geri beslemenin faydasını gösterdiğini açıkladı.
“Bu sonuç oldukça ilginç, çünkü yapay zeka ile oluşturulan tıklama amaçlı eğitim verilerinin, eğitim pipeline’ına geri beslenerek çeşitli makine öğrenimi modellerinin performansını iyileştirmek için kullanılabileceğini başarılı bir şekilde gösterdik.” dedi Lee.












