Yapay Zekâ
AI Tarayıcı Araçları Derin Sahtecilik ve Diğer Sahte Medyayı Tanıma Amaçlı

Teknoloji şirketlerinin yanlış bilgi ve sahte içerikle mücadele çabaları, DeepFakes gibi gelişmiş sahte içerik oluşturma teknolojilerinin kullanımı kolaylaştıkça ve daha da geliştirildikçe son zamanlarda yüksek hızda devam ediyor. Derin sahtecilikleri tespit etmeye yardımcı olmak için yapılacak bir sonraki girişimlerden biri, AI Foundation tarafından üretilen RealityDefender’dir. AI Foundation, etik AI ajanları ve asistanları geliştirmeye adanmış ve kullanıcıların çeşitli görevleri gerçekleştirmek için eğitebileceği bir platform oluşturdu. AI Foundation’un en önemli projesi, insanların kendilerine benzeyen ve sanal toplantı alanlarında onları temsil eden dijital persona oluşturmalarına olanak tanıyan bir platformdur. AI Foundation, Global AI Konseyi tarafından denetlenmekte ve görevlerinin bir parçası olarak AI platformlarının olası olumsuz etkilerini öngörme ve bu sorunlara karşı önlemler alma yükümlülüğü bulunmaktadır. VentureBeat tarafından bildirildiği üzere, AI Foundation tarafından sahte içerik tespitine yardımcı olmak için oluşturulan araçlardan biri Reality Defender olarak adlandırılmaktadır. Reality Defender, bir kişi tarafından web tarayıcısında (kontrol edin) kullanılabilecek ve video, resim ve diğer medya türlerini analiz ederek bunların sahte veya değiştirilmiş olup olmadığını belirlemek için kullanılan bir araçtır. Araç, internet üzerindeki derin sahtecilik akışını karşılamak için umut verici bir adım olarak görülüyor ve bazı tahminlere göre bu akış son altı ayda yaklaşık iki katına çıkmıştır. Reality Defender, bir görüntünün veya videonun sahte olabileceğini gösteren ipuçlarını tespit edebilen çeşitli AI tabanlı algoritmalar kullanmaktadır. AI modelleri, hile ve manipülasyonun ince işaretlerini tespit eder ve modelin tespit ettiği yanlış pozitifler, aracın kullanıcıları tarafından yanlış olarak işaretlenir. Veriler daha sonra modeli yeniden eğitmek için kullanılır. Sahte olmayan derin sahtecikler üreten AI şirketleri, insanların kolayca AI tarafından oluşturulan sahtecileri tanımlayabilmesi için içeriğine “dürüst AI” etiketi veya filigran ekler. Reality Defender, AI Foundation tarafından oluşturulmaya çalışılan bir dizi araç ve tüm bir AI sorumluluk platformunun sadece bir parçasıdır. AI Foundation, bireylerin kendileri için çalışan ve kötü aktörlerin suistimaline karşı korumaya yardımcı olan kişisel AI ajanlarına erişim sağlamalarına olanak tanıyan Guardian AI adlı bir sorumluluk platformu oluşturmayı amaçlamaktadır. Esasen, AI Foundation hem AI’nin toplumundaki varlığını genişletmeye hem de AI’nin risklerine karşı korumaya çalışmaktadır. Reality Defender, yanlış bilgiyi azaltmaya yönelik yeni AI destekli ürünlerin tek biri değildir. Benzer bir ürün, UC Berkeley’den iki lisans öğrencisi Rohan Phadte ve Ash Bhat tarafından oluşturulan SurfSafe’dir. The Verge’e göre, SurfSafe, kullanıcılarının merak ettikleri bir medya parçasına tıklamasına ve programın çeşitli güvenilir internet kaynaklarından benzer içerik bulmaya çalışarak, değiştirildiği bilinen resimlerin işaretlenmesine olanak tanır. Bu çözümlerin uzun vadede ne kadar etkili olacağı belirsizdir. Dartmouth College profesörü ve adli tıp uzmanı Hany Farid, The Verge tarafından alıntılanarak, Reality Defender gibi sistemlerin anlamlı bir kapasiteyle çalışacağından “son derece şüpheci” olduğunu belirtti. Farid, sahte içeriği tespit etmenin temel挑nge birinin, medyanın tamamen sahte veya gerçek olmadığı olduğunu açıkladı. Farid, “Bir devam vardır; çok karmaşık bir dizi sorunla başa çıkmak. Bazı değişiklikler anlamsızdır ve bazıları bir görüntünün doğasını temel olarak değiştirir. AI’nin farkı tespit edebileceğini iddia etmek son derece naif ve bunu crowdsourcing yaparak iddia etmek daha da naiftir.” Ayrıca, insanların sahte resimleri tanımlamada genellikle oldukça kötü olduğu için, yanlış pozitifleri etiketleme gibi crowdsourcing öğelerini dahil etmek zordur. İnsanlar genellikle hatalar yapar ve bir görüntüyü sahte olarak gösteren ince ayrıntıları kaçırır. Ayrıca, içerikleri işaretleyen kötü niyetli aktörlerle nasıl başa çıkılacağı belirsizdir. Sahte tespit eden araçların maksimum etkili olması için, insanların çevrimiçi olarak etkileşimde bulundukları içeriği nasıl akıl yürüteceklerini öğreten dijital okuryazarlık çabalarıyla birleştirilmesi gerektiği muhtemeldir.










