saplama 2024'te Deepfake Yaygınlaşıyor. İşletmeler Kendilerini Nasıl Koruyabilir? - Unite.AI
Bizimle iletişime geçin

Düşünce Liderleri

2024'te Deepfakes Yaygınlaşıyor. İşletmeler Kendilerini Nasıl Koruyabilir?

mm

Yayınlanan

 on

En azından 2016 seçimlerinden bu yana, dezenformasyonla ilgili endişeler kamuoyunun bilincine vardığında, uzmanlar derin sahtekarlıklar konusunda alarm veriyor. Bu teknolojinin sonuçları dehşet vericiydi ve hâlâ da öyle. Hiper-gerçekçi sentetik medyanın kontrolsüz çoğalması, herkes— politikacılardan sıradan insanlara. Halihazırda yaygın güvensizliğin hakim olduğu yanıcı bir ortamda, deepfake'ler alevleri daha da körükleyeceğine söz verdi.

Görünen o ki, korkularımız erkendi. Deepfake'leri fiilen yapmak için gereken teknolojik bilgi birikimi ve çoğu zaman kalitesiz kaliteleri, en azından son iki başkanlık seçim döngüsü boyunca bunların asgari düzeyde endişe kaynağı olarak kalması anlamına geliyordu.

Ama bunların hepsi değişmek üzere; zaten değişiyor. Son iki yılda, üretken yapay zeka teknolojisi ana akım haline geldi ve ortalama tüketici için deepfake oluşturma sürecini radikal bir şekilde basitleştirdi. Aynı yenilikler deepfake'lerin kalitesini önemli ölçüde artırdı; öyle ki, kör bir testte çoğu insan üzerinde oynanmış bir videoyu gerçeğinden ayırt edemeyecek.

Özellikle bu yıl, eğer mücadele için çaba gösterilmezse bu teknolojinin toplumu nasıl etkileyebileceğine dair işaretler görmeye başladık. Örneğin geçen yıl, Papa Francis'in alışılmadık derecede şık bir palto giydiği yapay zeka tarafından oluşturulmuş bir fotoğraf viral gittive birçok kişi tarafından orijinal olarak kabul edildi. Bu, bir düzeyde zararsız bir eğlence gibi görünse de, bu derin sahtekarlıkların tehlikeli potansiyelini ve yayılmaya başladıktan sonra yanlış bilgiyi engellemenin ne kadar zor olabileceğini ortaya koyuyor. Önümüzdeki aylarda ve yıllarda bu tür viral sahtekarlığın çok daha az eğlenceli ve çok daha tehlikeli örneklerini bulmayı bekleyebiliriz.

Bu nedenle medyadan finansa, hükümetlerden sosyal medya platformlarına kadar her kesimden kuruluşun deepfake tespitine ve içerik orijinalliği doğrulamasına yönelik proaktif bir duruş sergilemesi zorunludur. Tedbirler yoluyla bir güven kültürü oluşturulmalı şimdi, derin sahtekarlıkların gelgit dalgası ortak gerçeklik anlayışımızı silip süpürmeden önce.

Deepfake tehdidini anlamak

Deepfake'lerdeki bu artışla mücadele etmek için kuruluşların neler yapabileceğini incelemeden önce, koruma araçlarının neden gerekli olduğunu tam olarak açıklamakta fayda var. Deepfake'lerden endişe duyanlar genellikle bunların siyaset ve toplumsal güven üzerindeki potansiyel etkilerinden bahsediyor. Bu potansiyel sonuçlar son derece önemlidir ve deepfake'lerle ilgili herhangi bir konuşmada göz ardı edilmemelidir. Ancak bu teknolojinin yükselişinin ABD ekonomisinin birçok sektörü üzerinde potansiyel olarak korkunç etkileri var.

Mesela sigortayı ele alalım. Şu anda Amerika Birleşik Devletleri'ndeki yıllık sigorta dolandırıcılığının toplamı 308.6 milyar dolara ulaşıyor; bu rakam tüm sektörün kabaca dörtte biri kadar. Aynı zamanda, çoğu sigorta şirketinin arka uç operasyonları giderek otomatikleşiyor ve 70 yılına kadar standart taleplerin %2025'inin temassız hale gelmesi öngörülüyor. Bunun anlamı, kararların giderek daha az insan müdahalesiyle alınmasıdır: self-servis ön uç ve arka uçta yapay zeka destekli otomasyon.

İronik bir şekilde, otomasyondaki bu artışa izin veren teknoloji (yani makine öğrenimi ve yapay zeka), bunun kötü aktörler tarafından sömürülmesini garantiledi. Ortalama bir insanın iddiaları manipüle etmesi artık her zamankinden daha kolay; örneğin Dall-E, Midjourney veya Stable Diffusion gibi üretken yapay zeka programlarını kullanarak bir arabayı olduğundan daha hasarlı gösteriyor. Kullanıcıların araçlarının fotoğraflarında yapay olarak çukurlar oluşturmasına olanak tanıyan Dude Your Car! gibi uygulamalar zaten bu amaç için özel olarak mevcut.

Aynı durum, artık faturalar, sigorta değerlendirmeleri ve hatta imzaların toptan düzenlenmesi veya icat edilmesiyle kolaylıkla değiştirilebilen resmi belgeler için de geçerlidir. Bu yetenek sadece sigortacılar için değil, ekonomi genelinde bir sorundur. Bu, çok çeşitli belgelerin gerçekliğini doğrulamak zorunda olan finansal kuruluşlar için bir sorundur. Bu, üzerinde oynanmış bir görsel eşliğinde ürünün kusurlu geldiğine dair şikayet alabilen perakendeciler için bir sorundur.

İşletmeler bu derece belirsizlikle çalışamazlar. Bir dereceye kadar sahtekarlık muhtemelen her zaman kaçınılmazdır, ancak deepfake'lerde kenarlardaki sahtekarlıktan bahsetmiyoruz; işletmelerin gerçeği kurgudan ayırma konusunda net bir araca sahip olmadığı ve sonunda milyarlarca dolar kaybettiği potansiyel bir epistemolojik felaketten bahsediyoruz. Bu karışıklığa dolar.

Ateşe ateşle karşılık vermek: Yapay zeka nasıl yardımcı olabilir?

Peki bununla mücadele etmek için neler yapılabilir? Belki de şaşırtıcı olmayan bir şekilde cevap, deepfake'leri kolaylaştıran teknolojinin kendisinde yatıyor. Bu belayı daha fazla ivme kazanmadan durdurmak istiyorsak, ateşe ateşle karşılık vermemiz gerekiyor. Yapay zeka, deepfake'lerin oluşturulmasına yardımcı olabilir; ancak neyse ki bunların otomatik olarak ve geniş ölçekte tanımlanmasına da yardımcı olabilir.

İşletmeler, doğru yapay zeka araçlarını kullanarak belirli bir fotoğrafın, videonun veya belgenin tahrif edilip edilmediğini otomatik olarak belirleyebilir. Düzinelerce farklı modeli sahte kimlik belirleme görevine getiren yapay zeka, işletmelere belirli bir fotoğrafın veya videonun şüpheli olup olmadığını otomatik olarak tam olarak söyleyebiliyor. İşletmelerin günlük operasyonları otomatikleştirmek için halihazırda kullandığı araçlar gibi, bu araçlar da aşırı çalışan personele yük oluşturmadan veya önemli projelerden zaman kaybetmeden arka planda çalışabilir.

Bir fotoğrafın potansiyel olarak değiştirilmiş olduğu belirlenirse, insan personel uyarılabilir ve yapay zeka tarafından sağlanan bilgilerin yardımıyla sorunu doğrudan değerlendirebilir. Derin tarama analizini kullanarak işletmelere şunları söyleyebilir: neden bir fotoğrafta büyük olasılıkla üzerinde oynamalar yapıldığına inanıyor; örneğin manuel olarak değiştirilmiş meta verilere, web'de aynı görsellerin varlığına, çeşitli fotografik düzensizliklere vb. işaret ediliyor.

Bunların hiçbiri, son birkaç yılda üretken yapay zeka teknolojisinde gördüğümüz ve endüstriler arasında gerçekten yararlı ve üretken uygulamalara sahip olan inanılmaz ilerlemeleri karalamak anlamına gelmiyor. Ancak ortaya çıkan bu teknolojinin gücü (basitliğinden bahsetmiyorum bile), ister kişisel kazanç için ister toplumsal kaos yaratmak amacıyla kuruluşları manipüle etmek isteyenlerin bu teknolojiyi kötüye kullanmasını neredeyse garanti ediyor.

Organizasyonlar yapabilmek Her iki dünyanın da en iyisine sahip olun: Her yerde bulunan deepfake'lerin dezavantajları olmadan yapay zekanın üretkenlik avantajlarına sahip olun. Ancak bunu yapmak, özellikle üretken yapay zekanın çıktılarının her geçen gün daha ikna edici, ayrıntılı ve gerçeğe yakın hale geldiği gerçeği göz önüne alındığında, yeni bir düzeyde dikkatli olmayı gerektiriyor. Kuruluşlar dikkatlerini bu soruna ne kadar çabuk çevirirse, otomatikleştirilmiş bir dünyanın tüm avantajlarından o kadar çabuk yararlanabilirler.

Nicos Vekiarides, CEO'su ve kurucu ortağıdır. attestiv. Son 20 yılını kurumsal BT ve bulut alanında CEO ve girişimci olarak yenilikçi yeni teknolojileri pazara getirerek geçirdi. Kuruluş için bulut entegre depolama alanına öncülük ettiği yenilikçi bir bulut depolama şirketi olan önceki girişimi TwinStrata, 2014 yılında EMC tarafından satın alındı. Bundan önce, daha sonra tarafından satın alınan bir şirket olan StorageApps için sektörün ilk depolama sanallaştırma cihazını pazara sundu. HP.