Bizimle iletişime geçin

Düşünce Liderleri

2024'te Deepfakes Yaygınlaşıyor. İşletmeler Kendilerini Nasıl Koruyabilir?

mm

En azından 2016 seçimlerinden bu yana, dezenformasyonla ilgili endişeler kamuoyunun bilincine vardığında, uzmanlar derin sahtekarlıklar konusunda alarm veriyor. Bu teknolojinin sonuçları dehşet vericiydi ve hâlâ da öyle. Hiper-gerçekçi sentetik medyanın kontrolsüz çoğalması, herkes— politikacılardan sıradan insanlara. Halihazırda yaygın güvensizliğin hakim olduğu yanıcı bir ortamda, deepfake'ler alevleri daha da körükleyeceğine söz verdi.

Görünen o ki, korkularımız erkendi. Deepfake'leri fiilen yapmak için gereken teknolojik bilgi birikimi ve çoğu zaman kalitesiz kaliteleri, en azından son iki başkanlık seçim döngüsü boyunca bunların asgari düzeyde endişe kaynağı olarak kalması anlamına geliyordu.

Ama bunların hepsi değişmek üzere; zaten değişiyor. Son iki yılda, üretken yapay zeka teknolojisi ana akım haline geldi ve ortalama tüketici için deepfake oluşturma sürecini radikal bir şekilde basitleştirdi. Aynı yenilikler deepfake'lerin kalitesini önemli ölçüde artırdı; öyle ki, kör bir testte çoğu insan üzerinde oynanmış bir videoyu gerçeğinden ayırt edemeyecek.

Özellikle bu yıl, bu teknolojiyle mücadele için çaba gösterilmezse toplumun nasıl etkileneceğine dair işaretler görmeye başladık. Örneğin, geçen yıl Papa Francis'in alışılmadık derecede şık bir palto giydiği yapay zeka destekli bir fotoğraf, viral gitti, ve birçok kişi tarafından gerçek olarak algılandı. Bu, bir bakıma zararsız bir eğlence gibi görünse de, bu deepfake'lerin tehlikeli potansiyelini ve yayılmaya başladıktan sonra yanlış bilginin önüne geçmenin ne kadar zor olabileceğini ortaya koyuyor. Önümüzdeki aylarda ve yıllarda bu tür viral sahteciliğin çok daha az eğlenceli -ve çok daha tehlikeli- örneklerini görmeyi bekleyebiliriz.

Bu nedenle medyadan finansa, hükümetlerden sosyal medya platformlarına kadar her kesimden kuruluşun deepfake tespitine ve içerik orijinalliği doğrulamasına yönelik proaktif bir duruş sergilemesi zorunludur. Tedbirler yoluyla bir güven kültürü oluşturulmalı şimdi, derin sahtekarlıkların gelgit dalgası ortak gerçeklik anlayışımızı silip süpürmeden önce.

Deepfake tehdidini anlamak

Kuruluşların deepfake'lerdeki bu artışla mücadele etmek için neler yapabileceğine geçmeden önce, koruma araçlarının neden gerekli olduğunu ayrıntılı olarak açıklamakta fayda var. Genellikle deepfake'ler konusunda endişe duyanlar, bunların siyaset ve toplumsal güven üzerindeki potansiyel etkilerinden bahsediyor. Bu olası sonuçlar son derece önemli ve deepfake'ler hakkındaki herhangi bir tartışmada göz ardı edilmemeli. Ancak, bu teknolojinin yükselişinin ABD ekonomisinin birçok sektöründe potansiyel olarak ciddi etkileri olduğu da bir gerçek.

Mesela sigortayı ele alalım. Şu anda Amerika Birleşik Devletleri'ndeki yıllık sigorta dolandırıcılığının toplamı 308.6 milyar dolara ulaşıyor; bu rakam tüm sektörün kabaca dörtte biri kadar. Aynı zamanda, çoğu sigorta şirketinin arka uç operasyonları giderek otomatikleşiyor ve 70 yılına kadar standart taleplerin %2025'inin temassız hale gelmesi öngörülüyor. Bunun anlamı, kararların giderek daha az insan müdahalesiyle alınmasıdır: self-servis ön uç ve arka uçta yapay zeka destekli otomasyon.

İronik bir şekilde, otomasyondaki bu artışa izin veren teknoloji (yani makine öğrenimi ve yapay zeka), bunun kötü aktörler tarafından sömürülmesini garantiledi. Ortalama bir insanın iddiaları manipüle etmesi artık her zamankinden daha kolay; örneğin Dall-E, Midjourney veya Stable Diffusion gibi üretken yapay zeka programlarını kullanarak bir arabayı olduğundan daha hasarlı gösteriyor. Kullanıcıların araçlarının fotoğraflarında yapay olarak çukurlar oluşturmasına olanak tanıyan Dude Your Car! gibi uygulamalar zaten bu amaç için özel olarak mevcut.

Aynı durum, artık faturalar, sigorta ekspertiz raporları ve hatta toptan değiştirilmiş veya uydurulmuş imzalar gibi kolayca manipüle edilebilen resmi belgeler için de geçerlidir. Bu durum sadece sigortacılar için değil, ekonominin tamamı için bir sorundur. Çok çeşitli belgelerin gerçekliğini doğrulamak zorunda olan finans kuruluşları için de bir sorundur. Bir ürünün kusurlu geldiğine dair şikayet ve bununla birlikte tahrif edilmiş bir görsel alabilen perakendeciler için de bir sorundur.

İşletmeler bu derece belirsizlikle çalışamazlar. Bir dereceye kadar sahtekarlık muhtemelen her zaman kaçınılmazdır, ancak deepfake'lerde kenarlardaki sahtekarlıktan bahsetmiyoruz; işletmelerin gerçeği kurgudan ayırma konusunda net bir araca sahip olmadığı ve sonunda milyarlarca dolar kaybettiği potansiyel bir epistemolojik felaketten bahsediyoruz. Bu karışıklığa dolar.

Ateşe ateşle karşılık vermek: Yapay zeka nasıl yardımcı olabilir?

Peki bununla mücadele etmek için neler yapılabilir? Belki de şaşırtıcı olmayan bir şekilde cevap, deepfake'leri kolaylaştıran teknolojinin kendisinde yatıyor. Bu belayı daha fazla ivme kazanmadan durdurmak istiyorsak, ateşe ateşle karşılık vermemiz gerekiyor. Yapay zeka, deepfake'lerin oluşturulmasına yardımcı olabilir; ancak neyse ki bunların otomatik olarak ve geniş ölçekte tanımlanmasına da yardımcı olabilir.

İşletmeler, doğru yapay zeka araçlarını kullanarak belirli bir fotoğrafın, videonun veya belgenin tahrif edilip edilmediğini otomatik olarak belirleyebilir. Düzinelerce farklı modeli sahte kimlik belirleme görevine getiren yapay zeka, işletmelere belirli bir fotoğrafın veya videonun şüpheli olup olmadığını otomatik olarak tam olarak söyleyebiliyor. İşletmelerin günlük operasyonları otomatikleştirmek için halihazırda kullandığı araçlar gibi, bu araçlar da aşırı çalışan personele yük oluşturmadan veya önemli projelerden zaman kaybetmeden arka planda çalışabilir.

Bir fotoğrafın potansiyel olarak değiştirilmiş olduğu belirlenirse, insan personel uyarılabilir ve yapay zeka tarafından sağlanan bilgilerin yardımıyla sorunu doğrudan değerlendirebilir. Derin tarama analizini kullanarak işletmelere şunları söyleyebilir: neden bir fotoğrafta büyük olasılıkla üzerinde oynamalar yapıldığına inanıyor; örneğin manuel olarak değiştirilmiş meta verilere, web'de aynı görsellerin varlığına, çeşitli fotografik düzensizliklere vb. işaret ediliyor.

Bunların hiçbiri, son birkaç yıldır üretken yapay zeka teknolojisinde gördüğümüz inanılmaz ilerlemeleri küçümsemek için değil; bu ilerlemeler, sektörler genelinde gerçekten de faydalı ve üretken uygulamalara sahip. Ancak bu yeni teknolojinin gücü -ve basitliğinden bahsetmeye bile gerek yok- ister kişisel çıkar sağlamak ister toplumsal kaos yaratmak için olsun, kuruluşları manipüle etmek isteyenler tarafından kötüye kullanılmasını neredeyse garantiliyor.

Organizasyonlar yapabilmek Her iki dünyanın da en iyisine sahip olmak: Yapay zekanın üretkenlik avantajlarından, yaygın deepfake'lerin olumsuz yanlarına sahip olmadan. Ancak bunu yapmak, özellikle de üretken yapay zekanın çıktılarının her geçen gün daha ikna edici, ayrıntılı ve gerçekçi hale geldiği göz önüne alındığında, yeni bir düzeyde dikkat gerektiriyor. Kuruluşlar bu soruna ne kadar erken dikkat ederlerse, otomatik bir dünyanın tüm avantajlarından o kadar çabuk yararlanabilirler.

Nicos Vekiarides, CEO'su ve kurucu ortağıdır. attestiv. Son 20 yılını kurumsal BT ve bulut alanında CEO ve girişimci olarak yenilikçi yeni teknolojileri pazara getirerek geçirdi. Kuruluş için bulut entegre depolama alanına öncülük ettiği yenilikçi bir bulut depolama şirketi olan önceki girişimi TwinStrata, 2014 yılında EMC tarafından satın alındı. Bundan önce, daha sonra tarafından satın alınan bir şirket olan StorageApps için sektörün ilk depolama sanallaştırma cihazını pazara sundu. HP.