Bizimle iletişime geçin

AI 101

Deepfake Nedir?

mm

Deepfake'lerin yapımı kolaylaştıkça ve daha üretken hale geldikçe, bunlara daha fazla önem veriliyor. Deepfakes, yapay zeka etiği, yanlış bilgilendirme, bilginin ve internetin açıklığı ve düzenlemeleri içeren tartışmaların odak noktası haline geldi. Deepfake'ler hakkında bilgi sahibi olmak ve deepfake'lerin ne olduğuna dair sezgisel bir anlayışa sahip olmak faydalıdır. Bu makale, deepfake'in tanımını açıklığa kavuşturacak, kullanım örneklerini inceleyecek, deepfake'lerin nasıl tespit edilebileceğini tartışacak ve deepfake'lerin toplum üzerindeki etkilerini inceleyecektir.

Deepfakes nedir?

Derin sahtekarlıkları daha fazla tartışmaya başlamadan önce biraz zaman ayırıp netleştirmek faydalı olacaktır. "deepfakes" gerçekte ne. Deepfake terimiyle ilgili önemli miktarda kafa karışıklığı vardır ve bu terim, gerçek bir deepfake olup olmadığına bakılmaksızın, çoğu zaman herhangi bir tahrif edilmiş medyaya yanlış uygulanır. Deepfake olarak nitelendirilebilmesi için, söz konusu sahte medyanın bir makine öğrenme sistemi, özellikle de derin bir sinir ağı ile üretilmesi gerekir.

Deepfake'in temel bileşeni makine öğrenimidir. Makine öğrenimi, bilgisayarların nispeten hızlı ve kolay bir şekilde otomatik olarak video ve ses oluşturmasını mümkün kıldı. Derin sinir ağları, ağın insanların hedef çevre koşullarında nasıl göründüğünü ve hareket ettiğini öğrenmesi için gerçek bir kişinin görüntüleri üzerinde eğitilir. Eğitilen ağ daha sonra başka bir kişinin görüntüleri üzerinde kullanılır ve yeni kişiyi orijinal görüntüyle birleştirmek için ek bilgisayar grafik teknikleriyle güçlendirilir. Orijinal yüz ile hedef yüz arasındaki benzerlikleri belirlemek için bir kodlayıcı algoritması kullanılır. Yüzlerin ortak özellikleri ayrıştırıldıktan sonra kod çözücü adı verilen ikinci bir yapay zeka algoritması kullanılıyor. Kod çözücü, kodlanmış (sıkıştırılmış) görüntüleri inceler ve bunları orijinal görüntülerin özelliklerine göre yeniden oluşturur. Biri asıl kişinin yüzünde, ikincisi ise hedef kişinin yüzünde olmak üzere iki kod çözücü kullanılır. Takasın yapılabilmesi için, X kişisinin görüntüleri üzerinde eğitilen kod çözücü, Y kişisinin görüntüleri ile beslenir. Sonuç olarak, Y kişisinin yüzü, X Kişisinin yüz ifadeleri ve yönelimi üzerinden yeniden oluşturulur.

Şu anda, bir derin sahtekarlığın yapılması hala oldukça zaman alıyor. Sahtenin yaratıcısı, modelin parametrelerini manuel olarak ayarlamak için uzun zaman harcamak zorundadır, çünkü ideal olmayan parametreler, sahtenin gerçek doğasını ortaya çıkaran gözle görülür kusurlara ve görüntü kusurlarına yol açacaktır.

Çoğu deepfake'in, üretken düşmanca ağ (GAN) adı verilen bir tür sinir ağıyla yapıldığı sıklıkla varsayılsa da, günümüzde oluşturulan birçok (belki de çoğu) deepfake, GAN'lara dayanmıyor. SUNY Buffalo'dan Siwei Lyu'ya göre, GAN'lar erken deepfake'lerin oluşturulmasında önemli bir rol oynamış olsa da, çoğu deepfake videosu alternatif yöntemlerle oluşturuluyor.

Bir GAN'ı eğitmek için orantısız olarak büyük miktarda eğitim verisi gerekir ve GAN'ların bir görüntüyü işlemesi, diğer görüntü oluşturma tekniklerine kıyasla genellikle çok daha uzun sürer. GAN'lar aynı zamanda statik görüntüler oluşturmak için videodan daha iyidir, çünkü GAN'lar kareden kareye tutarlılığı korumakta güçlük çekerler. Deepfake'ler oluşturmak için bir kodlayıcı ve birden çok kod çözücü kullanmak çok daha yaygındır.

Deepfake'ler Ne İçin Kullanılır?

Çevrimiçi olarak bulunan deepfake'lerin çoğu doğası gereği pornografiktir. Bir AI firması olan Deeptrace tarafından Eylül 15,000'da çekilen yaklaşık 2019 deepfake video örneğinden yapılan araştırmaya göre, bunların yaklaşık %95'i pornografik nitelikteydi. Bu gerçeğin rahatsız edici bir sonucu, teknolojinin kullanımı kolaylaştıkça sahte intikam pornosu olaylarının artabileceğidir.

Ancak, derin sahtekarlıkların tümü doğası gereği pornografik değildir. Deepfake teknolojisinin daha meşru kullanımları var. Audio deepfake teknolojisi, insanların hastalık veya yaralanma nedeniyle hasar gördükten veya kaybolduktan sonra normal seslerini yayınlamalarına yardımcı olabilir. Deepfakes, hassas, potansiyel olarak tehlikeli durumlarda olan kişilerin yüzlerini gizlemek için de kullanılabilirken, yine de dudaklarının ve ifadelerinin okunmasına izin verir. Deepfake teknolojisi, potansiyel olarak yabancı dildeki filmlerin dublajını iyileştirmek, eski ve hasarlı medyanın onarımına yardımcı olmak ve hatta yeni sanat stilleri yaratmak için kullanılabilir.

Video Dışı Deepfake'ler

"Deepfake" terimini duyduğunda çoğu kişinin aklına sahte videolar gelse de, deepfake teknolojisiyle üretilen tek sahte medya türü kesinlikle sahte videolar değildir. Deepfake teknolojisi, fotoğraf ve ses sahtekarlıkları oluşturmak için de kullanılır. Daha önce belirtildiği gibi, GAN'lar sıklıkla sahte görüntüler oluşturmak için kullanılır. Deepfake algoritmalarıyla oluşturulmuş profil resimlerine sahip birçok sahte LinkedIn ve Facebook profili vakası olduğu düşünülüyor.

Audio deepfake'ler oluşturmak da mümkündür. Derin sinir ağları, ünlüler ve politikacılar da dahil olmak üzere farklı kişilerin ses klonlarını/ses dış görünümlerini üretmek için eğitilir. Sesli Deepfake'in ünlü bir örneği, yapay zeka şirketi Dessa'nın bir AI modelini kullandı, podcast sunucusu Joe Rogan'ın sesini yeniden oluşturmak için AI olmayan algoritmalar tarafından desteklenir.

Deepfake'ler Nasıl Belirlenir?

Deepfake'ler giderek daha sofistike hale geldikçe, onları gerçek medyadan ayırmak giderek daha zor hale gelecek. Şu anda, var birkaç açıklayıcı işaret insanlar bir videonun kötü dudak senkronizasyonu, doğal olmayan hareket, yüzün kenarlarında titreme ve saç, diş veya yansıma gibi ince ayrıntıların bükülmesi gibi potansiyel olarak derin sahte olup olmadığını tespit edebilir. Deepfake'in diğer potansiyel belirtileri arasında aynı videonun düşük kaliteli bölümleri ve gözlerin düzensiz yanıp sönmesi yer alır.

Bu işaretler şu anda bir deepfake'in tespit edilmesine yardımcı olsa da, deepfake teknolojisi geliştikçe, güvenilir deepfake tespiti için tek seçenek, sahteleri gerçek medyadan ayırt etmek için eğitilmiş diğer yapay zeka türleri olabilir.

Büyük teknoloji şirketlerinin çoğu da dahil olmak üzere yapay zeka şirketleri, derin sahtekarlıkları tespit etme yöntemlerini araştırıyor. Geçen Aralık ayında, üç teknoloji devi tarafından desteklenen bir derin sahte algılama mücadelesi başlatıldı: Amazon, Facebook ve Microsoft. Dünyanın dört bir yanından araştırma ekipleri, en iyi tespit yöntemlerini geliştirmek için yarışarak derin sahtekarlıkları tespit etme yöntemleri üzerinde çalıştı. Google ve Jigsaw'dan bir grup birleşik araştırmacı gibi diğer araştırmacı grupları, değiştirilmiş videoları tespit edebilen bir tür "yüz adli tıp" üzerinde çalışıyor. veri kümelerini açık kaynak yapmak ve başkalarını derin sahte algılama yöntemleri geliştirmeye teşvik etmek. Bahsi geçen Dessa, tespit modellerinin açık kaynak veri seti gibi önceden oluşturulmuş eğitim ve test veri setlerinde değil, vahşi ortamda (internette) bulunan deepfake videolarda çalışmasını sağlamaya çalışarak derin sahte algılama tekniklerini iyileştirmeye çalıştı. Google sağladı.

Ayrıca, var diğer stratejiler Deepfake'lerin çoğalmasıyla başa çıkmak için araştırılanlar. Örneğin, videoların diğer bilgi kaynaklarıyla uyumlu olup olmadığını kontrol etmek bir stratejidir. Potansiyel olarak başka açılardan çekilmiş olayların videosu için arama yapılabilir veya videonun arka plan ayrıntılarında (hava durumu modelleri ve konumlar gibi) uyumsuzluk olup olmadığı kontrol edilebilir. Bunun ötesinde, bir Blockchain çevrimiçi defter sistemi türev videoların manipülasyona karşı her zaman kontrol edilebilmesi için orijinal ses ve görüntüleri tutarak videoları ilk oluşturulduğunda kaydedebilir.

Sonuç olarak, derin sahtekarlıkları tespit etmek için güvenilir yöntemlerin oluşturulması ve bu tespit yöntemlerinin derin sahte teknolojideki en yeni gelişmelere ayak uydurması önemlidir. Deepfake'lerin etkilerinin tam olarak ne olacağını bilmek zor olsa da, deepfake'leri (ve diğer sahte medya biçimlerini) tespit etmenin güvenilir yöntemleri yoksa, yanlış bilgilendirme potansiyel olarak yaygınlaşabilir ve insanların topluma ve kurumlara olan güvenini azaltabilir.

Deepfake'lerin Etkileri

Deep fake'in kontrolsüz bir şekilde çoğalmasına izin vermenin tehlikeleri nelerdir?

Deepfake'lerin şu anda yarattığı en büyük sorunlardan biri, insanların yüzlerini pornografik videolar ve resimlerle birleştirerek tasarlanmış, rıza dışı pornografidir. AI etik uzmanları, derin sahtelerin sahte intikam pornosu yapımında daha fazla kullanılacağından endişe ediyor. Bunun ötesinde, derin sahtekarlıklar, insanları tartışmalı ve uzlaşmacı senaryolara sokmak için kullanılabileceğinden, hemen hemen herkesin itibarına zorbalık yapmak ve itibarını zedelemek için kullanılabilir.

Şirketler ve siber güvenlik uzmanları, derin sahtekarlıkların dolandırıcılık, dolandırıcılık ve şantajı kolaylaştırmak için kullanılmasıyla ilgili endişelerini dile getirdiler. İddiaya göre, derin sahte ses çalışanları ikna etmek için kullanılır bir şirketin dolandırıcılara para aktarması

Deepfake'lerin yukarıda listelenenlerin ötesinde bile zararlı etkileri olabilir. Deepfakes, potansiyel olarak insanların genel olarak medyaya olan güvenini aşındırabilir ve insanların gerçek haber ile sahte haber arasında ayrım yapmasını zorlaştırabilir. Web'deki birçok video sahteyse, hükümetler, şirketler ve diğer kuruluşlar için meşru tartışmalar ve etik olmayan uygulamalar hakkında şüphe uyandırmak daha kolay hale gelir.

Hükümetler söz konusu olduğunda, derin sahtekarlıklar demokrasinin işleyişine tehdit bile oluşturabilir. Demokrasi, vatandaşların güvenilir bilgilere dayanarak politikacılar hakkında bilinçli kararlar verebilmesini gerektirir. Yanlış bilgi, demokratik süreçleri baltalıyor. Örneğin, Gabon başkanı Ali Bongo, Gabon vatandaşlarına güven vermeye çalışan bir videoda yer aldı. Başkanın uzun bir süredir rahatsız olduğu varsayıldı ve aniden ortaya çıkması muhtemelen sahte bir video bir darbe girişimini başlattı. Başkan Donald Trump, kadınları cinsel organlarından tutmasıyla övünürken çekilmiş bir ses kaydının olduğunu iddia etti. sahteydi, bunu "soyunma odası konuşması" olarak tanımlamasına rağmen. Prens Andrew ayrıca Emily Maitilis'in avukatı tarafından sağlanan bir görüntünün sahte olduğunu iddia etti, ancak avukat gerçekliğinde ısrar etti.

Sonuç olarak, deepfake teknolojisinin meşru kullanımları olsa da, bu teknolojinin kötüye kullanılmasından doğabilecek birçok potansiyel zarar vardır. Bu nedenle, medyanın gerçekliğini belirlemeye yönelik yöntemlerin oluşturulması ve sürdürülmesi son derece önemlidir.

Uzmanlık alanlarına sahip blogcu ve programcı Makine öğrenmesi ve Derin Öğrenme konular. Daniel, başkalarının yapay zekanın gücünü toplumsal fayda için kullanmasına yardım etmeyi umuyor.