Connect with us

Yapay Zekâ

‘Derin Sahtecilikler’ Yakında Coğrafyaya Girerse

mm

‘Derin sahtecilikler’ konusunda endişeler, coğrafi bilgi bilimi (GIS) gibi diğer alanlara da yayılmaya başlıyor. Binghamton Üniversitesi’ndeki araştırmacılar, bu potansiyel sorunu ele almaya başladılar.

Ekibe Coğrafya Bölüm Başkanı Chengbin Deng ve dört diğer çalışma arkadaşı, Washington Üniversitesi’nden Bo Zhao ve Yifan Sun, Oregon Eyalet Üniversitesi’nden Shaozeng Zhang ve Chunxue Xu dahildir.

Yeni araştırma Haritacılık ve Coğrafi Bilgi Bilimi dergisinde yayımlandı ve “Derin sahte coğrafya? Coğrafi veri yapay zeka ile karşılaştığında” başlığını taşıyor.

Makalede, ekip, yanlış uydu görüntülerinin nasıl oluşturulabileceği ve tespit edilebileceği konusunda bir araştırma yaptı.

“Dürüst olmak gerekirse, muhtemelen bu potansiyel sorunu ilk olarak tanıyan biziz” dedi Deng.

Coğrafi Bilgi Bilimi (GIS) ve GeoAI

Coğrafi bilgi bilimi (GIS), ulusal savunma ve otonom araçlar gibi birçok farklı uygulama için kullanılıyor. Coğrafi Yapay Zeka (GeoAI) gelişimiyle, yapay zeka teknolojisi bu alana da etki ediyor.

GeoAI, coğrafi verilerin çıkarılması ve analiz edilmesi için makine öğrenimi kullanıyor. Ancak GeoAI, aynı zamanda GPS sinyallerini sahtelemek, sosyal medyadaki konum bilgilerini üretmek, coğrafi ortamların fotoğraflarını oluşturmak ve birçok tehlikeli uygulama için de kullanılabilir.

“Bunların hepsini etik ile uyumlu tutmamız gerekiyor. Ancak aynı zamanda araştırmacılar olarak da sahte görüntüleri ayırt edebilmek ve tanımlayabilmek için bir yol bulmalıyız” dedi Deng. “Çok sayıda veri kümesiyle, bu görüntüler insan gözüne gerçek gibi görünebilir.”

Yanlış Görüntüler Oluşturma

Yapay olarak oluşturulmuş bir görüntüyü tespit etmenin ilk adımı, böyle bir görüntü oluşturmaktır, bu nedenle ekip, derin sahtecilikler oluşturmak için kullanılan yaygın bir teknik olan Cycle-Consistent Adversarial Networks (CycleGAN)’i kullandı. CycleGAN, sentetik medyayı simüle edebilen bir gözetimsiz derin öğrenme algoritmasıdır.

Generative Adversarial Networks (GAN), yani bir tür yapay zeka, üretmek için programlandıkları içeriğin eğitim örneklerine ihtiyaç duyar. Örneğin, GAN, bir harita üzerindeki boş bir noktaya farklı olasılıkları belirleyerek içerik üretebilir.

Araştırmacılar, Washington eyaletinin Tacoma şehrinin uydu görüntüsünü değiştirmeye çalıştılar ve görüntüye Seattle ve Beijing’in bazı unsurlarını ekleyerek mümkün olduğunca gerçekçi görünmesini sağladılar. Ancak araştırmacılar, böyle bir görevi gerçekleştirmek konusunda uyarıda bulunuyorlar.

“Bu, teknikle ilgili değil, teknolojiyi nasıl kullandığımızla ilgili” dedi Deng. “Teknolojiyi kötü amaçlar için değil, iyi amaçlar için kullanmak istiyoruz.”

Oluşturulduktan sonra, ekip, gerçek ve sahte görüntüler arasında istatistiksel farklılıklar olup olmadığını belirlemek için 26 farklı görüntü ölçütü karşılaştırdı ve 26 ölçütten 20’sinde (%80) böyle farklılıklar kaydetti.

Farklılıklar arasında, gerçek görüntülerdeki çatı renklerinin tek tip olması, ενώ sahte görüntülerdeki renklerin benek benek olması yer alıyordu. Ekibin ayrıca, sahte uydu görüntüsünün daha az renkli ve daha soluk, ancak daha keskin kenarlı olduğunu buldu. Deng’e göre, farklılıklar, sahte görüntü geliştirmek için kullanılan girdilere bağlıydı.

Bu araştırma, daha ileri çalışmalar için bir temel oluşturuyor ve coğrafyacıların, farklı türdeki sinir ağlarını takip etmelerini ve nasıl sahte görüntüler oluşturduklarını görmelerini sağlayarak, daha iyi bir tespit ermögiliyor. Ekibin dediğine göre, bu alanda güvenilir bilgileri doğrulamak ve derin sahtecilikleri tespit etmek için sistematik yöntemler geliştirilmelidir.

“Hepimiz gerçeği istiyoruz” dedi Deng.

Alex McFarland yapay zeka muhabiri ve yazarıdır ve yapay zekadaki son gelişmeleri araştırıyor. Birçok yapay zeka başlangıç şirketi ve dünya çapındaki yayınlarda işbirliği yaptı.