Yapay Zekâ
AI Now Enstitüsü, Emotion Detection Yazılımının Kötüye Kullanımına ve Diğer Etik Sorunlara Dikkat Çekiyor

AI Now Enstitüsü, yasama organlarına ve diğer düzenleyici kurumlara, emotion-detecting teknolojisini kullanımını sınırlayan katı sınırlar koymalarını, özellikle personel işe alımında veya öğrenci kabulünde önemli kararlar alınması durumunda kullanımını yasaklamalarını öneren bir rapor yayınladı. Ayrıca, raporda AI alanında çeşitli konulara ilişkin bir dizi başka öneri yer alıyor.
AI Now Enstitüsü, NYU’da bulunan bir araştırma enstitüsüdür ve toplum üzerindeki AI’ın etkisini incelemekle görevlidir. AI Now, AI araştırmalarının durumu ve AI’ın şu anda nasıl kullanıldığının etik etkileri hakkında bulgularını gösteren yıllık bir rapor yayınlamaktadır. BBC’nin haberine göre, bu yılın raporu, algoritmik ayrımcılık, AI araştırmalarında çeşitlilik eksikliği ve işçi sorunları gibi konulara değindi.
Affect recognition, emotion-detection algoritmalarının teknik terimidir ve AI araştırmalarının hızla büyüyen bir alanıdır. Teknolojiyi kararlar almak için kullananlar, sistemlerin mikro ifadeleri, ses tonu ve vücut dilini analiz ederek insanların duygusal durumları hakkında güvenilir bilgi sağlayabileceğini iddia ediyorlar. AI Now enstitüsü, teknolojinin geniş bir uygulama yelpazesi boyunca kullanıldığını, örneğin kimin işe alınacağına, sigorta primlerinin belirlenmesine ve öğrencilerin derse dikkat edip etmediğinin izlenmesine karar verilmesine dikkat çekiyor.
AI Now’un kurucu ortağı Prof. Kate Crawford, insan duygularının nispeten basit modellerle doğru bir şekilde öngörülebileceğine часто inanılıyor dedi. Crawford, bazı şirketlerin yazılımlarını Paul Ekman’ın çalışmasına dayandırdıklarını, Ekman’ın yüzdeki altı temel emotion tipi olduğunu öne sürdüğünü belirtti. Ancak Crawford, Ekman’ın teorisinin ortaya konmasından bu yana yapılan çalışmaların, yüz ifadelerinde çok daha fazla varyasyon bulunduğunu ve ifadelerin durumlar ve kültürler arasında kolayca değişebileceğini gösterdiğini kaydetti.
“Aynı zamanda bu teknolojilerin devreye alındığı sırada, çok sayıda çalışma, insanların hissettikleri duygular ile yüzlerinin görünümü arasında tutarlı bir ilişki bulunmadığını gösteriyor” dedi Crawford BBC’ye.
Bu nedenle, AI Now enstitüsü, affect recognition’ın büyük kısmının güvensiz teorilere ve şüpheli bilime dayandığını savunuyor. Dolayısıyla, emotion detection sistemlerinin, daha fazla araştırma yapılmadan ve “hükümetlerin affect recognition’ı yüksek riskli karar alma süreçlerinde kullanmasını özel olarak yasaklamaları” gerektiğini savunuyor. AI Now, özellikle “duyarlı sosyal ve politik bağlamlarda” teknolojinin kullanımını durdurmayı öneriyor, bu bağlamlar arasında istihdam, eğitim ve polislik yer alıyor.
En az bir AI-geliştirme şirketi, affect recognition alanında uzmanlaşmış Emteq, teknolojinin kötüye kullanılmasını önleyen bir düzenleme olmasını kabul etti. Emteq’in kurucusu Charles Nduka, BBC’ye, AI sistemlerinin farklı yüz ifadelerini doğru bir şekilde tanıyabileceğini ancak ifade ile emotion arasında basit bir harita bulunmadığını söyledi. Nduka, düzenlemenin fazla ileri gitmemesi ve araştırmaları engellememesi gerektiğini, “şeyler yasaklanacaksa, insanların bebeği banyo suyuna atmemesi çok önemli” dedi.
NextWeb’in haberine göre, AI Now ayrıca AI endüstrisini yönlendirecek bir dizi başka politika ve norm önerdi.
AI Now, AI endüstrisinin işyerlerini daha çeşitli hale getirmesi gerektiğini ve işçilerin invazif ve sömürücü AI hakkında endişelerini dile getirmelerine garantili bir hak tanınması gerektiğini vurguladı. Teknoloji işçilerinin, çalışmalarının zararlı veya etik dışı işler için kullanılıp kullanılmadığını bilmeleri gerekiyor.
AI Now ayrıca, yasama organlarının, sağlıkla ilgili AI’den türetilen herhangi bir verinin kullanımına bilgilendirilmiş onay gerektiren adımlar atmasını önerdi. Bunun ötesinde, veri gizliliğinin ciddiye alınması ve devletlerin hem özel hem de kamu kurumlarını kapsayan biyometrik veri için gizlilik yasaları tasarlamaları önerildi.
Son olarak, enstitü, AI endüstrisinin daha küresel düşünmesi ve AI’ın daha geniş siyasi, toplumsal ve ekolojik sonuçlarını ele alması gerektiğini önerdi. AI’ın coğrafi yer değiştirme ve iklim üzerindeki etkisini hesaba katma konusunda önemli bir çaba sarf edilmesi ve hükümetlerin AI endüstrisinin iklim etkisini kamuoyuna açıklaması önerildi.












