saplama Yapay Zeka Sohbet Robotlarının Tehlikeleri - Ve Bunlara Karşı Koyma - Unite.AI
Bizimle iletişime geçin

Düşünce Liderleri

Yapay Zeka Sohbet Robotlarının Tehlikeleri – Ve Bunlara Nasıl Karşı Koyabilirsiniz?

mm

Yayınlanan

 on

Bir zamanlar sadece otomatik konuşma programları olarak düşünüldüğünde, yapay zeka sohbet robotları artık insanlardan neredeyse ayırt edilemeyen konuşmaları öğrenip yürütebiliyor. Bununla birlikte, yapay zeka sohbet robotlarının tehlikeleri de bir o kadar çeşitlidir.

Bunlar, insanların onları kötüye kullanmasından gerçek siber güvenlik risklerine kadar değişebilir. İnsanlar yapay zeka teknolojisine giderek daha fazla güvenirken, bu programları kullanmanın olası sonuçlarını bilmek çok önemlidir. Ancak botlar tehlikeli midir?

1. Önyargı ve Ayrımcılık

AI sohbet robotlarının en büyük tehlikelerinden biri, zararlı önyargılara olan eğilimleridir. Yapay zeka, insanların sıklıkla gözden kaçırdığı veri noktaları arasında bağlantılar kurduğundan, kendisine ayrımcı olmayı öğretmek için eğitim verilerindeki üstü kapalı önyargıları yakalayabilir. Sonuç olarak, sohbet robotları, eğitim verilerinde bu kadar aşırı bir şey olmasa bile ırkçı, cinsiyetçi veya başka türlü ayrımcı içerikler yaymayı hızla öğrenebilir.

En iyi örnek, Amazon'un hurdaya çıkarılan işe alma botudur. 2018 yılında ortaya çıktı ki Amazon bir yapay zeka projesinden vazgeçmişti kadınlardan gelen başvuruları cezalandırdığı için başvuranların özgeçmişlerini önceden değerlendirmek anlamına geliyordu. Botun üzerinde eğitim aldığı özgeçmişlerin çoğu erkeklere ait olduğu için, eğitim verileri bunu açıkça söylemese bile, kendi kendine erkek adayların tercih edildiğini öğrendi.

Kendilerine nasıl iletişim kuracaklarını öğretmek için internet içeriğini kullanan sohbet robotları, doğal olarak daha da aşırı önyargılar sergileme eğilimindedir. 2016'da Microsoft, sosyal medya gönderilerini taklit etmeyi öğrenen Tay adlı bir sohbet botunu piyasaya sürdü. Birkaç saat içinde, son derece rahatsız edici içeriği tweetlemeye başladı, Microsoft'un çok geçmeden hesabı askıya almasına neden oldu.

Şirketler bu botları oluştururken ve dağıtırken dikkatli olmazsa, yanlışlıkla benzer durumlara yol açabilir. Chatbot'lar müşterilere kötü davranabilir veya engellemeleri gereken zararlı önyargılı içerikleri yayabilir.

2. Siber Güvenlik Riskleri

AI chatbot teknolojisinin tehlikeleri, insanlar ve işletmeler için daha doğrudan bir siber güvenlik tehdidi de oluşturabilir. Siber saldırıların en üretken biçimlerinden biri, kimlik avı ve vishing dolandırıcılığıdır. Bunlar şunları içerir: güvenilir kuruluşları taklit eden siber saldırganlar bankalar veya devlet kurumları gibi.

Kimlik avı dolandırıcılıkları genellikle e-posta ve metin mesajları yoluyla çalışır; bağlantıya tıklamak, kötü amaçlı yazılımın bilgisayar sistemine girmesine izin verir. İçeri girdikten sonra, virüs kişisel bilgileri çalmaktan sistemi fidye için tutmaya kadar her şeyi yapabilir.

Kimlik avı saldırılarının oranı, COVID-19 salgını sırasında ve sonrasında istikrarlı bir şekilde artıyor. Siber Güvenlik ve Altyapı Güvenliği Ajansı bireylerin% 84'ünü buldu hassas bilgiler içeren kimlik avı mesajlarına yanıt verdi veya bağlantıya tıkladı.

Kimlik avcıları, kurban aramayı otomatikleştirmek, onları bağlantılara tıklamaya ve kişisel bilgilerini vermeye ikna etmek için yapay zeka sohbet robotu teknolojisini kullanıyor. Chatbot'lar, bankalar gibi birçok finansal kurum tarafından müşteri hizmetleri deneyimini kolaylaştırmak için kullanılır.

Chatbot kimlik avcıları, bankaların kurbanları kandırmak için kullandıkları aynı otomatik istemleri taklit edebilir. Ayrıca telefon numaralarını otomatik olarak arayabilir veya kurbanlarla doğrudan etkileşimli sohbet platformlarında iletişim kurabilirler.

3. Veri Zehirlenmesi

Veri zehirlenmesi, yapay zekayı doğrudan hedef alan yeni tasarlanmış bir siber saldırıdır. AI teknolojisi, veri kümelerinden öğrenir ve bu bilgileri görevleri tamamlamak için kullanır. Bu, amaçları veya işlevleri ne olursa olsun tüm AI programları için geçerlidir.

Chatbot yapay zekaları için bu, kullanıcıların onlara verebileceği olası sorulara birden fazla yanıt öğrenmek anlamına gelir. Ancak, bu aynı zamanda yapay zekanın tehlikelerinden biridir.

Bu veri kümeleri genellikle açık kaynaklı araçlar ve herkesin kullanımına açık kaynaklardır. Yapay zeka şirketleri genellikle veri kaynaklarını yakından korusa da, siber saldırganlar hangi kaynakları kullandıklarını belirleyebilir ve verileri manipüle edebilir.

Siber saldırganlar bunun yollarını bulabilir veri kümelerini kurcalamak AI'ları eğitmek için kullanılır, kararlarını ve tepkilerini manipüle etmelerine izin verir. AI, değiştirilmiş verilerden gelen bilgileri kullanacak ve saldırganların istediği eylemleri gerçekleştirecektir.

Örneğin, veri kümeleri için en sık kullanılan kaynaklardan biri Wikipedia gibi Wiki kaynaklarıdır. Veriler, canlı Wikipedia makalesinden gelmese de, belirli zamanlarda alınan verilerin anlık görüntülerinden gelir. Bilgisayar korsanları, kendilerine fayda sağlamak için verileri düzenlemenin bir yolunu bulabilir.

Chatbot AI'ları söz konusu olduğunda, bilgisayar korsanları tıbbi veya finansal kurumlar için çalışan chatbot'ları eğitmek için kullanılan veri setlerini bozabilir. Müşterilere kötü amaçlı yazılım veya dolandırıcılık amaçlı bir web sitesi içeren bir bağlantıya tıklamalarına yol açabilecek yanlış bilgiler vermek için sohbet robotu programlarını manipüle edebilirler. Yapay zeka zehirli verilerden çekmeye başladığında, bunu tespit etmek zordur ve siber güvenlikte uzun süre fark edilmeyen önemli bir ihlale yol açabilir.

Yapay Zeka Sohbet Robotlarının Tehlikelerini Nasıl Ele Alabilirsiniz?

Bu riskler endişe vericidir, ancak botların doğası gereği tehlikeli olduğu anlamına gelmez. Aksine, onlara dikkatli bir şekilde yaklaşmalı ve sohbet robotları oluştururken ve kullanırken bu tehlikeleri göz önünde bulundurmalısınız.

AI yanlılığını önlemenin anahtarı, eğitim boyunca onu aramaktır. Onu çeşitli veri kümeleri üzerinde eğittiğinizden ve karar verme sürecinde ırk, cinsiyet veya cinsel yönelim gibi şeyleri hesaba katmaktan kaçınmak için özel olarak programladığınızdan emin olun. Ayrıca, sohbet robotlarının iç işleyişini gözden geçirmek ve ne kadar incelikli olursa olsun herhangi bir önyargı sergilemediklerinden emin olmak için çeşitli veri bilimcilerden oluşan bir ekibe sahip olmak en iyisidir.

Kimlik avına karşı en iyi savunma eğitimdir. Tüm çalışanları tespit için eğitin kimlik avı girişimlerinin yaygın belirtileri Böylece bu saldırılara kanmazlar. Konuyla ilgili tüketici bilincini yaymak da yardımcı olacaktır.

Chatbot'ların eğitim verilerine erişimi kısıtlayarak veri zehirlenmesini önleyebilirsiniz. Yalnızca işlerini doğru bir şekilde yapmak için bu verilere erişmesi gereken kişiler yetkilendirilmelidir - bu, en az ayrıcalık ilkesi adı verilen bir kavramdır. Bu kısıtlamaları uyguladıktan sonra, siber suçluların yetkili bir hesabı ele geçirme risklerini önlemek için çok faktörlü kimlik doğrulama veya biyometri gibi güçlü doğrulama önlemleri kullanın.

Yapay Zeka Güveninin Tehlikelerine Karşı Tetikte Olun

Yapay zeka, neredeyse sonsuz uygulamaları olan gerçekten harika bir teknolojidir. Bununla birlikte, yapay zekanın tehlikeleri belirsiz olabilir. Botlar tehlikeli midir? Doğası gereği değil, ancak siber suçlular bunları çeşitli yıkıcı şekillerde kullanabilir. Bu yeni keşfedilen teknolojinin uygulamalarının ne olduğuna karar vermek kullanıcılara kalmıştır.