Connect with us

Yapay Zekâ

Başlangıç Şirketleri E-posta Tacizi Algılamak İçin AI Araçları Oluşturuyor

mm

2017’nin sonlarında Me Too hareketi öne çıktığından beri, cinsel taciz dahil olmak üzere işyeri tacizi ve e-posta veya anlık mesajlaşma yoluyla taciz olaylarına daha fazla dikkat edilmektedir.

The Guardian’ın bildirdiği gibi, AI araştırmacıları ve mühendisleri, MeTooBots olarak adlandırılan metin iletişimlerinde tacizi tespit etmek için araçlar oluşturuyorlar. MeTooBots, şirketler tarafından potentially zararlı ve taciz edici iletişimleri işaretlemek amacıyla dünya çapında uygulanıyor. Bunun bir örneği, Nex AI şirketinin oluşturduğu ve yaklaşık 50 farklı şirket tarafından kullanılan bir botdur. Bot, şirket belgelerini, sohbetleri ve e-postaları inceleyen ve bunları taciz veya zorbalık mesajlarının eğitim verilerine karşılaştırarak çalışan bir algoritma kullanıyor. Potansiyel olarak taciz edici veya zararlı olarak değerlendirilen mesajlar, insan kaynakları yöneticisine gözden geçirilmek üzere gönderilebilir, ancak Nex AI, botun analiz ettiği iletişimlerde hangi belirli terimlere baktığını açıklamadı.

Diğer başlangıç şirketleri de taciz algılama araçları oluşturdu. AI başlangıcı Spot, cinsel taciz iddialarını anonim olarak bildirilmesini sağlayan bir sohbet botuna sahiptir. Bot, daha fazla ayrıntı toplamak ve olayı daha da araştırmak için sorular sorar ve tavsiyelerde bulunur. Spot, insan kaynakları ekiplerinin taciz sorunlarıyla duyarlı bir şekilde ilgilenmesini sağlamak isterken, aynı zamanda anonimliğin korunmasını sağlar.

The Guardian’a göre, MIT ve Harvard AI profesörü Prof. Brian Subirana, tacizi tespit etmek için AI kullanımının sınırları olduğunu açıkladı. Taciz çok ince ve zor tespit edilebilir, genellikle haftalarca verilerin incelendiğinde ortaya çıkan bir model olarak kendini gösterir. Botlar ayrıca, belirli tetikleyici kelimelerin algılanmasından öteye geçemez ve potansiyel olarak oynanan daha geniş kişiler arası veya kültürel dinamikleri analiz edemez. Taciz algılamanın karmaşıklığına rağmen, Subirana, botların online tacizle mücadele etmek için bir rol oynayabileceğine inanmaktadır. Subirana, botların insanların tacizi gördüklerinde algılamalarına yardımcı olmak için kullanılacağını, potansiyel olarak sorunlu mesajların bir veritabanının oluşturulacağını görebiliyor. Subirana, ayrıca, insanların mesajlarının incelendiğinden şüphelenmeleri durumunda, aslında öyle olmasalar bile, iş arkadaşlarına karşı daha az taciz etmeye meyilli olabilecekleri konusunda bir placebo etkisi olabileceğini belirtti.

Subirana, botların tacizle mücadele etmek için potansiyel kullanımlarına inanmasına rağmen, Subirana ayrıca verilerin gizliliği ve gizliliğinin önemli bir endişe kaynağı olduğunu savundu. Subirana, bu teknolojinin potansiyel olarak yanlış kullanıldığında güvensizlik ve şüphe atmosferi yaratabileceğini belirtti. Kadın hakları NGO’su Fawcett Society’nin yöneticisi Sam Smethers de botların yanlış kullanılmasına ilişkin endişelerini dile getirdi. Smethers, “Teknolojinin nasıl geliştirildiğini, arkasındaki kişilerin kim olduğunu ve yaklaşımın işyeri kültürünü taciz önleme ve eşitliği teşvik etmeye yönelik olup olmadığını yoksa yalnızca çalışanlarını kontrol etmek için başka bir yol olup olmadığını dikkatlice incelemek istiyoruz” dedi.

Tacizi tespit etmek için botları kullanmanın ve aynı zamanda anonimliği ve gizliliği korumaya devam etmenin yolları, bot geliştiricileri, şirketler ve düzenleyiciler arasında çalışılmalıdır. Botların ve AI’nin öngörücü gücünü kullanırken aynı zamanda gizliliği korumak için olası yöntemler arasında, iletişimlerin anonim olarak tutulması yer alır. Örneğin, bot tarafından yalnızca potansiyel olarak zararlı dilin varlığı ve potansiyel olarak taciz edici dilin sıklığının sayısı dahil olmak üzere raporlar oluşturulabilir. İnsan kaynakları, bu şekilde, zehrin dilinin kullanımının farkındalık seminerleri sonrasında azalma gösterip göstermediğini veya tersine artan tacize karşı uyanık olmaları gerektiğini belirleyebilir.

Tacizi tespit etmek için makine öğrenimi algoritmaları ve botların kullanılmasına ilişkin uygun kullanımlar konusunda anlaşmazlığa rağmen, her iki tarafın da, taciz vakalarına müdahale etme kararının bir insan tarafından verilmesi gerektiği ve botların yalnızca eşleşen kalıpları uyarması gerektiği konusunda hemfikir olduğu görünüyor.

Blog yazarı ve programcı, Machine Learning ve Deep Learning konularında uzmanlık sahibi. Daniel, başkalarının AI'nin gücünü sosyal fayda için kullanmasına yardımcı olmak umudu taşıyor.