saplama Açıklanabilirlik, Her Sektörün Yapay Zeka Sorununu Ele Alabilir: Şeffaflık Eksikliği - Unite.AI
Bizimle iletişime geçin

Düşünce Liderleri

Açıklanabilirlik, Her Sektörün Yapay Zeka Sorununu Ele Alabilir: Şeffaflık Eksikliği

mm

Yayınlanan

 on

Tarafından: Ar-Ge Konuşmasından Sorumlu Başkan Yardımcısı Migüel Jetté, devir.

Yeni ortaya çıkan aşamalarında yapay zeka, yenilik şöhretine dayanmayı başarmış olabilir. Makine öğreniminin yavaş öğrenmesi ve yapay zekanın hesaplamalarının ortalama bir tüketici için anlaşılmasının imkansız olduğu şeffaf olmayan bir süreci sürdürmesi sorun değildi. Bu değişiyor. Sağlık, finans ve ceza adaleti sistemi gibi daha fazla endüstri, insanların yaşamları üzerinde gerçek etki yaratabilecek şekillerde yapay zekadan yararlanmaya başladıkça, daha fazla insan algoritmaların nasıl kullanıldığını, verilerin nasıl kaynaklandığını ve doğru şekilde kullanıldığını bilmek istiyor. yeteneklerinin ne kadar doğru olduğu. Şirketler kendi pazarlarında inovasyonda ön sıralarda yer almak istiyorsa hedef kitlenin güveneceği yapay zekaya güvenmeleri gerekiyor. Yapay zekanın açıklanabilirliği bu ilişkiyi derinleştirmenin temel bileşenidir.

Yapay zekanın açıklanabilirliği, standart yapay zeka prosedürlerinden farklıdır çünkü insanlara makine öğrenimi algoritmalarının çıktıyı nasıl oluşturduğunu anlamaları için bir yol sunar. Açıklanabilir AI, insanlara potansiyel sonuçlar sağlayabilen bir sistemdir. ve eksiklikler. Adalet, hesap verebilirlik ve mahremiyete saygı gibi insani arzuları yerine getirebilen bir makine öğrenimi sistemidir. Açıklanabilir yapay zeka, işletmelerin tüketicilerle güven oluşturması için zorunludur.

Yapay zeka genişlerken, yapay zeka sağlayıcılarının kara kutunun bunu yapamayacağını anlamaları gerekir. Kara kutu modelleri doğrudan verilerden oluşturulur ve çoğu zaman algoritmayı oluşturan geliştirici bile makinenin öğrenilmiş alışkanlıklarını neyin tetiklediğini belirleyemez. Ancak vicdanlı tüketici, sorumlu tutulamayacak kadar anlaşılmaz bir şeyle uğraşmak istemez. İnsanlar, bir yapay zeka algoritmasının, özellikle yapay zekanın yanlış hesaplamaları genellikle makine önyargılarından kaynaklandığında, kaynaklı girdi ve kontrollü çıktının gizemi olmadan belirli bir sonuca nasıl ulaştığını bilmek ister. Yapay zeka daha gelişmiş hale geldikçe, insanlar algoritmanın belirli bir sonuca nasıl ulaştığını anlamak için makine öğrenimi sürecine erişmek istiyor. Her sektördeki liderler, er ya da geç insanların artık bu erişimi tercih etmeyeceğini, bunun yerine gerekli bir şeffaflık düzeyi olarak talep edeceğini anlamalıdır.

Ses özellikli asistanlar, transkripsiyon teknolojisi ve insan konuşmasını metne dönüştüren diğer hizmetler gibi ASR sistemleri özellikle önyargılarla boğuşan. Hizmet güvenlik önlemleri için kullanıldığında aksan, kişinin yaşı veya geçmişi nedeniyle yapılan hatalar ciddi hatalar olabilir, bu nedenle sorunun ciddiye alınması gerekir. ASR, örneğin, etkileşimleri otomatik olarak kaydetmek ve yazıya dökmek için polis vücut kameralarında etkili bir şekilde kullanılabilir - doğru bir şekilde kopyalanırsa hayat kurtarabilecek bir kayıt tutmak. Açıklanabilirlik uygulaması, yapay zekanın yalnızca satın alınan veri kümelerine dayanmasını değil, varsa hatalara katkıda bulunabilecek gelen sesin özelliklerini anlamaya çalışmasını gerektirecektir. Akustik profil nedir? Arka planda gürültü var mı? Konuşmacı, İngilizceye öncelik vermeyen bir ülkeden mi yoksa yapay zekanın henüz öğrenmediği bir kelime dağarcığını kullanan bir nesilden mi? Makine öğreniminin daha hızlı öğrenmede proaktif olması gerekir ve bu değişkenleri ele alabilecek verileri toplayarak başlayabilir.

Gereklilik aşikar hale geliyor, ancak bu metodolojiyi uygulamanın yolu her zaman kolay bir çözüme sahip olmayacak. Sorunun geleneksel yanıtı, daha fazla veri eklemektir, ancak özellikle birçok şirketin kullandığı satın alınan veri kümeleri doğası gereği önyargılı olduğunda daha karmaşık bir çözüm gerekli olacaktır. Bunun nedeni, tarihsel olarak, yapay zeka tarafından verilen belirli bir kararı açıklamanın zor olmasıdır ve bunun nedeni, uçtan uca modellerin karmaşıklığının doğasıdır. Ancak şimdi yapabiliriz ve insanların yapay zekaya olan güvenlerini en başta nasıl kaybettiklerini sorarak başlayabiliriz.

Kaçınılmaz olarak, yapay zeka hatalar yapacaktır. Şirketlerin potansiyel eksikliklerin farkında olan modeller oluşturması, sorunların ne zaman ve nerede ortaya çıktığını belirlemesi ve daha güçlü yapay zeka modelleri oluşturmak için sürekli çözümler oluşturması gerekir:

  1. Bir şeyler ters gittiğinde, geliştiricilerin ne olduğunu açıklaması gerekecek ve acil bir plan geliştirmek Gelecekteki benzer hataları azaltmak için modeli geliştirmek.
  2. Makinenin doğru mu yanlış mı olduğunu gerçekten anlaması için bilim adamlarının bir geri bildirim döngüsü oluştur böylece AI eksikliklerini öğrenebilir ve gelişebilir.
  3. AI hala gelişirken ASR'nin güven oluşturmasının başka bir yolu da güven puanları sağlayabilecek bir sistem oluşturmak, ve AI'nın neden daha az emin olduğuna dair nedenler sunun. Örneğin şirketler, kendi yapay zekalarının kusurlarını yansıtmak ve müşterileriyle şeffaflık oluşturmak için genellikle sıfırdan 100'e kadar puanlar oluşturur. Gelecekte sistemler, ses hakkında algılanan gürültü seviyesi veya daha az anlaşılan bir aksan gibi daha fazla meta veri sunarak sesin neden zorlayıcı olduğuna dair geçici açıklamalar sağlayabilir.

Ek şeffaflık, AI eğitimi ve performansının daha iyi insan gözetimi ile sonuçlanacaktır. İyileştirmemiz gereken noktalar konusunda ne kadar açık olursak, bu iyileştirmeler konusunda harekete geçme konusunda o kadar hesap verebiliriz. Örneğin, bir araştırmacı, sorunu hafifletebilmek için hatalı metnin neden çıktığını bilmek isteyebilirken, bir transkripsiyon uzmanı, geçerliliğini değerlendirmelerine yardımcı olması için ASR'nin girdiyi neden yanlış yorumladığına dair kanıt isteyebilir. İnsanları döngüde tutmak, AI kontrol edilmediğinde ortaya çıkan en bariz sorunlardan bazılarını hafifletebilir. Ayrıca, AI'nın hatalarını yakalaması, iyileştirmesi ve sonunda kendini gerçek zamanlı olarak düzeltmesi için gereken süreyi hızlandırabilir.

AI, insanların yaşamlarını iyileştirme yeteneklerine sahiptir, ancak yalnızca insanlar onu düzgün bir şekilde üretmek için inşa ederse. Sadece bu sistemleri değil, aynı zamanda inovasyonun arkasındaki insanları da sorumlu tutmalıyız. Geleceğin AI sistemlerinin insanlar tarafından ortaya konan ilkelere bağlı kalması bekleniyor ve ancak o zamana kadar insanların güvenebileceği bir sisteme sahip olacağız. Nihayetinde hala kendimize hizmet eden insanlar varken, şimdi temelleri atmanın ve bu ilkeler için çabalamanın zamanı geldi.

Miguel Jetté, AI Ar-Ge başkanıdır. devir, AI ile yetenekli insanları birleştiren bir konuşmadan metne transkripsiyon platformu. Dünyanın en doğru konuşmadan metne yapay zeka platformunu geliştirmekten sorumlu ekibe liderlik ediyor. Hayatları iyileştirirken karmaşık sorunları çözme konusunda tutkulu, kendisini teknoloji aracılığıyla yapı kapsayıcılığı ve eşitliği artırmaya adamıştır. Yirmi yılı aşkın bir süredir Nuance Communications ve VoiceBox gibi şirketlerle ses teknolojilerini uygulamak için çalıştı. Montreal'deki McGill Üniversitesi'nden matematik ve istatistik yüksek lisans derecesi aldı. Yapay zeka yoluyla iletişimi ilerletmediğinde, zamanını fotoğrafçı olarak kaya tırmanışı yarışmaları için harcıyor.