Düşünce Liderleri
Sektörler Yapay Zekayı Hızlandırılmış Benimseme İçin Hazırlanırken, Etik ve Sorumluluğa Yeni Odak Noktası

By: Pandurang Kamat, CTO'su Kalıcı Sistemler
Yapay zeka (AI) özünde makine öğrenme (ML), makinelerin veri girişlerine dayalı olarak performansı nasıl iyileştireceğini öğrendiği süreç. Bugün var olan çok miktarda veri, yapay zekanın gelişmek için verimli bir zemine sahip olduğu anlamına geliyor. sadece son birkaç yılda baş döndürücü bir hızla hızlanan. Ve AI'nın vaadi, geniş kapsamlı sektörlerdeki teknoloji uzmanlarını ve yöneticileri, çeşitli uygulamaları hakkında yaratıcı bir şekilde düşünmeye sevk etti.
Sanayi devriminden bu yana, herhangi bir hızlı teknolojik ilerleme dönemi, eşit ölçüde coşku ve korkuyla işaretlenir. bu World Wide Web Consortium Web geliştirici endüstrisi standartlarını oluşturan bir grup olan (W3C), önyargı, gizlilik, güvenlik, sürdürülebilirlik ve genel sorumluluk.
"Sivil toplumdan gelen aktivizm, küresel olarak yaklaşık 100 set etik AI ilkesinin ortaya çıkması ve hükümetin AI'yı düzenlemek için dünyanın her yerindeki hamleleri aracılığıyla görülen, makine öğrenimine etik bir yaklaşım için açık bir talep var." grup yazdı. "Teknolojiler faaliyet gösterdikleri toplumların değerleriyle uyumlu değilse, onları baltalama riski taşırlar."
Akıllıca seçin
Yüzeyde, gelişmiş hızın ve çıktının iş için kötü olduğunu iddia etmek zor. Ancak bazı endüstriler için, bazılarının bir algoritmaya bırakılmaması gerektiğini iddia ettiği karar verme sürecinde tehlikede olan çok şey var. En büyük sektörlerden birkaçına baktığımızda, makine hatasına karşı ne kadar savunmasız olduğumuzu ve sorumlu yapay zekanın neden bu kadar önemli olduğunu görebiliriz.
Bankacılık, Finansal Hizmetler ve Sigorta (BFSI)
Dünya Ekonomik Forumu (WEF) ve Deloitte, BFSI şirketlerinde yapay zekayı devreye alma sürecini incelediler ve "Yapay zeka çok büyük miktarda bilgiden yararlı iş içgörüleri oluşturmaya yardımcı olsa da" "Yapay zekanın yabancılığının" bir kaynak olacağını tespit ettiler. devam eden ciddi risk.
Raporda, "AI insani olmayan şekillerde akıl yürütüyor" yazıyor. “AI sistemleri, insan mantığı yapılarını takip etmez ve aynı görev verilen insan aktörlerden çok farklı davranır. Ayrıca, yapay zeka sistemlerinin kendi kendine öğrenen doğası, insan girdisi olmadan gelişmelerine izin veriyor ve bu da bilinmeyen değişkenlere dayalı beklenmedik sonuçlara yol açabiliyor."
Sorumlu yapay zekanın savunucuları, makine öğreniminin, otomatik risk puanlama, kredi ve borç verme kararları gibi, tümü tarihsel olarak belirli demografik özellikler için zararlı olan şeylerde ciddi sorunlar ortaya çıkardığını iddia ediyor. Son araştırmalar, AI tabanlı karar motorlarını kullanan borç verenlerin beyaz olmayan insanlara ev kredisi verme olasılığının daha yüksek olduğunu göstermiştir - bazı durumlarda, Siyah başvuranların %80'inin reddedilme olasılığı daha yüksektir.
Sağlık hizmeti
Birkaç yıl önce Amerikan Tıp Birliği Dergisi (JAMA) sağlık hizmetlerinde yapay zekanın benimsenmesine bir göz attı ve "gerçekçi olmayan beklentiler, önyargılı ve temsili olmayan veriler, eşitlik ve katılımın yetersiz önceliklendirilmesi, sağlık hizmetleri eşitsizliklerini şiddetlendirme riski, düşük güven seviyeleri ve belirsiz" dahil olmak üzere çok sayıda zorluk olduğunu tespit etti. düzenleyici ortamlar.”
Tam olarak çınlayan bir onay değil, ancak özellikle gerçek ölüm kalım potansiyeli göz önüne alındığında, sağlık hizmetlerinde sorumlu yapay zeka için daha yüksek bir çıta var. Genel olarak, sağlık uzmanları iyimserdir ancak AI'nın geleceği konusunda ihtiyatlıdır, çabalarını klinik ortamda kullanımı hakkında diğer pratisyenleri eğitmeye ve tüm hastalara fayda sağlayacak şekilde sorumlu bir şekilde nasıl ilerleyeceğine dair kılavuzlar oluşturmaya odaklamayı seçerler.
Media
PwC, yapay zekanın 15.7 yılına kadar küresel ekonomik büyümede 2030 trilyon dolar sağlayacağını tahmin ediyor, fakat Salesforce'a göre müşterilerin yarısından azı (%48) şirketlere yapay zekayı etik olarak kullanma konusunda güveniyor ve %65'i yapay zekanın etik dışı kullanımından endişe duyuyor. Kâr ve güvenin bağlantı noktasında, büyük erişime ve etkiye sahip erken benimseyenler olan medya şirketleri var. Yapay zekanın bir "kur ve unut" uygulaması olmadığına dair endişeler var; bu, medya şirketlerinin sorumluluklarının yalnızca içerik üretiminde değil, aynı zamanda dağıtım sonrası sürekli izlemede olduğu anlamına geliyor.
Reklamlar nasıl sunuluyor ve kişiselleştiriliyor? İçerik belirli bir kitleye nasıl ulaşıyor ve mesaj nedir? Yapay zekaya "nasıl" öğreneceğini kim öğretiyor? Gizliliğe saygı gösterirken belirli tüketicileri nasıl hedefleyebilirsiniz? Bunlar, etik ile rekabet avantajı elde etmeyi dengeleyen medya şirketlerinin canını sıkan sorulardan sadece birkaçı.
Sorumluluğa Yanıt
Sorumlu yapay zeka geliştirmedeki ilerleme her gün aşikardır - kanun yapıcılar yönetmelik taslakları hazırlıyor, tüketiciler daha fazla şeffaflık talep ediyor ve birçok şirket yapay zekalarının uygun şekilde kullanılmasını sağlamakla görevli belirli departmanlar oluşturdu. Şirketlerin bir iyi tanımlanmış sorumlu AI çerçevesi etik, şeffaflık, hesap verebilirlik, adalet, mahremiyet ve güvenliği kapsar. Tartışmalar ve reformlar devam ederken, bir MIT Sloan Management Review ve Boston Consulting Group tarafından yapılan son ortak çalışma bazı basit genel rehberlik sağlar - "Sorumlu bir AI lideri olmak istiyorsanız, sorumlu bir şirket olmaya odaklanın" diye yazdılar.