saplama Yaron Singer, Robust Intelligence CEO'su ve Harvard Üniversitesi Bilgisayar Bilimleri Profesörü - Röportaj Serisi - Unite.AI
Bizimle iletişime geçin

Röportajlar

Robust Intelligence CEO'su ve Harvard Üniversitesi Bilgisayar Bilimleri Profesörü Yaron Singer - Röportaj Serisi

mm

Yayınlanan

 on

Yaron Singer CEO'su Güçlü Zeka ve Harvard'da Bilgisayar Bilimi ve Uygulamalı Matematik Profesörü. Yaron, makine öğrenimi, algoritmalar ve optimizasyon alanlarındaki çığır açan sonuçlarıyla tanınır. Yaron daha önce Google Research'te çalışmış ve doktorasını UC Berkeley'den almıştır.

Başlangıçta sizi bilgisayar bilimi ve makine öğrenimi alanına çeken şey neydi?

Yolculuğum matematikle başladı, bu da beni bilgisayar bilimine yönlendirdi ve bu da beni makine öğrenimi yoluna soktu. Matematik başlangıçta ilgimi çekti çünkü aksiyomatik sistemi bana yeni dünyalar yaratma yeteneği verdi. Bilgisayar bilimi ile varoluşsal kanıtları ve bunların arkasındaki algoritmaları da öğrendim. Yaratıcı bir bakış açısıyla bilgisayar bilimi, yapabileceklerimiz ve yapamayacaklarımız arasındaki sınırların çizilmesidir.

Makine öğrenimine olan ilgim her zaman gerçek verilere, neredeyse fiziksel yönüne olan ilgimden kaynaklanmıştır. Nesneleri gerçek dünyadan alıp anlamlı bir şey yapmak için modellemek. Anlamlı modelleme yoluyla kelimenin tam anlamıyla daha iyi bir dünya tasarlayabiliriz. Yani matematik bana bir şeyleri kanıtlamam için bir temel verdi, bilgisayar bilimi neyin yapılıp neyin yapılamayacağını görmeme yardımcı oluyor ve makine öğrenimi bu kavramları dünyada modellememe olanak sağlıyor.

Yakın zamana kadar Harvard Üniversitesi'nde Bilgisayar Bilimi ve Uygulamalı Matematik Profesörüydünüz, bu deneyimden çıkardığınız önemli çıkarımlardan bazıları nelerdi?

Harvard'da bir öğretim üyesi olmaktan aldığım en büyük çıkarım, kişinin büyük şeyler yapma iştahını geliştirmesidir. Harvard'ın geleneksel olarak küçük bir fakültesi vardır ve kadrolu fakülteden beklenti, büyük problemlerin üstesinden gelmek ve yeni alanlar yaratmaktır. Cesur olmalısın. Bu, yeni bir alan tanımlayan kategori yaratan bir girişimi başlatmak için harika bir hazırlık olur. İlk önce Harvard kadroluluk yolundan geçmenizi tavsiye etmiyorum - ancak bundan sağ çıkarsanız, bir girişim kurmak daha kolaydır.

Sofistike AI sistemlerinin kötü verilere karşı savunmasız olduğunu ve bazı potansiyel olarak geniş kapsamlı sonuçları olduğunu fark ettiğinizde 'aha' anınızı tarif edebilir misiniz?

UC Berkeley'de yüksek lisans öğrencisiyken, sosyal ağlarda pazarlama için makine öğrenimi modelleri oluşturan bir girişimde çalışmak için biraz izin aldım. Bu 2010 yılındaydı. Sosyal medyadan çok miktarda veri aldık ve tüm modelleri sıfırdan kodladık. Perakendeciler için finansal sonuçlar oldukça önemliydi, bu nedenle modellerin performansını yakından takip ettik. Sosyal medyadan veri kullandığımız için girişte birçok hata olduğu gibi driftler de oldu. Çok küçük hataların model çıktısında büyük değişikliklere yol açtığını ve ürünü kullanan perakendeciler için kötü finansal sonuçlara yol açabileceğini gördük.

Google+'da çalışmaya başladığımda (hatırlayanlarımız için), tamamen aynı etkileri gördüm. Daha çarpıcı bir şekilde, insanların anahtar kelimeler için bir reklamı tıklama olasılığı hakkında tahminler yapan AdWords gibi sistemlerde, model girdisindeki küçük hataların çok zayıf tahminlere yol açtığını fark ettik. Google ölçeğinde bu soruna tanık olduğunuzda sorunun evrensel olduğunu anlıyorsunuz.

Bu deneyimler, araştırma odağımı büyük ölçüde şekillendirdi ve Harvard'daki zamanımı yapay zeka modellerinin neden hata yaptığını ve daha da önemlisi, modellerin hata yapmasını önleyebilecek algoritmaların nasıl tasarlanacağını araştırarak geçirdim. Bu, elbette, daha fazla 'aha' anlarına ve sonunda Robust Intelligence'ın yaratılmasına yol açtı.

Robust Intelligence'ın arkasındaki oluşum öyküsünü paylaşabilir misiniz?

Robust Intelligence, başlangıçta teorik bir sorun olan araştırmayla başladı: Yapay zeka modelleri kullanılarak alınan kararlar için sahip olabileceğimiz garantiler nelerdir? Kojin, Harvard'da bir öğrenciydi ve başlangıçta araştırma makaleleri yazarak birlikte çalıştık. Bu nedenle, teorik olarak temelde neyin mümkün ve neyin imkansız olduğunu özetleyen makaleler yazmakla başlar. Bu sonuçlar daha sonra yapay zeka hatalarına dayanıklı algoritmalar ve modeller tasarlamaya yönelik bir programda devam etti. Daha sonra bu algoritmaları pratikte çalıştırabilecek sistemler kuruyoruz. Bundan sonra, kuruluşların böyle bir sistemi kullanabilecekleri bir şirket kurmak doğal bir sonraki adımdı.

Robust Intelligence'ın ele aldığı sorunların çoğu sessiz hatalardır, bunlar nelerdir ve onları bu kadar tehlikeli yapan nedir?

Sessiz hataların teknik bir tanımını vermeden önce, bir adım geri atmaya ve ilk etapta yapay zekanın hata yapmasını neden önemsediğimizi anlamaya değer. AI modellerinin hata yapmasını önemsememizin nedeni, bu hataların sonuçlarıdır. Dünyamız kritik kararları otomatikleştirmek için yapay zekayı kullanıyor: kim işletme kredisi alıyor ve hangi faiz oranıyla alıyor, kim sağlık sigortası kapsamına giriyor ve hangi oran üzerinden polis devriyesi yapmalı, bir iş için en iyi aday olma olasılığı en yüksek, havaalanı güvenliğini nasıl organize etmeliyiz vb. Yapay zeka modellerinin son derece hataya açık olması, bu kritik kararları otomatikleştirirken çok fazla risk aldığımız anlamına gelir. Robust Intelligence'da buna "AI Riski" diyoruz ve şirketteki görevimiz AI Riskini ortadan kaldırmaktır.

Sessiz hatalar, AI modelinin girdi aldığı ve çıktı olarak yanlış veya taraflı olan bir tahmin veya karar ürettiği AI modeli hatalarıdır. Dolayısıyla, yüzeyde, yapay zeka modeli işlevsel bir bakış açısıyla yapması gerekeni yaptığından, sistemdeki her şey yolunda görünüyor. Ancak tahmin veya karar hatalı. Sistem bir hata olduğunu bilmediği için bu hatalar sessizdir. Bu, bir yapay zeka modelinin çıktı üretmediği durumdan çok daha kötü olabilir çünkü kuruluşların yapay zeka sistemlerinin hatalı olduğunu fark etmeleri uzun zaman alabilir. Ardından, AI riski, ciddi sonuçlara yol açabilecek AI başarısızlıkları haline gelir.

Robust Intelligence, daha önce imkansız olduğu düşünülen bir fikir olan bir AI Güvenlik Duvarı tasarladı. Bu neden bu kadar teknik bir zorluk?

Yapay Zeka Güvenlik Duvarının bu kadar zorlu olmasının bir nedeni, makine öğrenimi topluluğunun sahip olduğu paradigmaya aykırı olmasıdır. Makine öğrenimi topluluğunun önceki paradigması, hataları ortadan kaldırmak için modellere kötü veriler de dahil olmak üzere daha fazla verinin beslenmesi gerektiği şeklindeydi. Bunu yaparak modeller kendilerini eğitecek ve hataları kendi kendilerine düzeltmeyi öğrenecekler. Bu yaklaşımla ilgili sorun, modelin doğruluğunun önemli ölçüde düşmesine neden olmasıdır. Örneğin görüntüler için en iyi bilinen sonuçlar, AI modeli doğruluğunun %98.5'ten yaklaşık %37'ye düşmesine neden olur.

AI Güvenlik Duvarı farklı bir çözüm sunar. Bir hatayı tanımlama problemini bir tahmin oluşturma rolünden ayırıyoruz, yani güvenlik duvarı belirli bir göreve odaklanabilir: bir veri noktasının hatalı bir tahmin üretip üretmeyeceğini belirlemek.

Tek bir veri noktasında tahmin vermenin zorluğu nedeniyle bu başlı başına bir zorluktu. Modellerin hata yapmasının pek çok nedeni vardır, dolayısıyla bu hataları tahmin edebilecek bir teknoloji oluşturmak kolay bir iş değildi. Yaptığımız mühendislere sahip olduğumuz için çok şanslıyız.

Sistem yapay zeka yanlılığını önlemeye nasıl yardımcı olabilir?

Model yanlılığı, modelin üzerinde eğitildiği veriler ile tahminlerde bulunmak için kullandığı veriler arasındaki tutarsızlıktan kaynaklanır. AI riskine geri dönersek, önyargı, sessiz hatalara atfedilen önemli bir sorundur. Örneğin, bu genellikle yetersiz temsil edilen popülasyonlarla ilgili bir sorundur. Bir model, o popülasyondan daha az veri gördüğü için önyargıya sahip olabilir, bu da modelin performansını ve tahminlerinin doğruluğunu önemli ölçüde etkileyecektir. AI Güvenlik Duvarı, kuruluşları bu veri tutarsızlıkları konusunda uyarabilir ve modelin doğru kararlar almasına yardımcı olabilir.

Bir AI güvenlik duvarının önlemeye yardımcı olduğu kuruluşlar için diğer risklerden bazıları nelerdir?

Kararları, özellikle kritik kararları otomatikleştirmek için yapay zekayı kullanan herhangi bir şirket, otomatik olarak riski devreye sokar. Kötü veriler, bir yerine sıfır girmek kadar önemsiz olabilir ve yine de önemli sonuçlara yol açabilir. Risk ister yanlış tıbbi tahminler, ister borç vermeyle ilgili yanlış tahminler olsun, AI Güvenlik Duvarı kuruluşların riski tamamen önlemesine yardımcı olur.

Robust Intelligence hakkında paylaşmak istediğiniz başka bir şey var mı?

Robust Intelligence hızla büyüyor ve pozisyonlar için başvuran birçok harika aday alıyoruz. Ancak başvurmayı düşünen kişiler için gerçekten vurgulamak istediğim bir şey, adaylarda aradığımız en önemli özelliğin misyona olan tutkularıdır. Teknik olarak güçlü birçok adayla tanışıyoruz, bu yüzden dünyayı daha güvenli ve daha iyi bir yer haline getirmek için AI riskini ortadan kaldırma konusunda gerçekten tutkulu olup olmadıklarını anlamak gerçekten önemli.

Gideceğimiz dünyada, şu anda insanlar tarafından alınan birçok karar otomatik hale getirilecek. Beğensek de beğenmesek de bu bir gerçek. Bu nedenle, Robust Intelligence'daki hepimiz otomatik kararların sorumlu bir şekilde alınmasını istiyoruz. Dolayısıyla, bir etki yaratma konusunda heyecanlı olan, bunun insanların yaşamlarını nasıl etkileyebileceğini anlayan herkes, Robust Intelligence'a katılmak için aradığımız bir adaydır. Biz o tutkuyu arıyoruz. Tüm dünyanın kullanacağı bu teknolojiyi yaratacak insanları arıyoruz.

Harika röportaj için teşekkür ederim, AI önyargısını önleme ve bir AI güvenlik duvarına duyulan ihtiyaç hakkındaki görüşlerinizi öğrenmekten keyif aldım, daha fazla bilgi edinmek isteyen okuyucular ziyaret etmelidir. Sağlam İstihbarat.

Unite.AI'nin kurucu ortağı ve Forbes Teknoloji Konseyi, Antoine bir fütürist Yapay zeka ve robot biliminin geleceği konusunda tutkulu olan.

Aynı zamanda Kurucusu menkul kıymetler.io, çığır açan teknolojilere yatırım yapmaya odaklanan bir web sitesi.