Connect with us

Yaron Singer, Robust Intelligence CEO’su ve Harvard Üniversitesi Bilgisayar Bilimi Profesörü – Röportaj Serisi

Röportajlar

Yaron Singer, Robust Intelligence CEO’su ve Harvard Üniversitesi Bilgisayar Bilimi Profesörü – Röportaj Serisi

mm

Yaron Singer, Robust Intelligence‘ın CEO’su ve Harvard Üniversitesi Bilgisayar Bilimi ve Uygulamalı Matematik Profesörü’dür. Yaron, makine öğrenimi, algoritmalar ve optimizasyon alanındaki çığır açan sonuçları ile bilinir. Daha önce Google Research’te çalışmış ve PhD’lerini UC Berkeley’den almıştır.

İlk olarak sizi bilgisayar bilimi ve makine öğrenimi alanına neler çekmiştir?

Yolculuğum matematikle başladı, bu da beni bilgisayar bilimine, sonra da makine öğrenimine yöneltti. Matematik initially ilgimi çekti çünkü aksiyomatik sistemi bana yeni dünyalar yaratma yeteneği verdi. Bilgisayar bilimiyle varoluşsal kanıtlar hakkında öğrendim, ama aynı zamanda onların arkasındaki algoritmalar hakkında da öğrendim. Yaratıcı bir perspektiften bakıldığında, bilgisayar bilimi, yapabileceğimiz ve yapamayacağımız şeyler arasındaki sınırları çizmek demektir.

Makine öğrenimi ile ilgili ilgim her zaman gerçek verilerle, neredeyse fiziksel yönü ile ilgili olmuştur. Gerçek dünyadan şeyler alıp onlara anlam kazandırmak için modelleme yapmak. Gerçekten de daha iyi bir dünya yaratmak için anlamlı modelleme yapabiliriz. Böylece matematik bana kanıtlamak için bir temel verdi, bilgisayar bilimi bana ne yapabileceğimizi ve ne yapamayacağımızı gösterdi ve makine öğrenimi bana bu kavramları世界de modelleme yeteneği verdi.

Şimdiye kadar Harvard Üniversitesi Bilgisayar Bilimi ve Uygulamalı Matematik Profesörü olarak görev yaptınız, bu deneyimden elde ettiğiniz bazı önemli sonuçlar nelerdir?

Harvard Üniversitesi’nde öğretim üyesi olarak görev yapmanın bana kazandırdığı en büyük şey, büyük şeyler yapmak için bir iştah geliştirmektir. Harvard geleneksel olarak küçük bir öğretim üyelerine sahiptir ve tenure track öğretim üyelerinden büyük sorunları ele almak ve yeni alanlar yaratmak beklenir. Cesur olmanız gerekir. Bu, bir kategori oluşturan bir startup kurmak ve yeni bir alan tanımlamak için harika bir hazırlıktır. Necessarily Harvard tenure track’i ilk önce geçmenizi önermiyorum – ama eğer bunu atlatabilirseniz, bir startup kurmak daha kolaydır.

Makine öğrenimi sistemlerinin kötü verilere karşı savunmasız olduklarını ve bunun potansiyel olarak önemli sonuçları olabileceğini anladığınız ‘aha’ anınızı tarif edebilir misiniz?

UC Berkeley’de lisansüstü öğrencisiyken, sosyal ağlarda pazarlama için makine öğrenimi modelleri geliştiren bir startup için bir süre ara verdim. Bu 2010 yılında oldu. Sosyal medyadan büyük miktarda veri aldık ve tüm modelleri sıfırdan kodladık. Perakendeciler için mali sonuçlar oldukça önemliydi, bu nedenle modellerin performansını yakından izledik. Sosyal medya verilerini kullandığımız için, girişte birçok hata ve sapma vardı. Çok küçük hataların model çıktısında büyük değişikliklere neden olabileceğini ve perakendeciler için kötü mali sonuçlara yol açabileceğini gördük.

Google+’da (bunu hatırlayanlarımız için) çalışırken, aynı etkileri gördüm. Daha dramatik olarak, AdWords gibi sistemlerde, insanların bir reklam için anahtar kelimelere tıklayıp tıklamama olasılığını tahmin eden sistemlerde, model girişindeki küçük hataların çok kötü tahminlere yol açabileceğini gördük. Bu sorunu Google ölçekli olarak gördüğünüzde, sorunun evrensel olduğunu anlarsınız.

Bu deneyimler, araştırma odaklanmamı büyük ölçüde etkiledi ve Harvard’da AI modellerinin neden hata yaptığını ve nasıl hata yapmalarını önleyecek algoritmalar tasarlayabileceğimi araştırmaya harcandı. Bu, elbette daha fazla ‘aha’ anına ve sonunda Robust Intelligence’ın yaratılmasına yol açtı.

Robust Intelligence’ın doğuş hikayesini paylaşabilir misiniz?

Robust Intelligence, ilk olarak teorik bir problem olan AI modellerinin kararları için hangi garantilerin sağlanabileceği üzerine yapılan araştırmayla başladı. Kojin, Harvard’da bir öğrenciydi ve birlikte çalıştık, ilk olarak araştırma makaleleri yazarak. Böylece, teorik olarak neyin mümkün ve imkansız olduğunu belirten makaleler yazarak başlıyor. Daha sonra, AI hatalarına karşı dayanıklı algoritmalar ve modeller tasarlamak için bir programa geçtik. Sonra, bu algoritmaları pratikte çalıştırabilen sistemler inşa ettik. Sonraki adımda, bu tür bir sistemi kullanabilecek organizasyonlar için bir şirket kurmak doğal bir sonraki adımdı.

Robust Intelligence’ın ele aldığı birçok sorun sessiz hatalardır, bunlar nelerdir ve neden bu kadar tehlikelidirler?

Teknik bir tanım vermeden önce, neden AI modellerinin hatalar yapmasından endişe ediyoruz anlamak için bir adım geri çekilmek önemlidir. AI modellerinin hatalar yapmasından endişe ediyoruz çünkü bu hataların sonuçları vardır. Dünyamız, kritik kararları otomatikleştirmek için AI’yi kullanıyor: kimin bir iş kredisi alacağı ve hangi faiz oranında, kimin sağlık sigortası kapsamına gireceği ve hangi oranlarda, hangi mahallelerin polisin devriye gezeceği, kimin bir iş için en iyi aday olacağı, havalimanı güvenliğini nasıl organize edeceğimiz ve benzeri. AI modellerinin çok hata eğilimli olması, bu kritik kararları otomatikleştirdiğimizde büyük bir riski miras aldığımız anlamına geliyor. Robust Intelligence’da buna “AI Risk” diyoruz ve şirketin misyonu AI Risk’i ortadan kaldırmaktır.

Sessiz hatalar, AI modelinin girdiyi aldığı ve yanlış veya önyargılı bir çıktı veya karar ürettiği hatalardır. Yani, sistem için her şey fonksiyonel olarak görünür, AI modeli yapması gerekeni yapıyor. Ancak tahmin veya karar yanlış. Bu hatalar sessizdir çünkü sistem hatanın farkında değildir. Bu, AI modelinin çıktı üretmemesi durumundan daha kötü olabilir, çünkü organizasyonların AI sisteminin bozuk olduğunu anlaması uzun zaman alabilir. Sonra AI riski, AI hatalarına dönüşebilir ve bu ciddi sonuçlar doğurabilir.

Robust Intelligence, daha önce imkansız olarak düşünülen bir AI Güvenlik Duvarı tasarladı. Bu, neden böyle bir teknik zorluktur?

AI Güvenlik Duvarı’nın neden böyle bir zorluk olduğu nedenlerinden biri, ML topluluğunun önceki paradigmasına aykırı olmasıdır. ML topluluğunun önceki paradigması, hataları ortadan kaldırmak için modellere daha fazla veri, včetně kötü verilerin beslenmesi gerektiğiydi. Bunu yaparak, modeller kendilerini eğitecek ve hataları kendileri düzeltebileceklerdi. Bu yaklaşımın sorunu, modelin doğruluğunun dramatik olarak düşmesidir.

AI Güvenlik Duvarı farklı bir çözüm sunar. Hatanın tespit edilme sorununu, bir tahmin oluşturma rolünden ayırıyoruz, yani güvenlik duvarı yalnızca bir görevde odaklanabilir: bir veri noktasının yanlış bir tahmin üreteceğini belirleme.

Bu, özellikle bir veri noktası için bir tahminde bulunmanın zorluğu nedeniyle kendisi bir zorluktu. Modellerin hatalı olmasına neden olan birçok neden vardır, bu nedenle bu hataları öngören bir teknoloji geliştirmek kolay değildi. Şanslıyız ki böyle yetenekli mühendislerimiz var.

Sistem, AI önyargısını nasıl önleyebilir?

Model önyargısı, modelin eğitildiği veriler ile tahminlerde bulunduğu veriler arasındaki uyumsuzluktan kaynaklanır. AI riskine geri dönersek, önyargı sessiz hataların önemli bir sorunudur. Örneğin, bu genellikle temsil edilmeyen nüfuslar için bir sorun olabilir. Bir model, bu nüfustan daha az veri gördüğü için önyargılı olabilir, bu da modelin performansı ve tahminlerinin doğruluğunu dramatik olarak etkileyebilir. AI Güvenlik Duvarı, organizasyonları bu veri uyumsuzluklarına karşı uyarabilir ve modelin doğru kararlar almasına yardımcı olabilir.

AI Güvenlik Duvarı’nın yardımıyla önlenen diğer organizasyon riskleri nelerdir?

AI’yi kritik kararları otomatikleştirmek için kullanan herhangi bir şirket, otomatik olarak riski tanımlar. Kötü veri, bir yerine sıfır girmek gibi küçük bir şey olabilir ve önemli sonuçlar doğurabilir. AI Güvenlik Duvarı, organizasyonların bu riskleri tamamen önlenmesine yardımcı olur.

Robust Intelligence hakkında paylaşmak istediğiniz başka bir şey var mı?

Robust Intelligence hızla büyüyor ve pozisyonlar için harika adaylar başvuruyor. Ancak vurgulamak istediğim bir şey, aradığımız adayların en önemli niteliğinin misyona olan tutkuları olmasıdır. Teknik olarak güçlü birçok adayı görüyoruz, bu nedenle gerçekten AI riskini ortadan kaldırmak ve dünyayı daha güvenli ve daha iyi bir yer haline getirmek için tutkulu olup olmadıklarını anlamak önemlidir.

Gidereceğimiz dünyada, şu anda insanlar tarafından yapılan birçok karar otomatikleştirilecek. Bunu isteriz veya istemeziz, bu bir gerçektir. Verilen bu durumda, Robust Intelligence’daki herkesin otomatikleştirilen kararların sorumlu bir şekilde yapılması için çalışmak istemesi önemlidir. Böylece, bu, insanların hayatlarını etkileyebilecek bir şekilde teknoloji yaratmak isteyen herkesi arıyoruz. Bu etkiyi yaratmak isteyenleri arıyoruz. Bu teknolojiyi yaratacak ve tüm dünyanın kullanacağı people arıyoruz.

Harika bir röportaj için teşekkür ederim, AI önyargısını önleme ve AI Güvenlik Duvarı’nın gerekliliği konusundaki görüşlerinizi öğrenmekten keyif aldım, daha fazla bilgi edinmek isteyen okuyucular Robust Intelligence ziyaret edebilir.

Antoine bir vizyoner lider ve Unite.AI'in kurucu ortağıdır ve AI ve robotik geleceğini şekillendirmek ve tanıtmak için sarsılmaz bir tutkuyla hareket etmektedir. Bir seri girişimci olarak, toplum için elektrik kadar yıkıcı olacağına inandığı AI'nin potansiyeli hakkında sık sık konuşur ve coşkusunu dile getirir.
Bir futurist olarak, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adanmıştır. Ayrıca, Securities.io kurucusudur, bu platform geleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren teknolojilere yatırım yapmaya odaklanmıştır.