Röportajlar
Yotam Oren, Mona Labs’ın CEO’su ve Kurucu Ortağı – Röportaj Serisi

Yotam Oren, Mona Labs‘in CEO’su ve kurucu ortağıdır. Mona Labs, şirketlere AI girişimlerini laboratuvar deneylerinden ölçeklenebilir iş operasyonlarına dönüştürmelerine olanak tanıyan bir platformdur. Bu, gerçek iş süreçlerinde ve uygulamalarında ML modellerinin nasıl davrandığını gerçekten anlamak sayesinde mümkündür.
Mona, korumalı veri segmentleri boyunca ve iş fonksiyonlarının bağlamında makine öğrenimi modellerinin davranışını otomatik olarak analiz eder. Bu, potansiyel AI yanlılığını tespit etmek için kullanılır. Mona, endüstri standartlarına ve düzenlemelerine uygun tam adil raporlar oluşturma yeteneği sunar ve AI uygulamasının uyumlu ve yanlılıktan arınmış olduğunu garantiler.
İlk olarak sizi bilgisayar bilimine neler çekti?
Bilgisayar bilimi ailemde popüler bir kariyer yoludur, bu nedenle luôn olarak aklımda olan bir seçenekti. Tabii ki, İsrail kültürü çok pro-tektir. İnovatif teknologları kutlarız ve her zaman bilgisayar bilimlerinin bana büyüme ve başarı için bir pist sunacağını düşünüyordum.
Bununla birlikte, bu ancak üniversite yaşına geldiğimde kişisel bir tutku haline geldi. Ben ortaokulda kodlamaya başlayan çocuklardan değilim. Gençliğimde, bilgisayarlara dikkat etmek yerine basketbol oynamakla meşguldüm. Liseden sonra, yaklaşık 5 yıl boyunca operasyonel/savaş liderliği rollerinde askerlik yaptım. Bu nedenle, gerçekten bilgisayar bilimlerini öğrenmeye ancak üniversitede akademik bir ana dal seçmem gerektiğinde başladım. Dikkatimi çeken şey, bilgisayar biliminin problem çözmeyi ve bir dil (veya diller) öğrenmeyi birleştirmesiydi. İki şey de özellikle ilgimi çekiyordu. O günden sonra, buna bağımlıydım.
2006’dan 2008’e bir küçük startup’ta haritalama ve navigasyon üzerinde çalıştınız, bu dönemden bazı ana çıkarımlarınız nelerdi?
Telmap’teki rolüm, harita ve konum verisi üzerine bir arama motoru oluşturmaktı.
Bu, “büyük veri”nin şirketler içindeki çok erken günleriydi. Buna henüz böyle demiyorduk, ancak devasa veri setleri ediniyor ve son kullanıcılara göstermek için en etkili ve ilgili içgörüler elde etmeye çalışıyorduk.
Vardığım çarpıcı bir realizasyon, şirketlerin (bizim de dahil olmak üzere) verilerin çok az bir kısmını kullandığını fark etmemdi (dış veri dahil). Yeni içgörüler, daha iyi süreçler ve deneyimler için çok fazla potansiyel vardı.
Diğer bir çıkarım, daha fazla verimize ulaşabilmenin, elbette daha iyi mimarilere, altyapıya ve benzerlerine sahip olmamıza bağlı olduğuydu.
Mona Labs’ın doğuş hikayesini paylaşabilir misiniz?
Üç kurucu ortak, kariyerlerimiz boyunca veri ürünleri etrafındaydık.
CTO Nemo, benim kolej arkadaşım ve sınıf arkadaşım ve Google Tel Aviv’in ilk çalışanlarından biridir. Google’da Google Trends adlı bir ürün başlattı, bu ürün arama motoru verisine dayalı gelişmiş analitik ve makine öğrenimi içeriyordu. Diğer kurucu ortak ve ürün sorumlusu Itai, Nemo’nun Google’daki ekibindeydi (ve ben de Nemo aracılığıyla Itai ile tanıştım). İkisi de, AI sürümlü sistemlerin ilk geliştirme ve testinden sonra izlenmediğinden hayal kırıklığına uğradılar. Ekibin, sistemlerinin zaman içinde nasıl performans gösterdiğini bilmeleri zordu. Ayrıca, AI sistemleri hakkında geri bildirim alabildikleri tek zaman, things went poorly ve geliştirme ekibinin bir “yangın tatbikatı” için çağrılmasıydı.
Aynı zamanda, ben de McKinsey & Co.’da danışmanlık yapıyordum ve büyük şirketlerde AI ve Büyük Veri programlarının ölçeklenmesine engel olan en büyük engellerden birinin, iş paydaşlarının bu programlara güvenmemesi olduğunu gördüm.
Nemo, Itai ve ben, sohbetlerimizde ortak bir ipucu bulduk. Endüstri, AI/ML sistemlerini üretim aşamasında izleme altyapısına ihtiyaç duyuyordu. Görünürlük sağlamak, iş paydaşlarının güvenini artırmak ve AI ekiplerinin sistemlerinin nasıl performans gösterdiğini her zaman anlamalarına olanak tanımak için bir vizyon geliştirdik.
Ve işte Mona böyle kuruldu.
AI Şeffaflığı Eksikliğinin当前 Sorunları Nelerdir?
Çok sayıda endüstride, şirketler AI programlarına milyonlarca dolar yatırım yaptı ve laboratuvarlarda ve küçük ölçekli dağıtımlarda ilk başarıları gördü. Ancak, ölçeklenebilirlik, geniş benimseme ve işin gerçekten AI’ye güvenmesini sağlamak herkes için büyük bir zorluk haline geldi.
Neden böyle oluyor? İyi bir araştırma, otomatik olarak iyi ürünler anlamına gelmez (Bir müşteri bize, “ML modelleri arabalar gibidir, laboratuvarları terk ettikleri anda değerlerinin %20’sini kaybederler” dedi). İyi ürünler, kaliteyi zaman içinde sürdüren, sorunların erken tespit edildiği ve verimli bir şekilde ele alındığı sistemlere ve süreçlere sahiptir. İyi ürünler ayrıca, bir iyileştirme döngüsü ve yol haritasına sahip sürekli bir geri bildirim döngüsüne sahiptir. Dolayısıyla, iyi ürünler derin ve sürekli performans şeffaflığı gerektirir.
Şeffaflık olmadığında, aşağıdaki durumlarla karşılaşabilirsiniz:
- Sorunlar bir süre gizli kalır ve sonra “yangın tatbikatları” yaparak yüzeye çıkar
- Uzun ve manuel soruşturmalar ve hafifletmeler
- İş kullanıcıları ve sponsorlar tarafından güvenilmeyen bir AI programı ve sonunda ölçeklenemeyen
Tahmin Edilen Modellerin Şeffaf ve Güvenilir Olmasını Sağlamanın Arkasındaki Zorluklar Nelerdir?
Şeffaflık, güveni elde etmede önemli bir faktördür. Şeffaflık birçok forma gelebilir. Tek bir tahmin şeffaflığı, kullanıcıya güven seviyesini göstermeyi veya tahmine bir açıklama/raisonu vermayı içerebilir. Tek bir tahmin şeffaflığı, kullanıcıya tahmine rahatlaması yardımcı olmak için tasarlanmıştır. Ve sonra, genel şeffaflık vardır, bu da tahmin doğruluğu, beklenmeyen sonuçlar ve potansiyel sorunlar hakkında bilgi içerebilir. Genel şeffaflık, AI ekibine gereklidir.
Genel şeffaflığın en zor kısmı, sorunları erken tespit etmek ve ilgili takım üyesini düzeltici işlem yapması için uyarmaktır, böylece felaketler oluşmadan önce.
Neden erken sorun tespiti zor:
- Sorunlar genellikle küçük başlar ve yüzeye çıkmadan önce kaynar.
- Sorunlar genellikle kontrol edilemeyen veya dış faktörlerden kaynaklanır, Örneğin veri kaynakları.
- Dünya’yı bölmek için birçok yol vardır ve küçük ceplerde sorunları naif bir yaklaşım kullanarak aramak, çok fazla gürültü (uyarı yorgunluğu) ile sonuçlanabilir.
Şeffaflık sunmanın başka bir zorlu yönü, AI kullanım örneklerinin muazzam şekilde artmasıdır. Bu, tek boyutlu bir yaklaşımın neredeyse imkansız olmasını sağlar. Her AI kullanım örneği, farklı veri yapıları, farklı iş döngüleri, farklı başarı metrikleri ve souvent farklı teknik yaklaşımlar ve hatta yığınlar içerebilir.
Bu nedenle, bu bir devasa görev, ancak şeffaflık, AI programlarının başarısı için o kadar temel ki, bunu yapmak zorundasınız.
Doğal Dil İşleme (NLU) / Doğal Dil İşleme (NLP) Modelleri ve Sohbet Botları için Çözümler Hakkında Bilgiler Paylaşabilir misiniz?
Konuşma AI, Mona’nın temel dikeylerinden biridir. İnovatif şirketlere, dil modelleri, sohbet botları ve daha fazlası dahil olmak üzere çeşitli konuşma AI kullanım örnekleri için destek olmaktan gurur duyuyoruz.
Bu kullanım örneklerinin ortak bir faktörü, modellerin genellikle müşterilere yakın çalışması (ve bazen görünür bir şekilde) ve tutarlı performans veya kötü davranış risklerinin daha yüksek olmasıdır. Bu nedenle, konuşma AI ekiplerinin sistem davranışını granüler bir düzeyde anlaması çok önemlidir, bu da Mona’nın izleme çözümünün bir güç alanıdır.
Mona’nın çözümünün benzersiz yaptığı şey, sohbet gruplarını sistematik olarak eleme yaparak ve modellerin (veya botların) yanlış davrandığı cepleri bulmasıdır. Bu, konuşma AI ekiplerinin sorunları erken tespit etmelerine ve müşterilerin bunları fark etmeden önce onlara müdahale etmelerine olanak tanır. Bu yetenek, konuşma AI ekipleri için izleme çözümleri seçerken kritik bir karar verici faktördür.
Özetle, Mona, konuşma AI izleme için uçtan uca bir çözüm sağlar. Sistemlerin davranışını zaman içinde tek bir bilgi kaynağı olarak güvence altına almaya başlar ve ana performans göstergelerinin sürekli izlenmesiyle devam eder ve ekiplere verimli düzeltici önlemler almalarını sağlayan proaktif içgörüler sağlar.
Mona’nın İnceleme Motoru Hakkında Bilgiler Paylaşabilir misiniz?
Elbette. Başlamak için motivasyondan başlayalım. İnceleme motorunun amacı, kullanıcıya yeterli bağlamsal bilgi ile birlikte anormallikleri sunmak ve aynı zamanda gürültü yaratmamak veya uyarı yorgunluğuna neden olmaktır.
İnceleme motoru, benzersiz bir analitik iş akışıdır. Bu iş akışında, motor tüm veri segmentlerinde anormallikleri arar ve sorunlar henüz “küçük”ken ve tüm veri kümesini ve aşağı akış iş KPI’larını etkilemeden önce onları erken tespit eder. Ardından, anormalliklerin kök nedenlerini tespit etmek için özel bir algoritma kullanır ve her anormallik sadece bir kez uyarılır, böylece gürültü önlenir. Desteklenen anormallik türleri arasında zaman serisi anormallikleri, sürüklenmeler, aykırı değerler, model bozulması ve daha fazlası bulunur.
İnceleme motoru, Mona’nın sezgisel no-code/low-code yapılandırması aracılığıyla yüksek derecede özelleştirilebilir. Motorun yapılandırılabilirliği, Mona’yı pazarın en esnek çözümüne dönüştürür ve geniş bir kullanım örneği yelpazesini kapsar (örneğin, toplu işlemler ve akış, iş geri bildirimi/yerleşik gerçeklik ile veya olmadan, model sürümleri arasında veya eğitim ve çıkarım arasında vb.).
Son olarak, bu inceleme motoru, içgörülerin görüntülendiği ve kök neden analizini ve bağlamsal bilginin daha fazla keşfini sağlayan bir görselleştirme panosu ile desteklenmektedir. İnceleme motoru ayrıca, kullanıcıların kendi çalışma ortamlarına (örneğin e-posta, iş birliği platformları vb.) içgörüler sunmasını sağlayan bir bildirim motoru ile tam olarak entegre edilmiştir.
31 Ocak’ta, Mona yeni AI adil çözümünü duyurdu, bu özellik hakkında bize bilgi verebilir misiniz?
AI adilliği, algoritmaların ve AI sürümlü sistemlerin önyargılı ve adil kararlar vermesini sağlamaktır. AI sistemlerinde önyargıları ele almak ve önlemek çok önemlidir, çünkü bunlar önemli gerçek dünya sonuçlarına neden olabilir. AI’nin artan baskınlığı ile, insanların günlük yaşamlarındaki etkisi daha fazla görülecektir, bunlar arasında sürüşümüzü otomatikleştirmek, hastalıkları daha doğru bir şekilde tespit etmek, dünyamızın anlayışını iyileştirmek ve hatta sanat yaratmak yer alacaktır. Eğer adil ve önyargısız olduğuna güvenemezsek, nasıl devam etmesine izin verebiliriz?
AI sistemlerinde önyargıların birincil nedenlerinden biri, model eğitim verilerinin gerçek dünyayı tam olarak temsil etme yeteneğidir. Bu, tarihsel ayrımcılık, belirli grupların temsil edilmemesi veya hatta veri manipülasyonundan kaynaklanabilir. Örneğin, çoğunlukla açık tenli bireylerden oluşan bir veri kümesi ile eğitilen bir yüz tanıma sistemi, daha koyu tenli bireyleri tanımada daha yüksek bir hata oranına sahip olacaktır. Benzer şekilde, dar bir kaynak kümesinden metin verisi ile eğitilen bir dil modeli, konularda (din, kültür vb.) belirli dünya görüşlerine eğilim gösterebilir.
Mona’nın AI adil çözümü, AI ve iş ekiplerine AI’lerinin önyargısız olduğuna güven verir. Düzenlenen sektörlerde, Mona’nın çözümü, ekipleri uyumluluk için hazırlayabilir.
Mona’nın adil çözümü, Mona platformunda oturması nedeniyle özel bir çözümdür – AI verileri ve modelleri ile gerçek dünya sonuçları arasındaki köprü. Mona, AI modelinin hizmet ettiği iş sürecinin tüm parçalarını inceler, eğitim verisi, model davranışı ve gerçek dünya sonuçları arasındaki bağıntıları belirlemek için bir bütün olarak değerlendirir ve adillik hakkında en kapsamlı değerlendirmeyi sağlar.
İkincisi, ilgili parametreleri kontrol etmek için esnek veri segmentasyonu sağlayan benzersiz bir analitik motoruna sahiptir. Bu, doğru bağıntı değerlendirmelerini sağlar, Simpson Paradoksundan kaçınır ve herhangi bir performans ölçütü ve korunan özellik için gerçek “önyargı puanı” sağlar.
Genel olarak, Mona’nın, sorumlu AI inşa etmek ve ölçeklendirmek isteyen ekipler için temel bir unsur olduğunu söyleyebilirim.
AI’nin Geleceği için Bir Vizyonunuz Var mı?
Bu, büyük bir soru.
AI’nin kullanımının ve etkisinin çeşitli endüstri sektörleri ve insanların yaşamının birçok yönü boyunca devam edeceğini öngörmenin kolay olduğunu düşünüyorum. Ancak, AI’nin gelecekteki tüm kullanım örneklerini ve etkilerini kapsayacak şekilde ayrıntılı bir vizyon sunmaya çalışmak, AI’nin geleceği hakkında güvenilir bir resim çizmek için yeterli bilgiye sahip olunmadığını gösteriyor.
Bildiğimiz bir şey var: AI daha fazla insanın elinde olacak ve daha fazla amaç için hizmet edecek. AI’nin nasıl çalıştığını anlamak için gerçek görünürlük, iki temel rol oynayacak. Birincisi, insanların AI’ye güvenmesini ve direnci azaltarak daha hızlı benimsenmesini sağlayacak. İkincisi, AI’yi işletenlerin AI’nin kontrolden çıkmamasını sağlayacak.
Harika bir röportaj için teşekkür ederiz, daha fazla bilgi edinmek isteyen okuyucular Mona Labs ziyaret edebilir.












