Röportajlar
Bobby Samuels, Protege’nin Kurucu Ortağı ve CEO’su – Röportaj Serisi

Bobby Samuels Protege’nin ürün, pazara çıkış ve sermaye oluşturma stratejisinin ve yürütülmesinin liderliğini yapıyor. 2024 yılında Protege’yi kurdu ve şirketin kuruluşundan bu yana CEO olarak görev yaptı. Liderliği altında Protege, 35M$’lık fon sağladı ve ilk tam yılında 30M$’lık GMV’ye ulaştı. Öncesinde, Datavant’ta Gizlilik Merkezi’nin Genel Müdürü olarak görev yaptı ve şirketin 7,0Milyar$’lık Ciox Health ile birleşerek ABD’deki en büyük tarafsız sağlık veri ekosistemini oluşturmasına yardımcı oldu. Daha önce, LiveRamp’de ortaklıklardan sorumlu olarak görev yaptı ve tarafsız veri ağları oluşturma konusunda uzmanlık geliştirdi. Bobby, Stanford İşletme Okulu’ndan MBA ve Harvard Kolejinden A.B. derecesine sahiptir ve burada The Harvard Crimson’un Başkanlığını yaptı. Düzenlenmiş veri değişimi ve karmaşık altyapıyı kurumsal ortaklar için güvenilir AI ermögansiyonuna çevirme konularında derin uzmanlığa sahiptir.
Protege bir veri-altyapısı şirketidir ve yüksek değerli, özel veri setlerinin sahiplerini AI modelleri geliştiren geliştiricilerle bağlantılıyor, büyük ölçekli olarak eğitim verilerini lisanslama ve erişime governed ve gizlilik-öncelikli bir yol sunuyor. 2024 yılında kurulan platform, geleneksel olarak AI ekipleri için kaynak sağlamakta zorlanan tıbbi kayıtlar, görüntüleme, video ve ses gibi çok modlu verilerin kilidini açmaya odaklanıyor ve aynı zamanda veri sağlayıcılarına gizlilik, uyumluluk ve para kazanma konusunda tam kontrol sağlıyor. AI geliştiricileri için Protege, bir katalog ve veri setlerini filtreleme ve birleştirme araçları aracılığıyla keşif ve edinimi basitleştiriyor ve bu da sağlık, medya ve diğer sektörlerdeki gelişimi hızlandırıyor. Aslında, şirket AI için güvenilir veri katmanını oluşturmayı amaçlıyor ve modern model geliştirmesindeki en büyük tıkanıklıklardan birini azaltmayı hedefliyor.
Sizi Protege’yi kurmaya iten şey nedir ve Datavant’ta veri, gizlilik ve organizasyonel dönüşüm girişimlerini yönetme deneyimleriniz serta LiveRamp’deki önceki rolleriniz Protege’yi inşa etme vizyonunuzu nasıl şekillendirdi?
Datavant’taki deneyimim, büyük ölçekli sorumlu veri bağlantısının hem gücünü hem de karmaşıklığını gösterdi. Datavant, hasta gizliliğini koruyarak duyarlı sağlık bilgilerini bağlantılı hale getiren bir platform oluşturdu ve bana iyi yönetilen verilerin büyük toplumsal ilerlemeye yol açabileceği açık oldu. Ancak, AI hızlandıkça, aynı kalıbın tekrarlandığını gördüm: hesaplamalara ve AI mimarilerine odaklanma, ancak modelleri sürdüren verilere değil. Hipotezimiz, bir sonraki büyük tıkanıklığın doğru verilere erişimi olacağıdır. Güvenli, şeffaf ve veri sahipleri ve AI geliştiricileri için karşılıklı olarak faydalı olan bir veri altyapısı katmanı oluşturmak istedim. İşte bu, Protege’yi inşa etmeye yol açtı.
Protege, “AI veri ekonomisinin omurgasını” inşa ettiğini söylüyor. Bu katmanı nasıl tanımlarsınız ve AI için gerçek veri altyapısı uygulamada nasıl görünür?
Protege, veri sahiplerinin ve AI geliştiricilerinin güvenli ve verimli bir şekilde işbirliği yapmalarına olanak tanıyan bağlantılı dokudur. AI için gerçek veri altyapısı, yalnızca veri depolama veya taşıma yapmaz; kökeni doğrular, izinleri yönetir ve her veri setinin etik ve onay ile kullanıldığını sağlar. Uygulamada, içerik sahiplerinin veri setlerini güvenle lisanslayabildiği ve uygun şekilde ücretlendirilebileceği ve AI geliştiricilerinin endüstri, alan, modlar ve formatlar genelinde kritik veri setlerine erişebileceği tek bir platformdur.
Temel misyonlarınızdan biri, modellerin lisanslı, temsil edilen ve onaylı veri setleriyle eğitildiğinden emin olmaktır. Protege, büyük ölçekli olarak etik kaynak kullanımını nasıl operasyonelleştirir?
Etikleri sistemler yoluyla operasyonelleştiriyoruz, değil sloganlar yoluyla. Birleştirdiğimiz ve teslim ettiğimiz her veri ve içerik kaynağı ile birlikte, hak sahiplerinin açık lisans koşulları ve gizlilik korumaları ile sahip olmasını sağlıyoruz.
Platformumuz, insan merkezli, araştırma odaklı uzmanlığımızı veri boru hatları ve sistemlerle birleştirir ve hakları korunan verilerin teslimini sağlar. Ayrıca, veri satın alan müşterilerimizle birlikte, verilerin gerçek dünya popülasyonlarını temsil ettiğinden ve gerçek dünya kullanım örneklerini yansıttığından emin olmak için çalışıyoruz. Hem veri sağlayıcılarına hem de veri alıcılarına açıklık ve tutarlılık getirerek, uyumluluğu, adilliği ve güveni koruyabiliyoruz.
AI endüstrisi uzun süredir “önce kazıyın, sonra sorun” mentalitesiyle yönetildi. Şeffaf veri lisansı, veri sağlayıcıları ve AI geliştiricileri arasındaki ilişkileri nasıl yeniden şekillendirecek?
Şeffaflık, çıkarmayı işbirliğine dönüştürür. AI şirketleri artık etik olarak veri sağlayıcılarından veri lisanslayabilir, bu da her iki taraf için daha iyi teşvikler oluşturur. Veri sağlayıcıları gelir ve kontrol kazanırlar ve AI geliştiricileri daha temiz, daha yüksek kaliteli veri setleri elde ederler ve yasal ve IP sorunları olmaz.
Bu dönüşüm güven oluşturur ve AI geliştirmesinde hızı artırır. Kuruluşlar, AI’nin sorumlu bir şekilde, açık onay ve veri hak sahipleri için uygun ücretlendirme ile inşa edilebileceğini gördüklerinde, daha fazla kullanım durumu ve veri ihtiyacı ortaya çıkar. Bu, daha yüksek kaliteli veri setlerine olan talebi artırır ve doğal bir büyüme yaratır: en iyi veri kaynakları alıcıları çeker ve alıcılar daha yüksek kaliteli veri kaynaklarını çeker. Herkes kazanır.
Sentetik veri, gizlilik ve önyargı sorunlarına bir çözüm olarak görülüyor. Özellikle sağlık gibi yüksek düzenlenmiş sektörlerde sentetik ve gerçek dünya veri setleri arasındaki doğru denge nerede?
Sentetik veri, test ve artırma için faydalıdır, ancak gerçek dünya aktiviteleri tarafından üretilen eğitim ve değerlendirme verilerinin tam nüans ve karmaşıklığını tamamen yerine koyamaz. Bu, özellikle sağlık sektöründe, uzun süreli hasta bakımı tarihi ve sonuçlarının bakım yaklaşımı bağlamında önemli olduğu yerlerde geçerlidir.
Temel olarak, gerçek dünya ile eğitilmemiş AI’nin, gerçek dünyanın tam karmaşıklığını temsil eden sentetik veri üretebileceğine inanmıyoruz. Muhtemelen doğru denge, daha fazla faydalı, yüksek kaliteli veri kaynaklarının birleştirilmesini gerektirecek ve ardından AI tarafından üretilen sentetik veriyle belirli kullanım durumları için birleştirilecektir.
Protege, kuruluşların değerli gerçek dünya verilerini güvenli bir şekilde, özel bilgilerin, hasta verilerinin veya fikri mülkiyetin açığa çıkmadan paylaşmasına nasıl olanak tanır?
Güvenlik ve gizlilik, yolculuğun her adımına entegre edilmiştir. İç sistemlerimiz veya veri transferlerimizi doğrulayan gizlilik ortaklarımız aracılığıyla, verilerin amaçlanan sınırlar içinde kaldığını đảminiyoruz.
Sağlık sektöründe, bu, tüm veri transferlerimiz için gizlilik ve uyumluluk çerçevelerine uymak anlamına gelir. Medya sektöründe, içeriklerin yalnızca öngörülen kullanımlar için ve önceden anlaşmaya varılan lisans koşulları ve süreleri ile lisanslandığından emin olmak anlamına gelir.
Vakıf modelleri devam ettikçe, yüksek kaliteli eğitim veri boru hatlarını tanımlayan nedir?
Üç ilke ön plana çıkacak: köken, precision ve amaç.
Köken, kaynağa ve koşullara tam izlenebilirlik anlamına gelir. Precision, belirli modlar veya kullanım durumları için küratörlüğe işaret eder, değil genel veri koleksiyonları – veya gerçek dünya durumlarını tam olarak yansıtmayan veriler. Amaç, veri seçimini somut sonuçlarla uyumlu hale getirmeyi, sadece gösterişli benchmark’leri değil, anlamına gelir.
Bu ilkeler birlikte, yüksek kaliteli verilerin daha iyi modelleri sürmesi için bir yol oluşturur.
EU AI Yasası gibi ortaya çıkan düzenlemeler ve ABD’deki gelecek çerçeveler, Protege’nin uyumluluk ve sınır ötesi veri işbirliği yaklaşımını nasıl etkiliyor?
Bu düzenlemeler, şirketin temelini oluşturduğumuz yaklaşımı doğrular. Şeffaflık, köken ve risk yönetimine vurgu yaparlar, bunlar ürünlerimizde ve platformumuzda varsayılan olarak yerleşiklerdir.
Gelecek AI fırsatlarının hak sahiplerini korumak ve katı gizlilik kontrollerini korumak zorunda olduğuna inaniyoruz. Bu ilkeleri olmazsa olmazlar olarak ele alarak, veri ortaklarımız ve müşterilerimizle birlikte değişen AI manzarasında güven ve güvenle ilerlemelerine yardımcı oluyoruz. Hedefimiz, sorumlu AI geliştirmesinin yalnızca doğru şey olması değil, aynı zamanda daha kolay yapılmasıdır.
Veri şeffaflığı ve kökeni, AI sistemlerine kamu güvenini yeniden inşa etmede nasıl bir rol oynar?
Güven, izlenebilirlikten başlar. İnsanlar verilerin nereden geldiğini ve nasıl kullanıldığını anladıklarında, AI sonuçlarına daha fazla güven duyarlar.
Şeffaflık ve köken, veri sahibi, model geliştiricisi ve son kullanıcı arasında hesap verebilirlik oluşturur. AI’yi bir kara kutudan anlaşılabilir ve açıklanabilir bir şeye dönüştürürler.
20 kat büyüme ve 25M$’lık A Serisi之后, Protege’nin etik ve güvenlik taahhütlerini hızlı ölçeklendirme ile nasıl dengelemeyi planlıyorsunuz ve AI modellerini sorumlu bir şekilde eğitmeye devam ederken ne olacak?
Etik ve güvenlik, ölçeklenebilmemizi sağlayan temeldir. Her yeni süreç, ortaklık ve ürün, başkalarının izlediği gibi işletiliyor mu diye ölçülür. Herkesin nasıl çalıştığımızı ve aldığımız kararları görmesini isterim, gururlanmak isterim.
2026’ya doğru bakarken, sağlık ve medya ötesinde yeni alanlara ulaşma ve AI organizasyonlarının gerçek dünya kullanım durumları için AI performansını daha iyi ölçmek için değerlendirme verileri gibi yeni veri ürünleri oluşturma hedefimiz var. Gerçek dünya AI verisi ve uzmanlığı için tek güvenilir platform olmak ve uzun vadede AI ilerlemesini güçlendirme amacındayız.












