Bizimle iletişime geçin

Röportajlar

Onur Alp Soner, Countly CEO'su ve Kurucu Ortağı – Röportaj Serisi

mm

Onur Alp Soner, şirketin kurucu ortağı ve CEO'sudur. KontDijital analiz ve uygulama içi etkileşim platformu olan Countly'nin kurucusudur. Teknoloji uzmanı ve girişimci bir kişi olarak, şirketlere kullanıcılarını nasıl anladıkları ve onlarla nasıl etkileşim kurdukları konusunda daha fazla kontrol sağlamak amacıyla Countly'yi sıfırdan kurdu. Liderliğinde Countly, kullanıcı gizliliğini büyüme stratejilerinin merkezinde tutarken hızlı bir şekilde yenilik yapmak isteyen dünya çapındaki işletmeler için güvenilir bir platform haline geldi.

Bizi Countly'yi kurmanıza yol açan ana geri götürün; mevcut analiz araçlarında sizi veri sahipliği modelinin temelden bozuk olduğuna ikna eden hangi sorunlarla kişisel olarak karşılaşıyordunuz?

Yaklaşık 13 yıl önce, mobil uygulamalar yaygınlaşmaya başladığında, mevcut analiz araçları çok özel bir modeli izliyordu. Birçoğu ücretsiz veya oldukça ucuzdu, ancak bunun karşılığında platform verilerinizi topluyor ve para kazanıyordu, genellikle de reklam ekosistemlerine aktarıyordu. O zamanlar bu, işlerin normal işleyiş biçimi olarak yaygın bir şekilde kabul ediliyordu.

Ancak bu bize doğru gelmedi. Küçük bir şirket olsak bile, ürünümüzün performansını anlamak için tüm kullanıcı verilerimizi teslim etme fikri mantıklı değildi.

Countly, bu ihtiyaca bir yanıt olarak ortaya çıktı. Şirketlerin tamamen sahiplenebileceği ve kontrol edebileceği analitikler oluşturmak istedik, bu yüzden onu açık kaynaklı, kendi kendine barındırılan bir platform olarak piyasaya sürdük. Fikir basitti: kuruluşlar verilerini başkalarına vermeden anlayabilmeli ve bunlara göre hareket edebilmelidir. Bu ilke bugün hala Countly'nin temelinde yer almaktadır.

Countly'nin kuruluşundan bu yana, yapay zeka veri sahipliğini niş bir endişe olmaktan çıkarıp stratejik bir gerekliliğe dönüştürdü. Bu ilkenin analitik alanının çok ötesinde önem taşıyacağı size ne zaman açıkça belli oldu?

İlk yıllarda, veri sahipliğiyle ilgili konuşmaların çoğu gizlilik veya uyumluluk çerçevesinde ele alınıyordu. Verilerinin nerede saklandığı ve kimin kontrolünde olduğuyla yakından ilgilenenler çoğunlukla bankalar, sağlık hizmeti sağlayıcıları ve hükümetlerdi. Diğer birçok kurum için analitik hala basit bir raporlama aracı olarak görülüyordu, bu nedenle sahiplik sorunu acil bir mesele gibi gelmiyordu.

Şirketler, ürünlerini sadece ölçmekle kalmayıp, çalıştırmak için de verilere daha fazla güvenmeye başlayınca bu bakış açısı değişmeye başladı. Analitik, raporlamadan karar verme süreçlerine, kişiselleştirmeye, ürün değişikliklerine ve müşteri etkileşimine güç vermeye başlayınca, bu verileri kontrol etmenin önemi çok daha belirgin hale geldi. Mobiliteden otelciliğe kadar her dijital öncelikli şirket, artık sadece ön uç deneyimiyle değil, verilerle de rekabet etmeye başladı.

Yapay zekâ bu gerçeğin farkına varılmasını önemli ölçüde hızlandırdı. Bir yapay zekâ modelini lisanslayabilir veya oluşturabilirsiniz, ancak kendi müşterilerinizin ürününüzle nasıl etkileşim kurduğunu yansıtan davranışsal verileri satın alamazsınız. Bu veriler her kuruluş için benzersizdir.

Birçok kuruluş, büyük miktarda veriye sahip oldukları için "yapay zekaya hazır" olduklarına inanıyor. Gerçek şirketlerin iç işleyişine baktığımızda, yüzeyin altında genellikle ne eksik kalıyor?

Veri eksikliği genellikle sorun değildir. Asıl sorun, kullanılabilir veri eksikliğidir. Birçok kuruluş büyük miktarda bilgiye sahiptir, ancak bu bilgiler farklı araçlar, ekipler ve sistemler arasında parçalanmış durumdadır. Örneğin, pazarlamanın bir veri kümesi, ürünün başka bir veri kümesi ve mühendisliğin de kendi telemetri verileri olabilir; bunlar genellikle farklı formatlarda ve çok az ortak yapıyla saklanır.

Yapay zekanın faydalı olabilmesi için, altta yatan verilerin temiz, tutarlı ve bağlamsal olması gerekir. Olayları veya kayıtları toplamak yeterli değildir; bu sinyallerin aslında neyi temsil ettiğini anlamanız gerekir. Bu anlamsal katman olmadan, yapay zeka sistemleri esasen tahmin yürütür.

Bir diğer sorun ise sahiplik meselesi. Şaşırtıcı sayıda şirket, verilerinin üçüncü taraf platformlarda yer alması nedeniyle kendi verilerini kontrol edemiyor. Bu durum, veri kümelerini birleştirmeyi, bunların nasıl kullanılacağını yönetmeyi veya yapay zeka modellerini bunlara güvenli bir şekilde uygulamayı zorlaştırıyor.

Dolayısıyla şirketler ellerinde çok fazla veri olduğu için yapay zekaya hazır olduklarını söylediklerinde, asıl soru tutarlı bir veri temeline sahip olup olmadıklarıdır.

Yapay zekâ sistemlerinde modellerin kendileri giderek birbirinin yerine geçebilir hale gelirken, birinci elden elde edilen veriler neden kalıcı bir rekabet avantajı yaratıyor?

Kalıcı avantaj yaratan şey modelin kendisi değil, birinci elden verilerden gelen kullanıcı anlayışıdır. Bu veriler, insanların ürününüzle gerçekte nasıl etkileşim kurduğunu yansıtır ve her kuruluş için benzersizdir. Öte yandan modeller giderek birer meta haline geliyor. Bunları lisanslayabilir, ince ayar yapabilir veya sağlayıcılar arasında nispeten kolayca geçiş yapabilirsiniz. Ancak kopyalayamayacağınız şey, kendi kullanıcılarınızın ürünlerinizle zaman içinde etkileşiminden elde edilen davranışsal verilerdir.

Bu veriler, müşterilerin gerçekte nasıl davrandığını yansıtan kalıpları, bağlamı ve sinyalleri yakalar. Doğru şekilde yapılandırıldığında ve anlaşıldığında, şirketlerin genel veri kümeleri yerine gerçek kullanımdan sürekli olarak öğrenen sistemler oluşturmasına olanak tanır.

Modern analitik altyapılar, raporlama, gösterge panelleri ve KPI'lar yerine yapay zeka sistemleri için yeniden kullanıldıklarında nerede sessizce çökmeye başlıyorlar?

Verilerin gözlemden eyleme geçmesi gereken noktada genellikle aksamaya başlarlar. Geleneksel analitik sistemler öncelikle raporlama için tasarlanmıştır. Verileri toplar ve bir araya getirir, ardından ekiplerin dün veya geçen hafta neler olduğunu anlamalarına yardımcı olan gösterge panolarında sunarlar.

Yapay zeka sistemleri ise çok farklı çalışır. Sistem davranışını doğrudan etkileyebilmeleri için yapılandırılmış, bağlamsal ve gerçek zamanlı verilere ihtiyaç duyarlar. Analitik işlem hatları toplu işleme ve gecikmeli raporlama üzerine kurulduğunda, anında tepki vermesi gereken sistemleri desteklemekte zorlanırlar.

Ekipler yapay zekayı deneme aşamasından üretime geçirmeye çalıştığında, gerçek veri sahipliğinin eksikliği operasyonel olarak nasıl ortaya çıkıyor?

Bu genellikle bir kontrol problemi olarak ortaya çıkar. Sonuç olarak, verileriniz üzerinde kontrolünüz yoksa, yapay zekanız üzerinde de kontrolünüz olmaz. Bu durum, ekipler deney aşamasından üretime geçtiğinde özellikle belirginleşir. Deney aşamasında ekipler genellikle küçük veri kümeleri veya geçici veri akışlarıyla çalışabilir, ancak üretim sistemleri kuruluş genelinde güvenilir verilere sürekli erişim gerektirir.

Birçok şirkette, temel veriler analitik araçlar, pazarlama sistemleri veya bulut hizmetleri gibi farklı üçüncü taraf platformlarda yer almaktadır. Bu durum, veri kümelerini birleştirmeyi, yönetim kurallarını uygulamayı veya verileri sistemler arasında kontrollü bir şekilde taşımayı zorlaştırır. Bu, birçok yapay zeka projesinin pilot aşamalarında takılı kalmasının nedenlerinden biridir. Yapılandırılmış, kuruluş genelinde veri olmadan, yapay zekayı üretim ortamında güvenilir bir şekilde devreye almak zorlaşır.

Bu durum, bir modelin bir karara nasıl ulaştığını izlemeyi veya arkasındaki kesin veri durumunu yeniden oluşturmayı da zorlaştırır. Bu düzeyde bir kontrol olmadan, hataları düzeltmek veya kararları geri almak son derece zorlaşır.

Zayıf veri yapısı, anlambilim ve bağlam, en yetenekli yapay zeka modellerini bile neden baltalar?

En yetenekli yapay zeka modelleri bile ancak aldıkları veriler kadar iyidir. Eğer temel veriler kötü yapılandırılmışsa veya bağlamdan yoksunsa, model bu sinyallerin gerçekte neyi temsil ettiğini çok az anlayabilir.

Birçok sistemde veriler, net bir anlamı olmayan izole olaylar veya kayıtlar olarak toplanır. Bir model binlerce etkileşim görebilir, ancak uygun yapı ve anlambilim olmadan, önemli olanı ve sadece gürültü olanı ayırt edemez.

Bağlam da aynı derecede önemlidir. Yapay zeka sistemlerinin, farklı veri parçalarının zaman içinde birbirleriyle nasıl ilişkili olduğunu anlaması gerekir. Bu bağlam olmadan, modeller yine de çıktılar üretebilir, ancak sistem eksik bilgilerle çalıştığı için bu çıktılar genellikle güvenilir olmaz.

Bir şirketin, müşteriler bu deneyimler sıradan hale gelmeden çok önce, genel yapay zeka sonuçlarına doğru ilerlediğini gösteren uyarı işaretleri nelerdir?

En temel uyarı işareti, şirketlerin aynı harici yapay zeka modellerine ve araçlarına güvenmeleri ancak kendi veri altyapılarını geliştirmek için çok az şey yapmalarıdır. Kuruluşlar aynı modelleri kullanıyor ancak bunlara kendi kullanıcı ve bağlamsal verilerini eklemiyorlarsa, sistemler esasen aynı genel girdilerden çalışıyor demektir. Bu durumda, yapay zeka yalnızca üst düzey veya genel sonuçlar üretebilir. Zamanla, bu durum, arkalarındaki zekanın aynı sınırlı bilgilere dayanması nedeniyle giderek birbirine benzeyen ürünlere yol açar.

Bir diğer uyarı işareti ise, kuruluşların yapay zeka modellerini benimsemeye yoğunlaşmaları ancak verilerinin yapısına ve kalitesine yeterince dikkat etmemeleridir. Yapay zeka, aldığı veriyi güçlendirir. Eğer temel veriler düzensiz, parçalı veya kötü yapılandırılmışsa, sistem aynı sorunun daha karmaşık bir versiyonunu üretecektir.

Kendi verileri üzerine yapay zeka geliştirmeye çalışan kuruluşlar için Countly, geleneksel analiz ve veri platformlarının sağlayamadığı neyi mümkün kılıyor?

Temel fark, kontrolün platforma nasıl entegre edildiğidir. Birçok analiz ürününde, veri sahipliği bir seçenek veya özellik olarak görünür. Countly'de ise sistemin merkezinde yer alır. Platform, kuruluşların gelişmiş işlevsellik için verilerinin kontrolünden ödün vermek zorunda kalmamaları için tasarlanmıştır.

Pratikte bu, şirketlerin Countly'yi kendi ortamlarında çalıştırabileceği, veri yığınları üzerinde tam kontrol sahibi olabileceği ve yine de büyük ölçekte analitik, etkileşim ve otomasyon yeteneklerine erişebileceği anlamına gelir. Bu, özellikle kuruluşlar kendi verilerinin üzerine yapay zeka inşa etmek istediklerinde önem kazanır. Birçok geleneksel analitik araç öncelikle raporlama için tasarlanmıştır; bu da topladıkları verilerin genellikle diğer sistemler için kullanılabilir bir temel oluşturmak yerine üçüncü taraf panolarda kaldığı anlamına gelir. Countly, analitiği temel veri altyapısının bir parçası olarak ele alarak farklı bir yaklaşım benimser.

Yapay zekâ sistemleri günlük karar alma süreçlerine entegre olurken, veri sahipliğinin bir politika onay kutusu olmaktan ziyade temel bir tasarım ilkesi olarak ele alındığı bir durumda, etik yapay zekâ tanımı nasıl gelişmelidir?

Veri sahipliği bir tasarım ilkesi haline geldiğinde, etik yapay zeka artık modelleri sonradan denetlemekle ilgili değil; kullanıcıların onları eğiten veriler üzerinde söz sahibi olduğu sistemler tasarlamakla ilgili hale gelir. Etik, altyapı haline gelir.

Harika röportaj için teşekkürler, daha fazla bilgi edinmek isteyen okuyucular ziyaret etmelidir. Kont.

Antoine, yapay zeka ve robotiğin geleceğini şekillendirme ve tanıtma konusunda sarsılmaz bir tutkuyla hareket eden vizyon sahibi bir lider ve Unite.AI'nin kurucu ortağıdır. Bir seri girişimci olan Antoine, yapay zekanın toplum için elektrik kadar yıkıcı olacağına inanır ve sıklıkla yıkıcı teknolojilerin ve AGI'nin potansiyeli hakkında övgüler yağdırırken yakalanır.

Olarak fütürist, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adamıştır. Ayrıca, kurucusudur menkul kıymetler.ioGeleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren son teknolojiye yatırım yapmaya odaklanan bir platform.