Bizimle iletişime geçin

Röportajlar

CData CEO'su ve Kurucusu Amit Sharma ile Röportaj Serisi

mm

Amit Sharma, CData Software'in CEO'su ve Kurucusu, CData'yı erken girişim aşamasından veri bağlantısı ve entegrasyonunda küresel bir lider haline getiren bir teknoloji yöneticisidir. Infosys ve Elixar'da yazılım mühendisi, /n Software'de teknik mimar ve daha sonra CData'da CTO olarak görev yaptığı kariyeri boyunca, kurumsal veri erişimi ve altyapısı konusunda derin bir uzmanlık geliştirmiştir. 2014 yılında CEO olduktan sonra, kuruluşların sistemler genelinde verileri nasıl bağladığını, entegre ettiğini ve kullandığını basitleştirme misyonuna öncülük ederek, şirketi modern veri hareketinin temel bir katmanı olarak konumlandırmaya yardımcı olmuştur.

CData Yazılımı CData, veri erişimi ve bağlantı çözümlerinde lider bir sağlayıcıdır. Kendi kendine hizmet veren veri ürünleri ve bağlantı platformları, yaygın olarak kullanılan yüzlerce şirket içi ve bulut uygulamasında canlı verilere evrensel erişim sağlar. Dünya çapında milyonlarca kullanıcı, gelişmiş analitiği desteklemek, bulut benimsemesini hızlandırmak ve daha bağlantılı, veri odaklı kuruluşlar oluşturmak için CData'ya güvenmektedir. Her kullanıcı tarafından kullanılabilir, her uygulama içinde erişilebilir ve her ölçekteki işletme için ölçeklenebilir şekilde tasarlanan CData, işletmelerin verilere erişme ve kullanma biçimini yeniden tanımlıyor.

Kariyerinize Hindistan'da Infosys'te başladınız ve daha sonra ABD'deki kurumsal yazılım sektörüne geçtiniz. O dönemden edindiğiniz hangi erken ders, bugün liderlik tarzınızı hala şekillendiriyor?

Infosys'teki zamanım bana büyük ölçekli kurumsal teknolojinin gerekliliklerini – karmaşıklığı, güvenilirlik ihtiyacını ve büyük kuruluşların teknik sorunlara nasıl yaklaştığını – erken yaşta deneyimleme fırsatı verdi. Bu, yapıya ve kurumsal düzeyde kaliteye derin bir saygı duymama yol açtı. Ancak ABD'deki bir startup'a geçtiğimde, hız, çeviklik ve doğrudan etki yaratma yeteneğinin bana daha çok fayda sağladığını keşfettim. Bugün, bu ikili geçmişim CData Software'i nasıl yönettiğimi yönlendiriyor: Kurumsal düzeyde standartlar ve sağlamlık konusunda ısrar ederken, sadeliği, gerçek dünya kullanımını ve hızlı uygulamayı önemseyen yalın, hızlı hareket eden bir kültürü teşvik ediyorum.

CData'nın CEO'su olarak on yıldan fazla bir süre geçirdikten sonra, şirketi ilk günlerinden küresel bir kuruluşa dönüştürmede en önemli zihniyet veya yaklaşım değişikliği ne oldu?

Benim için en büyük değişim, teknoloji geliştiricisi gibi düşünmekten, bir organizasyon geliştiricisi gibi düşünmeye geçmek oldu. İlk zamanlarda, odağım neredeyse tamamen ürün üzerindeydi; şık, güvenilir ve gerçek sorunları çözen bir ürün olduğundan emin olmak. CData büyüdükçe, harika yazılımın tek başına yeterli olmadığını, harika insanlara, güçlü liderlere ve sizi yavaşlatmadan ölçeklenebilen süreçlere ihtiyaç duyduğunuzu öğrenmek zorunda kaldım. Bu, işe alımlara daha erken yatırım yapmak, ekipleri güçlendirmek ve satış, destek ve operasyonlarda tekrarlanabilir sistemler kurmak anlamına geliyordu; aynı zamanda mühendislik kültürümüzü de korumamız gerekiyordu. Zihniyet değişikliği, işimin sadece harika teknoloji üretmek değil, büyüyen küresel bir ekip tarafından tutarlı bir şekilde harika teknoloji üretilebilecek bir ortam yaratmak olduğunu fark etmekti.

CData uzun zamandır "herhangi bir veriye, her yerden erişimi kolaylaştırmaya" odaklanmıştır. Sektör yapay zekâ tabanlı uygulamalara daha fazla yönelirken bu misyon nasıl bir evrim geçirdi?

CData'daki misyonumuz en başından beri, tanıdık ve standartlaştırılmış arayüzler kullanarak verilere evrensel olarak erişimi sağlamaktı; çünkü inovasyonun önündeki en büyük engelin depolama veya işlem gücü değil, erişim olduğuna inanıyorduk. Bu temel fikir değişmedi, ancak bağlam değişti. Kuruluşlar analitikten buluta ve şimdi de yapay zekaya geçtikçe, parçalı ve tutarsız veri erişiminin maliyeti yalnızca arttı. Değişen şey bizim sorumluluğumuz: Artık sadece uygulamaları verilere bağlamak değil, verilerin güvenilir, gerçek zamanlı ve giderek daha karmaşık ve dağıtılmış ortamlarda kullanılabilir olmasını sağlamak gerekiyor. Yapay zeka çağında, yalnızca erişim yeterli değil. Verilerin haftalarca süren özel mühendislik çalışmalarına gerek kalmadan anında kullanılabilir olması gerekiyor.

Yapay zekâ tabanlı uygulamalar norm haline geldikçe, misyonumuz verileri varsayılan olarak yapay zekâya hazır hale getirmeyi de kapsayacak şekilde genişledi. Bu, modellerin ve ajanların kırılgan nokta entegrasyonları veya eski kopyalar yerine yeni ve güvenilir bilgilerle çalışabilmesi için yapılandırılmış ve SaaS veri kaynakları arasında tutarlı anlambilim, yüksek performanslı bağlantı, yönetişim odaklı erişim ve gerçek zamanlı entegrasyonu sağlamak anlamına gelir. Pratik anlamda, ekiplerin deneme aşamasından üretime daha hızlı geçebilmesi için verilerin bulunduğu yer ile yapay zekâ sistemlerinin çalıştığı yer arasındaki sürtünmeyi ortadan kaldırmaya odaklanıyoruz. Kendimizi sadece bir bağlantı sağlayıcısı olarak değil, akıllı uygulamaları mümkün kılan sistemlere sessizce güç veren yapay zekâ odaklı işletmeler için temel bir veri katmanı olarak görüyoruz.

Üretken yapay zekanın hız kazanmasıyla birlikte, "yapay zekaya hazır veri" sizin için gerçekten ne anlama geliyor ve kuruluşların bu fikri en çok nerede yanlış yorumladığını düşünüyorsunuz?

Bana göre, "yapay zekâya hazır veri", özel altyapı katmanlarına gerek kalmadan hem insanlar hem de makineler tarafından erişilebilir, güvenilir, güncel ve anlaşılabilir veri anlamına gelir. Bu sadece veriyi bir veri gölüne veya depolara taşımakla ilgili değil. Sistemlerin, modellerin ve aracıların standart, yönetilen arayüzler aracılığıyla doğru veriye doğru zamanda tutarlı bir şekilde erişebilmelerini sağlamakla ilgilidir. Yapay zekâya hazır olma durumu, verinin nerede saklandığından ziyade, gerçek zamanlı olarak keşfedilebilir, sorgulanabilir, güvenilir ve entegre edilebilir olup olmadığına bağlıdır. Bu temel olmadan, en gelişmiş modeller bile eksik veya güncel olmayan bilgilerle çalışmaya devam eder.

Organizasyonların bu kavramı yanlış yorumladığı nokta, merkezileştirmenin otomatik olarak hazır olma anlamına geldiğini varsaymalarıdır. Ekipler genellikle veriler tek bir platformda birleştirildikten sonra "yapay zekaya hazır" olduklarına inanırlar, oysa gerçekte sadece yeni bir veri silosu yaratmışlardır. Diğerleri ise veri kalitesi, anlambilim ve bağlantı gibi gerçek dünyadaki yapay zeka sistemlerini başarılı veya başarısız kılan, pek de göz alıcı olmayan sorunları ele almadan araçlara aşırı yatırım yaparlar. Yapay zeka modeller yüzünden başarısız olmaz; dağınık, erişilemez veya güncel olmayan veriler yüzünden başarısız olur. Kazanacak olan organizasyonlar, veri hazırlığını tek seferlik bir geçiş projesi olarak değil, operasyonel bir disiplin olarak ele alanlardır.

Yeni araştırmanız olan "Yapay Zeka Veri Bağlantısının Durumu: 2026 Görünümü", yapay zeka liderlerinin yalnızca %6'sının veri altyapılarının yapay zekaya tamamen hazır olduğuna inandığını gösteriyor. Hazırlık açığının neden bu kadar büyük olduğunu düşünüyorsunuz ve bu bize sektörün mevcut gidişatı hakkında ne söylüyor?

Aradaki fark bu kadar büyük çünkü çoğu kuruluş, verileri yapay zekâ için kullanılabilir hale getirmeye yatırım yapmadan çok önce veri toplama ve depolamaya yatırım yaptı. Son on yılda şirketler veri gölleri, veri ambarları ve veri hatları kurdular, ancak verilerin tutarlı, gerçek zamanlı ve sistemler genelinde erişilebilir olmasını sağlayan bütünleşik bir erişim katmanı nadiren oluşturdular. Sonuç olarak, liderler yapay zekâyı gerçek iş akışlarına entegre etmeye başladıklarında, altta yatan altyapılarının yapay zekânın gerektirdiği hızı, ölçeği veya güvenilirliği destekleyemediğini keşfediyorlar. %6'lık rakam, hırs eksikliğini değil, yapay zekânın her zaman var olan ancak geleneksel analitikte o kadar önemli olmayan zayıflıkları ortaya çıkardığı gerçeğini yansıtıyor.

Veriler bize sektör hakkında şunu söylüyor: Yapay zekâ benimseme eğrisinin henüz başındayız, geç kalmış değiliz. Kuruluşlar uygulama katmanında agresif bir şekilde deneyler yapıyorlar, ancak artık başarının altta yatan veri altyapılarını modernize etmeye bağlı olduğunu fark ediyorlar. Odak noktasının gösterişli pilot projelerden operasyonel hazırlığa – standartlaştırılmış erişim, yönetilen entegrasyon ve gerçek zamanlı bağlantıya – kaydığı bir düzeltme aşamasına giriyoruz. Kazananlar en çok kavram kanıtı geliştiren şirketler değil, bu deneyleri büyük ölçekte üretime geçirecek kadar hızlı bir şekilde veri altyapılarını modernize eden şirketler olacak.

Bulgular ayrıca yapay zeka ekiplerinin %71'inin zamanlarının dörtte birinden fazlasını veri altyapısı oluşturmaya harcadığını gösteriyor. Sizce bu çalışmanın hangi kısmı teknik borçtan ziyade stratejik öneme sahip?

Verilere standart arayüzler aracılığıyla kalıcı erişim oluşturmak ve baştan itibaren ölçeklenebilirlik ve yönetişim için tasarım yapmak söz konusu olduğunda, bir miktar "veri altyapısı" oluşturmak kesinlikle stratejiktir. Tutarlı bağlantıya, paylaşılan anlambilime ve güvenilir entegrasyon modellerine yatırım yapmak, daha sonra gelen her uygulama ve modelde karşılığını veren temel bir çalışmadır. Sorun şu ki, çoğu ekip bu tür bir altyapı oluşturmuyor. Tek seferlik işlem hatları yeniden oluşturuyorlar, kırılgan bağlantılar yazıyorlar ve yalnızca bir sorunu bir kez çözen entegrasyonları yamalıyorlar. Bu, ilerleme gibi görünen teknik borçtur.

Stratejik olan, gelecekteki sürtünmeyi azaltan her şeydir: özel kodları ortadan kaldırıp standartlara geçmek, yeniden kullanılabilir veri hizmetleri oluşturmak ve sistemleri ekipler ve kullanım durumları genelinde ölçeklenebilir şekilde bağlamak. Altyapı görünmez ve tekrarlanabilir hale geldiğinde, yapay zeka ekipleri için bir yük olmaktan çıkar ve bir kolaylaştırıcı haline gelir. Asıl amaç, veriye daha az zaman harcamak değil, aynı veri sorunlarına tekrar tekrar zaman harcamayı bırakmaktır.

Rapordaki dikkat çekici verilerden biri, işletmelerin %46'sının artık tek bir yapay zeka kullanım senaryosu için altı veya daha fazla veri kaynağına gerçek zamanlı erişime ihtiyaç duymasıdır. Bu, müşterilerinizde gözlemlediğiniz durumu yansıtıyor mu ve bu düzeyde bağlantıyı bu kadar zorlaştıran nedir?

Evet, bu, müşterilerimizle gördüklerimizle yakından örtüşüyor. Tahmine dayalı analiz, öneri motorları veya otonom iş akışları gibi modern yapay zeka kullanım örnekleri nadiren tek bir sisteme dayanır. İşletmeler genellikle anlamlı içgörüler üretmek için ERP, CRM, SaaS uygulamaları, akış platformları ve eski veritabanlarını birleştirmek zorundadır. Zorluk sadece kaynak sayısı değil; çeşitlilik, farklı protokoller, formatlar ve güncelleme sıklıkları ve bu verilerin yapay zeka modellerinin tüketebilmesi için gerçek zamanlı olarak kullanılabilir olması beklentisidir.

Bu bağlantı düzeyini zorlaştıran şey, geleneksel entegrasyon yaklaşımlarının yapay zekanın gerektirdiği ölçek, hız ve güvenilirlik için tasarlanmamış olmasıdır. Tek seferlik bağlantılar ve toplu işlem hatları buna ayak uyduramaz. Gerçek zamanlı erişim, standartlaştırılmış, yönetilen arayüzler, sistemler arasında tutarlı anlambilim ve veri kalitesi ve kullanılabilirliğini sağlamak için izleme gerektirir. Bu temel olmadan, ekipler yapay zeka çözümleri geliştirmekten çok işlem hatlarındaki sorunları gidermekle zaman harcar; bu da inovasyonu yavaşlatır ve risk oluşturur. Başarılı olan kuruluşlar, bağlantıyı sadece teknik bir görev olarak değil, stratejik bir yetenek olarak ele alan kuruluşlardır.

Rapor, olgun yapay zeka veri altyapısının tanımlayıcı özellikleri olarak anlamsal tutarlılığı, bağlamı ve bağlantıyı vurguluyor. Kuruluşlar bu öncelikleri nasıl sıralamalı?

Sıralama (sequencing) düşünülürken, kuruluşlar öncelikle bağlantıdan başlamalıdır. Verilere sistemler arasında güvenilir bir şekilde erişilemiyorsa, diğer her şey anlamsız hale gelir. Yapay zeka modelleri erişemedikleri şeylerden öğrenemezler. Tüm kritik veri kaynakları arasında standartlaştırılmış, yönetilen bağlantılar kurmak, sonrasında gelen her şeyin temelini oluşturur. Bu katman olmadan, ekipler daha sonra daha fazla iş yükü yaratan kırılgan, tek seferlik veri işleme hatları oluşturmakla sonuçlanırlar.

Bağlantı kurulduktan sonra, anlamsal tutarlılık bir sonraki öncelik haline gelir. Verilerin, birden fazla kaynaktan gelen bilgilerin doğru bir şekilde yorumlanabilmesi ve anlamlı bir şekilde birleştirilebilmesi için ortak bir dile ihtiyacı vardır. Bağlam doğal olarak bunu takip eder: Sadece değerleri değil, bunların iş süreci, zamanlama ve ilişkiler içindeki anlamlarını da anlamak, yapay zeka modellerinin doğru ve uygulanabilir tahminler yapabilmesini sağlar. Bu unsurları yapılandırılmış bir sıra olarak ele almak—önce bağlantı, sonra anlamsal tutarlılık, sonra bağlam—kuruluşların ölçeklenebilir ve güvenilir, üretime hazır zekayı destekleyen yapay zekaya hazır bir veri altyapısı oluşturmasına olanak tanır.

Yapay zekâ tabanlı yazılım sağlayıcıları artık geleneksel satıcılara göre yaklaşık üç kat daha fazla harici entegrasyona ihtiyaç duyuyor. Bu giderek büyüyen farkın ardındaki nedenler nelerdir ve bu durum yazılımın geleceği hakkında neyi ortaya koyuyor?

Bu giderek büyüyen uçurum, yapay zekanın doğasından kaynaklanmaktadır: Yapay zeka tabanlı uygulamalar, birden fazla kaynaktan gelen çeşitli, gerçek zamanlı verilerle gelişir. Genellikle tek bir sistem veya paket içinde çalışan geleneksel yazılımların aksine, yapay zeka modellerinin ERP sistemleri, CRM platformları, SaaS uygulamaları, akış kaynakları ve daha fazlasından bilgi alması, ilişkilendirmesi ve analiz etmesi gerekir. Her entegrasyon, yapay zekaya doğru tahminler, öneriler veya otomatik eylemler oluşturmak için yeterli bağlam ve kapsam sağlamak açısından önemlidir.

Bu trend, yazılımın izole uygulamalardan birbirine bağlı, akıllı ekosistemlere doğru ilerlediğini ortaya koyuyor. Kazananlar kendi başlarına iyi çalışan ürünler olmayacak. Kazananlar, verilerin bulunduğu her yerde sorunsuz bir şekilde erişebilen ve entegre edebilen platformlar olacak. Pratik anlamda bu, bağlantı, standardizasyon ve gerçek zamanlı entegrasyonun artık sadece isteğe bağlı özellikler olmadığı anlamına geliyor. Bunlar, yapay zekâ tabanlı yazılımların gerçek değer sunması için temel yeteneklerdir.

Önümüzdeki beş yıla baktığımızda, yapay zekanın başarısı için en önemli darboğazın ne olacağına inanıyorsunuz: bağlantı, gerçek zamanlı işlem hatları, anlamsal modelleme, yönetişim veya tamamen başka bir şey mi?

İleriye baktığımda inanıyorum ki... yönetişim ve güvenlik Yapay zekânın başarısı için en önemli darboğaz haline gelecek. Bağlantı ve gerçek zamanlı veri akışları temel olmaya devam ederken (yapay zekâ modelleri ancak erişebildikleri veriler kadar etkili olabilir), kuruluşlar kontrolsüz yapay zekânın sürdürülemez ve potansiyel olarak tehlikeli olduğunu hızla fark ediyor. Yapay zekâ deneme aşamasından üretime geçip kritik iş kararlarını etkilemeye başladıkça, önyargı, uyumluluk ihlalleri, veri sızıntısı ve operasyonel hatalar riskleri katlanarak artıyor.

Artık sorun sadece verileri taşımakla ilgili değil, aynı zamanda şunları taşımakla ilgili: krallar gibi yaşamaya verilerle, krallar gibi yaşamaya kontrollere, krallar gibi yaşamaya Sistemler, izlenebilir ve denetlenebilir bir şekilde yönetilmelidir. Başlangıçtan itibaren güçlü yönetişim çerçeveleri ve güvenlik protokolleri yerleştiremeyen kuruluşlar, artan düzenleyici baskı, itibar riski ve nihayetinde güvenemeyecekleri veya ölçeklendiremeyecekleri yapay zeka sistemleriyle karşı karşıya kalacaklardır. Şimdiden ilk işaretleri görüyoruz: Veri soy ağacını, erişim kontrollerini veya gelişen düzenlemelere uyumu sağlayamadıkları için yapay zekayı kullanmaktan çekinen işletmeler.

Beş yıl sonra en başarılı kuruluşlar, yönetişim ve güvenliği sonradan düşünülen unsurlar olarak değil, yapay zekanın temel itici güçleri olarak ele alanlar olacaktır. Evet, verilerin akması için bağlantı ve gerçek zamanlı veri akış hatlarına ihtiyacınız var; ancak yönetişim ve güvenlik yerinde olmadan, bu veriler bir varlık olmaktan ziyade bir yükümlülük haline gelir. Yapay zekanın geleceği sadece hız veya ölçekle ilgili değil; veri yığınının her katmanında güven, hesap verebilirlik ve sorumlu dağıtımla ilgilidir.

Harika röportaj için teşekkürler, daha fazla bilgi edinmek isteyen okuyucular ziyaret etmelidir. CData Yazılımı.

Antoine, yapay zeka ve robotiğin geleceğini şekillendirme ve tanıtma konusunda sarsılmaz bir tutkuyla hareket eden vizyon sahibi bir lider ve Unite.AI'nin kurucu ortağıdır. Bir seri girişimci olan Antoine, yapay zekanın toplum için elektrik kadar yıkıcı olacağına inanır ve sıklıkla yıkıcı teknolojilerin ve AGI'nin potansiyeli hakkında övgüler yağdırırken yakalanır.

Olarak fütürist, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adamıştır. Ayrıca, kurucusudur menkul kıymetler.ioGeleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren son teknolojiye yatırım yapmaya odaklanan bir platform.