Connect with us

Yapay Zeka’da Hesaplama Gücünün Kutsal Kasesi

Düşünce Liderleri

Yapay Zeka’da Hesaplama Gücünün Kutsal Kasesi

mm

İnanılmaz ilerlemeye rağmen, yapay zeka yetenekleri hala gerçek dünya beklentilerine kıyasla sınırlıdır. Karmaşık modeller oluşturur, sinir ağlarını çalıştırır ve algoritmaları test ederiz, ancak bazen ilerleme beklenmedik yerlerde durur.

Sorun genellikle algoritmalar veya verilerde değil, modellerin öğrenme ve gerekli ölçekte çalışmasına olanak sağlayan hesaplama gücünde yatmaktadır. Peki, bu engel arkasında neler yatıyor? Laboratuvarın ötesine geçemeyen даже en umut verici yapay zeka projelerinin hareket etmesini engelleyen kritik kaynağı inceleyelim.

Hesaplama açığı ve sonuçları

Bu konuyu anlamak için, mobil iletişimlerin tarihine başlayalım. 3G ve daha sonra 4G ağları ortaya çıktığında, internet zaten neredeyse küresel olarak mevcuttu. Ve 5G tanıtıldığında, birçok insan mantıklı bir soru sordu: “İnternet daha hızlı olacak – ama ne olacak?”

Aslında, internet hızındaki artış, kullanıcı rahatlığıyla ilgili değil. Tüm teknolojik manzarayı dönüştürür. Önceden imkansız olan kullanım örnekleri ortaya çıkar. 5G, 4G’den çok daha hızlı çıktı ve bu sıçrama, 1G’den 2G’ye geçiş gibi渐 dần değil, üssel oldu. Sonuç olarak, yeni uygulamalar, cihazlar ve teknolojinin tüm sınıfları ortaya çıkabilir.

Trafik ışık kameraları, gerçek zamanlı trafik analiz sistemleri ve otomatik trafik düzenleme mekanizmaları – tüm bunlar yeni iletişim teknolojileri sayesinde mümkün hale gelir. Polis, yeni veri alışverişi yolları kazanır ve uzayda teleskoplar ve uydular, Dünya’ya büyük miktarda bilgi iletebilir. Temel bir teknolojinin nitel bir sıçraması, tüm ekosistemin gelişimini sürükler.

Aynı ilke, hesaplama gücüne de uygulanır. İnsanlığın toplam hesaplama kapasitesini varsayımsal birimlerle hayal edin. Bugün, diyelim ki on böyle bir birime sahip olabiliriz. Bunlarla resimler ve videolar oluşturabilir, metinler yazabilir, pazarlama materyalleri oluşturabiliriz… Bu zaten önemli, ancak uygulama aralığı esas olarak sınırlıdır.

Şimdi, on değil, bin böyle bir birime sahip olduğumuzu hayal edin. Aniden, önce çok pahalı olan teknolojiler uygulanabilir hale gelir ve yüksek hesaplama maliyetleri nedeniyle terk edilen startups ekonomik olarak anlam kazanmaya başlar.

Örneğin, robotaksi alın. Bugün, bunlar genellikle araçta kurulan nispeten zayıf yerel bilgisayarlara dayanır. Ancak, video akışı devasa hesaplama kaynaklarına sahip buluta iletilebilseydi, veriler gerçek zamanlı olarak işlenebilir ve geri gönderilebilirdi. Ve bu kritiktir: 100 km/saat hızında giden bir araba, düz gitme, dönme, fren yapma veya fren yapmama kararları almalıdır – saniyenin kesirlerinde.

Tamamen işlevsel bir robotaksi endüstrisi işte bu noktada mümkün hale gelir, yalnızca bugün gördüğümüz izole çözümler değil. Araçta kurulan herhangi bir yerel bilgisayar, doğal olarak bir bağlantılı sistem değil. Daha hızlı ölçeklenebildiğimiz sürece, dünya вокруг biz değişir.

Çip erişimi ve yapay zeka’da “altın bilet”

Hesaplama gücünün bağlamında, bir soru ortaya çıkar: Modern çiplere erişim, yapay zeka pazarına girmek için “altın bilet” haline mi geliyor? Büyük oyuncular, çip üreticileriyle sözleşmeler imzaladığında veya kendileri ürettiğinde, büyük şirketler ile diğerleri arasında bir uçurum mu oluşuyor?

Bu tür bir uçurum, yalnızca bir iş modeli büyük müşterilere çip satmaya odaklandığında ortaya çıkar. Uygulamada, NVIDIA gibi üreticiler, herkes için bulut çözümleri sunmayı amaçlar. Optimizeleri çipleri, OpenAI ve bağımsız geliştiriciler için bulutta mevcuttur.

Google, Anthropic, Microsoft, OpenAI, Amazon ve NVIDIA arasındaki stratejik ittifaklar, esas olarak paylaşılan kaynak kullanımına yönelik ortaklıklardır, pazarı kapatma girişimleri değil. Bu model, hesaplama gücünün verimli dağıtımını sağlar ve böylece teknolojik gelişimi hızlandırır.

Hesaplama kaynağı kullanım zincirini izlediğimizde, bu zincir son kullanıcıyla başlar. Örneğin, WhatsApp’i video aramaları ve mesajlaşma için kullandığınızda, şirket hizmetin çalışmasını sağlamak zorundadır: verileri depolamak ve işlemek, video temizleme için modeller çalıştırmak, efektler eklemek ve görüntü kalitesini iyileştirmek.

Kendi sunucularını korumak pahalıdır, bunlar eskimektedir ve sürekli bakım gerektirir. Bu nedenle, “bulut” olarak adlandırılan bulut çözümleri ortaya çıktı. Pazar, üç oyuncu tarafından domine edilmektedir: Google Cloud, AWS ve Microsoft Azure. Diğer şirketler bu düzeyde rekabet edemez: Altyapı ölçeği çok büyüktür.

Bulut hizmetleri, soğutma, güç kaynağı ve 7/24 bakım içeren devasa veri merkezleridir. NVIDIA, AMD ve diğer üreticilerin sunucuları ve özel çiplerini barındırırlar, büyük ölçekli hesaplama süreçlerini mümkün kılar.

Burada, önceki veri merkezleri hakkındaki sütunumda tartıştığım ve burada devam etmek istediğim ana soruya geliriz: Bu sistemin temel tıkanıklığı nedir? Elektrik kıtlığı mı, yoksa özellikle zorlu iklimlerde veri merkezlerini soğutmanın zorluğu mu? Gerçekte, sır çiplerin kendisinde gizli…

Kutsal kase

NVIDIA neden bugün yaklaşık 5 trilyon dolar değerinde ve dünyanın en başarılı halka açık şirketlerinden biri olarak kabul ediliyor? Sebep basit: NVIDIA, yapay zeka modellerinin eğitildiği ve çıkarımı çalıştırıldığı çipleri üretiyor.

Her bir çip, büyük modelleri eğittiğinde veya her geçen gün artan veri hacimlerini işlediğinde muazzam miktarda elektrik tüketir. Ancak bu enerji ne kadar verimli kullanılıyor? İşte burada özel çipler devreye giriyor; belirli görevleri genel amaçlı GPU’lardan çok daha verimli bir şekilde işleyebiliyorlar.

Yapay zeka modelleri farklıdır. OpenAI, Örneğin, bir model ailesine sahiptir, Anthropic başka birine. Kavramlar benzer olabilir, ancak matematiksel yapılar ve hesaplama süreçleri farklıdır. Bir genel amaçlı çip, OpenAI modellerini (örneğin, ChatGPT) eğittiğinde ve Anthropic modellerini (örneğin, Claude) eğittiğinde, “her şeye uyan bir araç” gibi davranır ve bir model için 100.000 saatlik hesaplama, diğer model için 150.000 saatlik hesaplama tüketir. Verimlilik önemli ölçüde farklılık gösterir ve nadiren optimaldir.

Şirketler, bu sorunu özel çipler üreterek çözer. Örneğin, bir çip ChatGPT mimarisine optimize edilebilir ve eğitimi, diyelim ki 20 dakikada tamamlayabilir, bir diğeri ise Anthropic’in mimarisine uyarlanır ve yine 20 dakikada eğitimi tamamlar. Enerji tüketimi ve eğitim süresi, genel amaçlı bir çipe kıyasla çoklu kez azaltılır.

Bu çipler büyük şirketlere satıldığında, bağımsız ürünler olarak sunulurlar. Kullanıcılar, örneğin, bir YOLO modeli için optimize edilmiş bir çip veya Xen mimarisine yönelik daha basit, daha ucuz bir çip seçebilir. Bu şekilde, şirketler, genel amaçlı GPU’lar satın almak yerine, görevlerine precislye uyarlanmış hesaplama kaynaklarına erişebilir. Bir kullanıcı on farklı fonksiyona sahipse, on farklı özel çipi kullanabilir.

Eğilim açıktır: Özel çipler, dần dần genel amaçlı olanların yerini alıyor. Birçok startup artık ASIC’ler (Uygulama Spesifik Entegre Devreler) ile çalışıyor; belirli hesaplama görevleri için tasarlanmış çipler. İlk ASIC’ler Bitcoin madenciliği için ortaya çıktı: Başlangıçta, kriptopara NVIDIA GPU’larında madencilik yapılıyordu, daha sonra yalnızca Bitcoin için tasarlanmış ve başka görevleri gerçekleştiremeyen çipler üretildi.

Pratikte bunu görüyorum: Aynı donanım yapılandırması, görevlere bağlı olarak tamamen farklı sonuçlar üretebilir. Startup’ım Introspector‘da, bu süreçleri gerçek projelerde inceliyoruz ve Keymakr‘ın stratejik danışmanı olarak, müşterilerin özel çiplerden nasıl verimlilik kazandığını ve modellerin daha hızlı çalışmasını sağladığını gözlemliyorum. Önce eğitim veya çıkarım sırasında duran projeler, bu yaklaşım sayesinde稳il sonuçlara ulaşıyor.

Ancak dar uzmanlaşma riskleri taşır. Anthropic’in mimarisine optimize edilmiş bir çip, OpenAI modellerini eğitmek için çalışmaz ve tersi de öyle. Her yeni mimari, yeni bir donanım neslini gerektirir ve bu, büyük ölçekli “eski haline getirme” riski yaratır. Anthropic, yarın yeni bir mimari çıkardığında, tüm önceki nesil çipler verimsiz veya işe yaramaz hale gelir. Yeni çipler üretmek milyarlarca dolar maliyeti olabilir ve yıllar alabilir.

Bu, bir ikilem yaratır: Dar bir senaryoda mükemmel çalışan özel çipler mi üreteceğiz, yoksa genel amaçlı çipler üretmeye devam mı edeceğiz? Bu çipler tüm görevleri orta derecede iyi bir şekilde çözer, ancak mimariler değiştiğinde tamamlarıyla değiştirilmeleri gerekmez.

Verimlilik bu bağlamda üç temel parametreye göre ölçülür: Çalışma zamanı, elektrik tüketimi ve ısı üretimi. Bu metrikler doğrudan ilişkilidir: Bir sistem ne kadar uzun çalışırsa, o kadar çok enerji tüketir ve o kadar çok ısı üretir. Bir parametreyi azaltmak, diğer iki parametreyi de otomatik olarak iyileştirir.

Sürdürülebilir süreç

Özel çiplerin artan kullanımı ile birlikte, aşırı üretim riskleri konusu acil hale geldi. Şu anda, ekipman fazlası zaten önemli ve şirketler bu sorunu çeşitli sürdürülebilir yollarla ele alıyor, mevcut kaynakların yeniden kullanımını da içerecek şekilde.

Ekipman geri dönüşümü, yüksek teknoloji endüstrilerindeki sürdürülebilir gelişmenin temel bir öğesi haline geldi. Çipler, önemli miktarda değerli ve baz metaller, altın, bakır, alüminyum, palladyum ve nadir toprak malzemeleri içerir. Ekipman eski haline geldiğinde, bu değerli kaynaklar üretimine geri döndürülebilir, yeni bileşenlerin maliyetini düşürürken aynı zamanda endüstrinin çevresel ayak izini de azaltır.

Bazı özel fabrikalar ve şirketler, eski bileşenlerden değerli metalleri geri dönüştürmeye ve çıkarmaya odaklanıyor. Örneğin, bazı tesisler, altın ve bakırı yüksek saflıkta çıkarmak için hidrometalurjik süreçler ve gelişmiş kimyasal yöntemler kullanıyor, bu da bu malzemelerin yeni çiplerde yeniden kullanılmasına olanak tanıyor.

Ayrıca, şirketler, eski ekipmanın yeni çözümlere entegre edildiği veya yükseltildiği kapalı döngü modellerini uygulamaya koyuyor, bu da birincil kaynak çıkarma ihtiyacını azaltıyor. Bu tür yaklaşımlar, yalnızca atığı minimize etmez, aynı zamanda üretim sürecinin karbon ayak izini de düşürür, çünkü geleneksel madencilik ve metal işleme önemli miktarda enerji gerektirir.

Çiplerin ve ekipmanın yaşam döngüsünün sürdürülebilir yönetimi, endüstri standardı haline gelebilir, burada teknolojik ilerleme, çevresel sorumlulukla uyumlu hale gelir.

Michael Abramov, Introspector'un kurucusu ve CEO'su olarak, 15+ yıllık yazılım mühendisliği ve bilgisayar vizyonu AI sistemleri deneyimini, işletme sınıfı etiketleme araçları oluşturmaya getiriyor.

Michael kariyerine bir yazılım mühendisi ve Ar-Ge müdürü olarak başladı, ölçeklenebilir veri sistemleri oluşturdu ve çok işlevli mühendislik ekiplerini yönetti. 2025 yılına kadar, Keymakr adlı bir veri etiketleme hizmeti şirketinin CEO'su olarak görev yaptı, burada insan-çevrimiçi iş akışları, gelişmiş QA sistemleri ve büyük ölçekli bilgisayar vizyonu ve otonom veri ihtiyaçlarını desteklemek için özel araçlar geliştirdi.

Bilgisayar Bilimi alanında lisans derecesine ve mühendislik ve yaratıcı sanatlar alanında geçmişe sahip, bu da zor sorunları çözmeye çok disiplinli bir lens getiriyor. Michael, teknoloji inovasyonu, stratejik ürün liderliği ve gerçek dünya etkisinin kesişiminde yaşıyor, otonom sistemlerin ve akıllı otomasyonun nächsten sınırını ileriye taşıyor.