Connect with us

5 En İyi Açık Kaynaklı LLM’ler (Mayıs 2026)

En İyiler

5 En İyi Açık Kaynaklı LLM’ler (Mayıs 2026)

mm mm
Open Source LLMs

Açık kaynaklı AI, kapalı kaynaklı sistemlerle aynı seviyeye ulaştı. Bu beş büyük dil modeli (LLM), tekrarlayan API maliyetleri veya satıcı kilidini olmadan kurumsal düzeyde performans sağlar. Her biri, cihazda akıl yürütme’den çok dilli desteğe kadar farklı kullanım durumlarını işler.

Bu rehber, GPT-OSS-120B, DeepSeek-R1, Qwen3-235B, LLaMA 4 ve Mixtral-8x22B’yi, yetenekleri, maliyetleri ve dağıtım gereksinimleri hakkında özel ayrıntılar ile açıklar.

Hızlı Karşılaştırma

Araç En İyi İçin Başlangıç Fiyatı Ana Özellik
GPT-OSS-120B Tek-GPU dağıtımı Ücretsiz (Apache 2.0) 80GB GPU’da 120B parametre ile çalışır
DeepSeek-R1 Karmaşık akıl yürütme görevleri Ücretsiz (MIT) 671B parametre ile şeffaf düşünme
Qwen3-235B Çok dilli uygulamalar Ücretsiz (Apache 2.0) 119+ dil ile melez düşünme
LLaMA 4 Çoklu modlu işleme Ücretsiz (özel lisans) 10M token bağlam penceresi
Mixtral-8x22B Maliyet-etkin üretim Ücretsiz (Apache 2.0) Yoğun modellere göre %75 hesaplamalı tasarruf

1. GPT-OSS-120B

OpenAI, Ağustos 2025’te GPT-2’den bu yana ilk açık ağırlıklı modellerini yayınladı. GPT-OSS-120B, 117 milyar toplam parametre ile bir uzmanlar karışımı mimarisi kullanır, ancak her token için yalnızca 5.1 milyar aktif parametre vardır. Bu seyrek tasarım, onu tek bir 80GB GPU’da çalıştırmanıza olanak tanır.

Model, o4-mini performansını temel benchmarklerde eşler. MMLU testlerinde %90 doğruluk oranına ulaşır ve GPQA akıl yürütme görevlerinde yaklaşık %80 oranına sahiptir. Kod oluşturma %62’de geçerlilik oranına sahiptir ve kapalı kaynaklı alternatiflerle rekabetçidür. 128.000 tokenlik bağlam penceresi, parça olmadan kapsamlı belge analizini işler.

OpenAI, bu modelleri o3 ve diğer ön cephe sistemlerinden tekniklerle eğitti. Odak, ham ölçekten ziyade pratik dağıtıma yönelikti. o200k_harmony tokenleştiriciyi modellerle birlikte açık kaynak olarak yayınladı, böylece girişlerin nasıl işlendiğini uygulamalar arasında standardize etti.

Artılar ve Eksiler

  • Tek 80GB GPU dağıtımı, çoklu GPU altyapısı maliyetlerini ortadan kaldırır
  • Yerel 128K bağlam penceresi, tüm kod tabanlarını veya uzun belgeleri işler
  • Apache 2.0 lisansı, ticari kullanım ve değiştirme için kısıtlama içermez
  • PyTorch, Triton ve Metal’de referans uygulamaları entegrasyonu kolaylaştırır
  • %90 MMLU doğruluğu, akıl yürütme benchmarklarında özel modellerle eşdeğerdir
  • İngilizce odaklı eğitim, çok dilli yetenekleri sınırlar
  • 5.1B aktif parametre, yoğun modellere göre bazı görevlerde daha düşük performans gösterebilir
  • En az 80GB VRAM gerektirir, bu da tüketici düzeyindeki GPU dağıtımını dışlar
  • Kaynak kısıtlı ortamlar için henüz damıtilmiş varyantlar mevcut değildir
  • İnce ayarlanmış alternatiflere kıyasla sınırlı alan uzmanlığı

Fiyatlandırma: GPT-OSS-120B, Apache 2.0 lisansı altında çalışır ve tekrarlayan maliyetleri yoktur. 80GB model çalıştırmak için donanım gerekir (NVIDIA A100 veya H100 GPU’lar). AWS, Azure veya GCP’de bulut dağıtımı, uygun örnek türleri için yaklaşık 3-5 dolar/saat maliyeti vardır. Kendi kendine barındırma, bir defaya mahsus GPU satın alımını gerektirir (~10.000-15.000 dolar için kullanılmış A100).

Abonelik ücretleri yok. API sınırlamaları yok. Satıcı kilidi yok.

GPT-OSS-120B’yi Ziyaret Edin

2. DeepSeek-R1

DeepSeek-R1, şeffaf akıl yürütme için özel olarak tasarlandı. Model, 671 milyar toplam parametre ile bir mimari kullanır, ancak her ileri geçişte yalnızca 37 milyar parametre aktiftir. Eğitim, geleneksel denetimli fine-tuning olmadan takviye öğrenimi vurguladı, böylece akıl yürütme kalıpları doğal olarak ortaya çıktı.

Model, MATH-500 değerlendirmelerinde %97 doğruluk oranına ulaşır ve karmaşık akıl yürütme görevlerinde OpenAI’nin o1 ile eşdeğerdir. DeepSeek-R1’yi ayıran şey, düşünme sürecini gözlemleyebilmenizdir. Model, yalnızca son cevaplar yerine adım adım mantığı gösterir. Bu şeffaflık, finansal analiz veya mühendislik doğrulama gibi akıl yürütmeyi doğrulamanız gereken uygulamalar için önemlidir.

DeepSeek, ana modelle birlikte altı damıtılmış sürüm yayınladı. Bunlar, 1.5B’den 70B parametre arasında değişir ve yüksek performanslı tüketici GPU’larından kenar cihazlarına kadar çeşitli donanımlarda çalışır. Qwen-32B damıtılmış sürümü, o1-mini’yi benchmarklerde geçer ve çok daha az hesaplama gücü gerektirir.

Alex McFarland yapay zeka muhabiri ve yazarıdır ve yapay zekadaki son gelişmeleri araştırıyor. Birçok yapay zeka başlangıç şirketi ve dünya çapındaki yayınlarda işbirliği yaptı.

Antoine bir vizyoner lider ve Unite.AI'in kurucu ortağıdır ve AI ve robotik geleceğini şekillendirmek ve tanıtmak için sarsılmaz bir tutkuyla hareket etmektedir. Bir seri girişimci olarak, toplum için elektrik kadar yıkıcı olacağına inandığı AI'nin potansiyeli hakkında sık sık konuşur ve coşkusunu dile getirir.
Bir futurist olarak, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adanmıştır. Ayrıca, Securities.io kurucusudur, bu platform geleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren teknolojilere yatırım yapmaya odaklanmıştır.