Yapay Zekâ
Geleneksel Makine Öğrenimi Hala alakalı mı?

Son yıllarda, Generative AI, karmaşık AI görevlerini çözmekte umut verici sonuçlar göstermiştir. Modern AI modelleri gibi ChatGPT, Bard, LLaMA, DALL-E.3 ve SAM, görsel soru cevaplandırma, segmentasyon, akıl yürütme ve içerik oluşturma gibi çok disiplinli sorunları çözmekte dikkate değer yetenekler sergilemiştir.
Ayrıca, Multimodal AI teknikleri ortaya çıkmıştır ve metin, resim, ses ve video gibi birden fazla veri modunu aynı anda işleyebilme yeteneğine sahiptir. Bu gelişmelerle birlikte, geleneksel makine öğreniminin (ML) sonuna mı yaklaşıyoruz diye merak etmek doğaldır?
Bu makalede, geleneksel makine öğrenimi manzarasını modern generative AI yenilikleri bağlamında inceleyeceğiz.
Geleneksel Makine Öğrenimi Nedir? – Sınırlılıkları Nelerdir?
Geleneksel makine öğrenimi, temel olarak istatistikle çalışan bir dizi algoritmayı kapsayan geniş bir terimdir. Geleneksel ML algoritmalarının iki ana türü gözetimli ve gözetimsiz öğrenme olarak adlandırılır. Bu algoritmalar, yapılandırılmış veri kümelerinden modeller geliştirmek için tasarlanmıştır.
Standart geleneksel makine öğrenimi algoritmaları şunları içerir:
- Linear, lasso ve ridge gibi regresyon algoritmaları.
- K-means kümeleme.
- Principal Component Analysis (PCA).
- Support Vector Machines (SVM).
- Karar ağaçları ve rastgele orman gibi ağaç tabanlı algoritmalar.
- Gradient boosting ve XGBoost gibi boosting modelleri.
Geleneksel Makine Öğreniminin Sınırlılıkları
Geleneksel ML aşağıdaki sınırlılıklara sahiptir:
- Sınırlı Ölçeklenebilirlik: Bu modeller genellikle büyük ve çeşitli veri kümeleriyle ölçeklenmekte zorluk çekebilir.
- Veri Ön İşleme ve Özellik Mühendisliği: Geleneksel ML, model gereksinimlerine uygun olarak veri kümelerini dönüştürmek için kapsamlı ön işleme gerektirir. Ayrıca, özellik mühendisliği zaman alıcı olabilir ve karmaşık ilişkileri yakalamak için birden fazla yineleme gerektirebilir.
- Yüksek Boyutlu ve Yapılandırılmamış Veri: Geleneksel ML, resimler, ses, video ve belgeler gibi karmaşık veri türleriyle mücadele eder.
- Görülmemiş Verilere Uyum: Bu modeller, eğitim veri kümesinin bir parçası olmayan gerçek dünya verilerine iyi uyum sağlayamayabilir.
Sinir Ağı: Makine Öğreniminden Derin Öğrenime ve Ötesine

Sinir ağları (NN) modelleri, geleneksel Makine Öğrenimi modellerinden çok daha karmaşıktır. En basit NN – Multi-layer perceptron (MLP) birkaç nöronun bir araya gelerek bilgi anlamak ve görevleri gerçekleştirmek için tasarlanmıştır, benzer şekilde insan beyni nasıl çalışıyorsa.
Sinir ağı tekniklerindeki gelişmeler, makine öğreniminden derin öğrenime geçişin temelini oluşturmuştur. Örneğin, bilgisayar görüşü görevleri (nesne algılama ve görüntü segmentasyonu) için kullanılan NN’ler convolutional neural networks (CNNs) olarak adlandırılır, bunlar AlexNet, ResNet ve YOLO.
Bugün, generative AI teknolojisi sinir ağı tekniklerini bir adım öteye taşıyarak, çeşitli AI alanlarında mükemmel performans göstermesini sağlar. Örneğin, doğal dil işleme görevleri (metin özetleme, soru cevaplandırma ve çeviri) için kullanılan NN’ler transformer olarak bilinir. Prominent transformer modelleri arasında BERT, GPT-4 ve T5 bulunur. Bu modeller, sağlık, perakende, pazarlama, finans gibi endüstrilerde büyük bir etkiye sahiptir.
Geleneksel Makine Öğrenimi Algoritmalarına Hala İhtiyacımız Var mı?

Sinir ağları ve modern varyantları gibi transformer’lar çok dikkat çekse de, geleneksel ML yöntemleri hala çok önemlidir. Neden hala alakalı olduklarına bakalım.
1. Basit Veri Gereksinimleri
Sinir ağları büyük veri kümeleri gerektirirken, ML modelleri küçük ve basit veri kümeleriyle önemli sonuçlar elde edebilir. Bu nedenle, küçük yapılandırılmış veri kümeleri için ML, derin öğrenime tercih edilir.
2. Basitlik ve Açıklanabilirlik
Geleneksel makine öğrenimi modelleri, basit istatistiksel ve olasılıksal modeller üzerine inşa edilmiştir. Örneğin, linear regresyondeki en iyi uyum çizgisi, girdi-çıktı ilişkisini en küçük kareler yöntemi kullanarak kurar, bu bir istatistiksel işlemdir.
Benzer şekilde, karar ağaçları veri sınıflandırması için olasılıksal ilkeleri kullanır. Bu ilkelerin kullanımı, açıklanabilirlik sağlar ve AI uygulayıcılarının ML algoritmalarının işleyişini anlamasını kolaylaştırır.
Modern NN mimarileri gibi transformer ve difüzyon modelleri (genellikle Stable Diffusion veya Midjourney gibi görüntü oluşturma için kullanılır) karmaşık çok katmanlı bir ağ yapısına sahiptir. Bu ağların anlaşılması, gelişmiş matematiksel kavramların anlaşılmasını gerektirir. Bu nedenle, bunlar genellikle ‘Kara Kutu’ olarak adlandırılır.
3. Kaynak Verimliliği
Modern sinir ağları gibi Büyük Dil Modelleri (LLM’ler), hesaplamalı gereksinimlerine göre pahalı GPU’lar kümesi üzerinde eğitilir. Örneğin, GPT4’ün 25000 Nvidia GPU’su üzerinde 90-100 gün boyunca eğitildiği bildirildi.
Ancak, pahalı donanım ve uzun eğitim süresi her uygulayıcı veya AI ekibi için mümkün olmayabilir. Öte yandan, geleneksel makine öğrenimi algoritmalarının hesaplamalı verimliliği, uygulayıcıların kısıtlı kaynaklarla bile anlamlı sonuçlar elde etmesini sağlar.
4. Tüm Problemler Derin Öğrenimi Gerektirmez
Derin Öğrenim tüm sorunların mutlak çözümü değildir. Bazı senaryolar vardır ki burada ML, derin öğrenimden daha iyi performans gösterir.
Örneğin, sınırlı veri ile tıbbi teşhis ve prognoz için bir ML algoritması gibi anomali tespiti için REMED, derin öğrenime kıyasla daha iyi sonuçlar verir. Benzer şekilde, geleneksel makine öğrenimi, düşük hesaplama kapasitesine sahip senaryolarda esnek ve verimli bir çözüm olarak önemlidir.
Primarily, en iyi modelin seçimi, organizasyonun veya uygulayıcının ihtiyaçlarına ve eldeki sorunun doğasına bağlıdır.
2023’te Makine Öğrenimi

Leonardo AI Kullanılarak Oluşturulan Görüntü
2023’te, geleneksel makine öğrenimi devam etmekte ve derin öğrenim ve generative AI ile rekabet etmektedir. Yapılandırılmış veri kümeleriyle çalışırken endüstrilerde birçok kullanım alanı bulunmaktadır.
Örneğin, birçok Hızlı Tüketim Malları (FMCG) şirketleri, kritik görevler gibi kişiselleştirilmiş ürün önerileri, fiyat optimizasyonu, envanter yönetimi ve tedarik zinciri optimizasyonu için ML algoritmalarına güvenerek büyük miktarda yapılandırılmış veri ile çalışır.
Ayrıca, birçok görme ve dil modelleri hala geleneksel tekniklere dayanmaktadır ve melez yaklaşımlar ve ortaya çıkan uygulamalar için çözümler sunmaktadır. Örneğin, “Gerçekten Zaman Serisi Tahmininde Derin Öğrenim Modellerine İhtiyacımız Var mı?” başlıklı bir çalışmada, gradient-boosting regression trees (GBRTs)’in derin sinir ağlarına kıyasla zaman serisi tahmini için daha verimli olduğu tartışılmıştır.
ML’nin açıklanabilirliği, teknikler gibi SHAP (Shapley Additive Explanations) ve LIME (Local Interpretable Model-agnostic Explanations) ile hala çok değerlidir. Bu teknikler, karmaşık ML modellerini açıklar ve tahminleri hakkında fikir verir, böylece ML uygulayıcılarının modellerini daha iyi anlamalarına yardımcı olur.
Son olarak, geleneksel makine öğrenimi, ölçeklenebilirlik, veri karmaşıklığı ve kaynak kısıtlamaları gibi çeşitli endüstrilerde güçlü bir çözüm olarak kalır. Bu algoritmalar, veri analizi ve öngörülü modelleme için vazgeçilmezdir ve veri bilimcisinin arsenallerinde yer almaya devam edecektir.
Bu gibi konular ilgini çekiyorsa, daha fazla bilgi için Unite AI‘yi keşfedin.












