Connect with us

Büyük Dil Modelleri (LLM) Geleceğin Uygulamalarını Nasıl Güçlendirecek

Düşünce Liderleri

Büyük Dil Modelleri (LLM) Geleceğin Uygulamalarını Nasıl Güçlendirecek

mm

Oluşturucu AI ve özellikle dil-flavörü – ChatGPT her yerde. Büyük Dil Modeli (LLM) teknolojisi, gelecekteki uygulamaların geliştirilmesinde önemli bir rol oynayacak. LLM’ler, temel modeller için yapılan geniş çaplı ön eğitime bağlı olarak dil anlama konusunda çok iyiler. Denetimli fine-tuning ve insan geri bildirimi ile pekiştirilmiş öğrenme (RLHF) gibi yöntemler, bu LLM’leri belirli sorulara cevap verme ve kullanıcılarla sohbet etme konusunda daha da verimli hale getirir. LLM’ler ile çalışan AI uygulamalarının bir sonraki aşamasına girerken – aşağıdaki ana bileşenler, bu nächsten nesil uygulamalar için çok önemli olacak. Aşağıdaki şekil, bu ilerlemeyi gösteriyor ve zincir boyunca ilerledikçe, uygulamalarınızda daha fazla zeka ve otonomi oluşturuyorsunuz. Bu çeşitli seviyelere bir göz atalım.

LLM Çağrıları:

Bu, Azure OpenAI veya Google PaLM veya Amazon Bedrock gibi bir LLM sağlayıcısı tarafından completion veya sohbet modellerine doğrudan çağrılar. Bu çağrılar, çok temel bir.prompt kullanır ve genellikle LLM’nin dahili belleğini çıktı üretmek için kullanır.

Örnek: Temel bir model gibi “text-davinci”e “bir şaka anlat” diye sormak. Çok az contexto veriyorsunuz ve model, dahili ön-eğitimli belleğine dayanarak bir cevap üretiyor (aşağıdaki şekilde, Azure OpenAI ile yeşil olarak vurgulanmış).

Prompt’lar:

Bir sonraki zeka seviyesi, prompt’lara daha fazla contexto eklemektir. LLM’ler için uygulanabilecek prompt mühendisliği teknikleri vardır ve bunlar, özelleştirilmiş cevaplar vermesini sağlayabilir. Örneğin, bir kullanıcıya bir e-posta oluştururken, kullanıcı hakkında, geçmiş satın almalar ve davranış kalıpları gibi bazı contexto, daha iyi özelleştirilmiş bir e-posta oluşturmak için prompt olarak kullanılabilir. ChatGPT ile آشina olan kullanıcılar, örnekler verme gibi farklı prompting yöntemlerini biliyorlar ve LLM, bu örnekleri kullanarak cevabı oluşturur. Prompt’lar, LLM’nin dahili belleğini ek contexto ile zenginleştirir. Aşağıda bir örnek var.

Gömme:

Gömme, prompt’lara bir sonraki seviyeyi ekler ve contexto için bir bilgi deposunu arar ve bu contexto’yu alır ve prompt’a ekler. Burada, ilk adım, büyük bir belge deposunu oluşturmak ve metni dizine eklemek ve bir vektör veritabanını doldurmak için kullanılır. Bunu yapmak için, OpenAI’nin ‘ada’ adlı bir gömme modeli gibi bir model kullanılır ve bu model, bir metin parçasını n-boyutlu bir vektöre dönüştürür. Bu gömme, metnin contexto’nu yakalar, böylece benzer cümleler vektör uzayında birbirlerine yakın gömme’ler olacaktır. Kullanıcı bir sorgu girdiğinde, bu sorgu da bir gömme’ye dönüştürülür ve bu vektör, veritabanındaki vektörlerle eşleştirilir. Böylece, sorgu için en iyi 5 veya 10 eşleşen metin parçalarını alırsınız ve bu contexto, LLM’ye, insan gibi cevap vermesi için verilir.

Zincirler:

Bugün, Zincirler, LLM uygulamaları oluşturmak için en gelişmiş ve olgun teknolojidir. Zincirler, deterministiktir ve bir dizi LLM çağrısı, bir veya daha fazla LLM’ye akışını sağlayan bir şekilde birleştirilir. Örneğin, bir LLM çağrısı, bir SQL veritabanını sorgulayabilir ve müşteri e-postalarının listesini alabilir ve bu listeyi, müşterilere kişiselleştirilmiş e-postalar oluşturmak için başka bir LLM’ye gönderebilir. Bu LLM zincirleri, mevcut uygulama akışlarına entegre edilebilir ve daha değerli sonuçlar üretebilir. Zincirleri kullanarak, LLM çağrılarını API çağrıları ve bilgi grafikleri entegrasyonu gibi dış girdilerle zenginleştirebiliriz ve contexto sağlayabiliriz. Ayrıca, bugün, OpenAI, AWS Bedrock, Google PaLM, MosaicML gibi çok sayıda LLM sağlayıcısı mevcut olduğundan, zincir elemanlarını LLM çağrılarına karıştırabilir ve eşleştirebiliriz. Zincir elemanları sınırlı zeka için, daha düşük bir LLM gibi ‘gpt3.5-turbo’ kullanılabilirken, daha gelişmiş görevler için ‘gpt4’ kullanılabilir. Zincirler, veri, uygulamalar ve LLM çağrıları için bir soyutlama sağlar.

Ajanlar:

Ajanlar, özellikle yapay genel zeka (AGI) ile ilgili olarak birçok çevrimiçi tartışmanın konusu. Ajanlar, önceden tanımlanmış zincirler yerine görevleri planlamak için ‘gpt4’ veya ‘PaLM2’ gibi gelişmiş bir LLM kullanır. Şimdi, kullanıcı talepleri olduğunda, sorguya dayanarak, ajan hangi görev setini çağıracaktır ve dinamik olarak bir zincir oluşturur. Örneğin, bir ajansı “kredi faiz oranları hükümet düzenlemesi güncellemesi nedeniyle değiştiğinde müşterileri bildir” gibi bir komutla yapılandırırsanız, ajan çerçevesi, hangi adımları atacağını veya hangi zincirleri oluşturacağını belirlemek için bir LLM çağrısı yapar. Burada, bir uygulamayı düzenleyici web sitelerini tarayarak ve en son faiz oranını çıkarmak, sonra bir LLM çağrısı veritabanını arar ve etkilenen müşteri e-postalarını çıkarır ve sonunda bir e-posta oluşturur ve herkesi bilgilendirir.

Son Düşünceler

LLM, hızlı bir şekilde gelişen bir teknolojidir ve daha iyi modeller ve uygulamalar her hafta piyasaya sürülüyor. LLM’den Ajanlara, zeka merdivenidir ve yukarı çıktıkça, daha karmaşık otonom uygulamalar oluşturuyorsunuz. Daha iyi modeller, daha etkili ajanlar anlamına gelir ve nächsten nesil uygulamalar, bunlarla güçlendirilecek. Zaman, nächsten nesil uygulamaların ne kadar gelişmiş olacağını ve hangi kalıplarla güçlendirileceğini gösterecek.

Dattaraj Rao, Persistent Systems'da Baş Veri Bilimcisi, “Keras to Kubernetes: The Journey of a Machine Learning Model to Production” kitabının yazarıdır. Persistent Systems'da Dattaraj, Bilgisayar Görme, Doğal Dil Anlama, Olasılıksal programlama, Peşin Öğrenme, Açıklanabilir AI vb. gibi son teknoloji algoritmalarını araştıran ve Sağlık, Bankacılık ve Endüstriyel alanlarda uygulanabilirliğini gösteren AI Araştırma Laboratuvarını yönetmektedir. Dattaraj'ın Makine Öğrenimi ve Bilgisayar Görme alanında 11 patenti bulunmaktadır.