Connect with us

Prompt Mühendisliği

Analog ve Step-Back İmlası: Google DeepMind’in Son Gelişmelere Dalış

mm
Google DeepMind Prompt Engineering new Research

Giriş

İmla mühendisliği, Large Language Models (LLM) gibi GPT-4’ü istenen yanıtları üretmeye yönlendirmek için etkili imla yaratmaya odaklanır. İyi tasarlanmış bir imla, belirsiz veya yanlış bir yanıt ile kesin, aydınlatıcı bir yanıt arasındaki fark olabilir.

Geniş AI ekosisteminde, imla mühendisliği, dil modellerinden daha doğru ve bağlamsal olarak ilgili bilgi çıkarmak için kullanılan birkaç yöntemden biridir. Diğerleri, modelin görevi anlamasına yardımcı olmak için birkaç örnek verilen few-shot öğrenme ve modelin daha küçük bir veri kümesinde daha fazla eğitildiği ve yanıtlarını uzmanlaştırdığı fine-tuning gibi teknikleri içerir.

Google DeepMind, recently iki makale yayınladı ve bu makaleler imla mühendisliğine ve dil modellerindeki yanıtları çeşitli durumlar için geliştirme potansiyeline dalıyor.

Bu makaleler, dil modelleriyle iletişim kurma şeklimizi iyileştirmeye yönelik devam eden araştırmaların bir parçasıdır ve sorgu işleme ve veritabanı etkileşimi için imla yapısını daha iyi hale getirmek için taze bakış açıları sağlar.

Bu makale, bu araştırma makalelerinin ayrıntılarına giriyor, önerilen tekniklerin kavramlarını, metodolojilerini ve etkilerini açıklıyor ve bunları AI ve NLP’de sınırlı bilgiye sahip okuyucular için erişilebilir kılıyor.

Makale 1: Büyük Dil Modelleri olarak Analog Reasoning

İlk makale, “Büyük Dil Modelleri olarak Analog Reasoning” adlı bir makale, Analog İmla adlı yeni bir imla yaklaşımı tanıtılıyor. Yazarlar, Michihiro Yasunaga, Xinyun Chen ve diğerleri, analog reasoning—a cognitive process where humans leverage past experiences to tackle new problems—den ilham alıyorlar.

Ana Kavramlar ve Metodoloji

Analog İmla, LLM’leri bir problemi çözmeye başlamadan önce ilgili örnekler veya bilgiyi kendiliğinden üretmeye teşvik ediyor. Bu yaklaşım, etiketli örneklerin ihtiyacını ortadan kaldırır, genellik ve kolaylık sağlar ve üretilen örnekleri her özel problema uyarlar, böylece uyarlanabilirlik sağlar.

Sol: Geleneksel yöntemler LLM'leri generic inputs (0-shot CoT) veya labeled examples (few-shot CoT) ile yönlendirir. Sağ: Yeni yaklaşım LLM'leri problemi çözmeye başlamadan önce ilgili örnekleri kendiliğinden üretmeye teşvik eder, böylece etiketleme ihtiyacını ortadan kaldırır ve örnekleri her özel problema uyarlar

Sol: Geleneksel yöntemler LLM’leri generic inputs (0-shot CoT) veya labeled examples (few-shot CoT) ile yönlendirir. Sağ: Yeni yaklaşım LLM’leri problemi çözmeye başlamadan önce ilgili örnekleri kendiliğinden üretmeye teşvik eder, böylece etiketleme ihtiyacını ortadan kaldırır ve örnekleri her özel problema uyarlar

Kendiliğinden Üretilen Örnekler

Makalede sunulan ilk teknik, kendiliğinden üretilen örnekler. Fikir, LLM’lerin eğitim sırasında edindiği geniş bilgiyi kullanarak yeni problemleri çözmelerine yardımcı olmaktır. Süreç, hedef problemi, modelin ilgili problemleri ve çözümlerini hatırlamasını veya üretmesini sağlayan talimatlarla zenginleştirmeyi içerir.

Örneğin, bir problem verildiğinde, model üç farklı ve ilgili problemi hatırlaması, onları tanımlaması ve çözümlerini açıklaması talimatı verilir. Bu süreç, tek bir geçişte gerçekleştirilmesi amaçlanmıştır, böylece LLM ilgili örnekleri üretebilir ve ilk problemi sorunsuz bir şekilde çözebilir. İmlalarda ‘#’ sembollerinin kullanılması, yanıtı yapılandırır ve modelin takip etmesini daha kolay hale getirir.

Makalede vurgulanan önemli teknik kararlar, ilgili ve çeşitli örneklerin üretilmesine vurgu, tek geçişli yaklaşımın daha büyük kolaylık sağlaması ve üç ila beş örnek üretilmesinin en iyi sonuçları verdiğini göstermesi içerir.

Kendiliğinden Üretilen Bilgi + Örnekler

İkinci teknik, kendiliğinden üretilen bilgi + örnekler, daha kompleks görevlerde, örneğin kod oluşturma gibi, ortaya çıkan zorlukları ele almak için sunulur. Bu senaryolarda, LLM’ler düşük seviyeli örneklerde fazla odaklanabilir ve hedef problemleri çözerken genellemekte zorlanabilir. Bunu önlemek için, yazarlar, modelin temel kavramları problemde tanımlamasını ve bir öğretici veya yüksek seviyeli çıkarımı sağlamasını teşvik eden ek bir talimatla imlayı zenginleştirmeyi önerirler.

Bir critical consideration, bilginin ve örneklerin üretilme sırasıdır. Yazarlar, önce bilginin üretilmesinin daha iyi sonuçlar verdiğini bulmuşlardır, çünkü bu, LLM’lerin temel problem çözme yaklaşımlarına odaklanmasına yardımcı olur, yalnızca yüzeydeki benzerliklere değil.

Avantajlar ve Uygulamalar

Analog imla yaklaşımı several avantajlar sunar. Etiketleme ihtiyacı olmadan, 0-shot ve few-shot chain-of-thought (CoT) yöntemleriyle ilgili zorlukları ele alır. Ayrıca, üretilen örnekler, geleneksel few-shot CoT’ye göre daha ilgili rehberlik sağlar, çünkü geleneksel yöntemler sabit örnekler kullanır.

Makale, bu yaklaşımın çeşitli akıl yürütme görevleri boyunca, matematik problem çözme, kod oluşturma ve BIG-Bench’teki diğer akıl yürütme görevleri dahil olmak üzere, etkinliğini gösteriyor.

Aşağıdaki tablolar, çeşitli imla yöntemlerinin farklı model mimarileri boyunca performans ölçütlerini sunar. Önemli olarak, “Kendiliğinden Üretilen Örnekler” yöntemi, accuracy açısından diğer yöntemleri tutarlı bir şekilde aşar. GSM8K accuracy’de, bu yöntem PaLM2 modelinde %81,7 ile en yüksek performansı gösterir. Benzer şekilde, MATH accuracy’de, GPT3.5-turbo’da %37,3 ile en yüksek performansı sağlar.

Matematik görevleri, GSM8K ve MATH üzerindeki performans

Matematik görevleri, GSM8K ve MATH üzerindeki performans

İkinci tabloda, GPT3.5-turbo-16k ve GPT4 modelleri için “Kendiliğinden Üretilen Bilgi + Örnekler” en iyi performansı gösterir.

Codeforces kod oluşturma görevi üzerindeki performans

Codeforces kod oluşturma görevi üzerindeki performans

Makale 2: Bir Adım Geri Al: Büyük Dil Modellerinde Soyutlama ile Akıl Yürütme

Genel Bakış

İkinci makale, “Bir Adım Geri Al: Büyük Dil Modellerinde Soyutlama ile Akıl Yürütme” adlı bir makale, Step-Back İmla adlı bir tekniği sunar. Bu teknik, LLM’leri ayrıntılı örneklerden yüksek seviyeli kavramlar ve ilkeleri soyutlamalarına teşvik eder. Yazarlar, Huaixiu Steven Zheng, Swaroop Mishra ve diğerleri, LLM’lerin akıl yürütme yeteneklerini geliştirmeyi amaçlar ve onları doğru akıl yürütme yolunu takip etmeye yönlendirir.

STEP-BACK İMLA, soyutlama ve akıl yürütme aşamalarını gösteren bir diyagram

STEP-BACK İMLA, soyutlama ve akıl yürütme aşamalarını gösteren bir diyagram

Basit bir matematik sorusu kullanarak “Stepback Question” tekniğini göstermek için bir örnek oluşturalım:

Original Question: Bir tren 60 km/h hızında seyahat eder ve 120 km mesafe kat ederse, ne kadar süre alır?

Options:

3 saat
2 saat
1 saat
4 saat
Original Answer [Incorrect]: Doğru cevap 1).

Stepback Question: Zamanı hız ve mesafe verildiğinde hesaplamak için temel formül nedir?

İlkeler:
Zamanı hesaplamak için formül:
Zaman = Mesafe / Hız

Final Answer:
Formülü kullanarak, Zaman = 120 km / 60 km/h = 2 saat.
Doğru cevap 2) 2 saat.

Bu örnek, Step-Back tekniğinin nasıl çalıştığını göstermek için basit bir matematik sorusunu kullanır. Daha zorlu senaryolarda, aynı teknik sistemli bir şekilde problemi ele almak için uygulanabilir.

Aşağıda, makalede sunulan daha kompleks bir örnek verilmiştir:

MMLU-Kimya veri kümesinde STEP-BACK İMLA

MMLU-Kimya veri kümesinde STEP-BACK İMLA

Ana Kavramlar ve Metodoloji

Step-Back İmla’nın özü, LLM’leri problemi daha geniş bir perspektiften ele almaya teşvik etmektir. Bu, dikkatli bir şekilde tasarlanmış bir dizi imla ile gerçekleştirilir ve LLM’leri ayrıntılı örneklerden yüksek seviyeli kavramlar ve ilkeleri soyutlamalarına yol açar.

Süreç, LLM’nin verilen örneklerden detayları soyutlamasını teşvik ederek başlar. Bu adım, LLM’nin problemi daha bilgili ve prensipli bir perspektiften ele almasını sağlar.

Bir kez yüksek seviyeli kavramlar elde edildikten sonra, bunlar LLM’yi akıl yürütme adımlarına rehberlik etmek için kullanılır. Bu rehberlik, LLM’nin doğru ve mantıksal bir yol izlemesini sağlar ve bu yol, soyutlanan kavramlar ve ilkeler üzerine kuruludur.

Yazarlar, Step-Back İmla’nın etkinliğini doğrulamak için bir dizi deney yaparlar. Bu deneyler, PaLM-2L modellerini çeşitli zorlu akıl yürütme görevlerinde kullanır. Bu görevler, STEM problemleri, Bilgi QA ve Çoklu Hop Akıl Yürütme gibi görevleri içerir ve tekniğin değerlendirilmesi için kapsamlı bir test yatağı sağlar.

Tüm Görevlerde Önemli İyileştirmeler

Sonuçlar etkileyicidir ve Step-Back İmla’nın tüm görevlerde önemli performans kazançları sağladığını gösterir. Örneğin, teknik, PaLM-2L’nin MMLU Fizik ve Kimya’daki performansını sırasıyla %7 ve %11 oranında artırır. Benzer şekilde, TimeQA’da %27 ve MuSiQue’de %7’lik bir performans artışı sağlar.

STEP-BACK İMLA'nın performansı

STEP-BACK İMLA’nın performansı

Bu sonuçlar, LLM’lerin akıl yürütme yeteneklerini önemli ölçüde geliştirmek için Step-Back İmla’nın potansiyelini vurgular.

SONUÇ

Her iki makale de, Google DeepMind’den yenilikçi imla mühendisliği yaklaşımları sunar ve LLM’lerin akıl yürütme yeteneklerini artırmayı amaçlar. Analog İmla, analog akıl yürütme kavramını kullanır ve modellerin kendi örneklerini ve bilgilerini üretmesini teşvik eder, böylece daha uyumlu ve verimli problem çözme sağlar. Öte yandan, Step-Back İmla, soyutlama üzerine odaklanır ve modellerin yüksek seviyeli kavramlar ve ilkeleri türetmelerini sağlar, bu da onların akıl yürütme yeteneklerini geliştirir.

Bu araştırma makaleleri, çeşitli alanlarda uygulanabilecek değerli içgörüler ve metodolojiler sağlar ve daha akıllı ve yetenekli dil modelleri geliştirmeye yönelik önemli adımlar olarak hizmet eder.

Son beş yıldır Makine Öğrenimi ve Derin Öğrenme dünyasına kendimi daldırmış bulunuyorum. Tutkum ve uzmanlığım, özellikle AI/ML odaklı 50'den fazla çeşitli yazılım mühendisliği projesine katkıda bulunmama yol açtı. Süregelen meraklılığım ayrıca beni Doğal Dil İşleme'ye doğru çekti, bu alanda daha fazla keşfetmeye hevesliyim.