Prompt Engineering
Analoges & Schritt-zurück-Prompting: Ein Blick in die jüngsten Fortschritte von Google DeepMind

Einführung
Die Prompt-Engineering konzentriert sich auf die Entwicklung effektiver Prompts, um Large Language Models (LLMs) wie GPT-4 dabei zu helfen, gewünschte Antworten zu generieren. Ein gut gestalteter Prompt kann den Unterschied zwischen einer vagen oder ungenauen Antwort und einer präzisen, einleuchtenden Antwort ausmachen.
Im weiteren Ökosystem von KI ist die Prompt-Engineering eine von mehreren Methoden, die verwendet werden, um genauer und kontextuell relevantere Informationen aus Sprachmodellen zu extrahieren. Andere Methoden umfassen Techniken wie Few-Shot-Learning, bei dem dem Modell einige Beispiele gegeben werden, um es bei der Aufgabe zu unterstützen, und Feinabstimmung, bei der das Modell auf einem kleineren Datensatz weiter trainiert wird, um seine Antworten zu spezialisieren.
Google DeepMind hat kürzlich zwei Arbeiten veröffentlicht, die sich mit der Prompt-Engineering und ihrem Potenzial zur Verbesserung von Antworten in verschiedenen Situationen befassen.
Diese Arbeiten sind Teil der laufenden Erforschung in der KI-Gemeinschaft, um zu verfeinern und zu optimieren, wie wir mit Sprachmodellen kommunizieren, und sie bieten neue Einblicke in die Struktur von Prompts für eine bessere Abfragebehandlung und Datenbankinteraktion.
Dieser Artikel geht auf die Details dieser Forschungsarbeiten ein, erläutert die Konzepte, Methoden und Auswirkungen der vorgeschlagenen Techniken und macht sie auch für Leser mit begrenzten Kenntnissen in KI und NLP zugänglich.
Arbeit 1: Large Language Models als analoge Reasoner
Die erste Arbeit, “Large Language Models als analoge Reasoner”, stellt einen neuen Prompt-Ansatz namens Analoges Prompting vor. Die Autoren, Michihiro Yasunaga, Xinyun Chen und andere, ziehen ihre Inspiration aus analogem Reasoning – einem kognitiven Prozess, bei dem Menschen vergangene Erfahrungen nutzen, um neue Probleme zu lösen.
Schüsselkonzepte und Methodik
Analoges Prompting ermutigt LLMs, relevante Beispiele oder Wissen im Kontext selbst zu generieren, bevor sie ein gegebenes Problem lösen. Dieser Ansatz eliminiert die Notwendigkeit von gelabelten Beispielen, bietet Allgemeingültigkeit und Bequemlichkeit und passt die generierten Beispiele an jedes spezifische Problem an, um Anpassungsfähigkeit zu gewährleisten.

Links: Traditionelle Methoden des Promptings von LLMs basieren auf generischen Eingaben (0-Shot-CoT) oder erfordern gelabelte Beispiele (Few-Shot-CoT). Rechts: Der neue Ansatz promptet LLMs, relevante Beispiele vor der Problemlösung selbst zu erstellen, wodurch die Notwendigkeit von Markierungen entfällt und Beispiele an jedes einzigartige Problem angepasst werden
Selbstgenerierte Beispiele
Die erste Technik, die in der Arbeit vorgestellt wird, sind selbstgenerierte Beispiele. Die Idee besteht darin, das umfangreiche Wissen, das LLMs während ihrer Ausbildung erworben haben, zu nutzen, um ihnen bei der Lösung neuer Probleme zu helfen. Der Prozess umfasst die Ergänzung eines Zielproblems mit Anweisungen, die das Modell auffordern, relevante Probleme und Lösungen zu erinnern oder zu generieren.
Zum Beispiel wird bei einem Problem das Modell angewiesen, drei unterschiedliche und relevante Probleme zu erinnern, sie zu beschreiben und ihre Lösungen zu erklären. Dieser Prozess ist so konzipiert, dass er in einem einzigen Durchgang durchgeführt wird, wodurch das LLM relevante Beispiele generieren und das anfängliche Problem nahtlos lösen kann. Die Verwendung von “#” -Symbolen in den Prompts hilft bei der Strukturierung der Antwort, macht sie organisierter und leichter für das Modell zu folgen.
Schlüssige technische Entscheidungen, die in der Arbeit hervorgehoben werden, umfassen die Betonung der Generierung relevanter und vielfältiger Beispiele, die Übernahme eines Single-Pass-Ansatzes für größere Bequemlichkeit und die Feststellung, dass die Generierung von drei bis fünf Beispielen die besten Ergebnisse liefert.
Selbstgeneriertes Wissen + Beispiele
Die zweite Technik, selbstgeneriertes Wissen + Beispiele, wird eingeführt, um Herausforderungen in komplexeren Aufgaben wie der Codegenerierung zu bewältigen. In diesen Szenarien können LLMs möglicherweise zu sehr auf niedrigere Beispiele angewiesen sein und Schwierigkeiten haben, bei der Lösung der Zielprobleme zu verallgemeinern. Um dies zu mildern, schlagen die Autoren vor, den Prompt mit einer zusätzlichen Anweisung zu erweitern, die das Modell auffordert, Kernkonzepte im Problem zu identifizieren und ein Tutorial oder eine hochrangige Zusammenfassung bereitzustellen.
Eine kritische Überlegung ist die Reihenfolge, in der Wissen und Beispiele generiert werden. Die Autoren stellten fest, dass die Generierung von Wissen vor Beispielen zu besseren Ergebnissen führt, da es dem LLM hilft, sich auf die grundlegenden Problemlösungsansätze zu konzentrieren, anstatt nur auf oberflächliche Ähnlichkeiten.
Vorteile und Anwendungen
Der Ansatz des analogen Promptings bietet mehrere Vorteile. Er bietet detaillierte Beispiele des Reasonings ohne die Notwendigkeit von manueller Markierung, wodurch Herausforderungen im Zusammenhang mit 0-Shot- und Few-Shot-Chain-of-Thought-(CoT)-Methoden angegangen werden. Darüber hinaus sind die generierten Beispiele auf einzelne Probleme zugeschnitten, wodurch sie relevantere Anleitung bieten als traditionelle Few-Shot-CoT, die feste Beispiele verwendet.
Die Arbeit demonstriert die Wirksamkeit dieses Ansatzes bei verschiedenen Reasoning-Aufgaben, einschließlich Mathematikproblemlösung, Codegenerierung und anderen Reasoning-Aufgaben in BIG-Bench.
Die folgenden Tabellen zeigen Leistungsmetriken verschiedener Prompt-Methoden über verschiedene Modellarchitekturen hinweg. Bemerkenswerterweise übertrifft die Methode “Selbstgenerierte Beispiele” konsistent andere Methoden in Bezug auf Genauigkeit. Bei der GSM8K-Genauigkeit erreicht diese Methode mit dem PaLM2-Modell die höchste Leistung von 81,7%. Ähnlich verhält es sich bei der MATH-Genauigkeit, bei der sie mit dem GPT3.5-Turbo-Modell die Spitze der Tabelle mit 37,3% erreicht.
In der zweiten Tabelle zeigt die “Selbstgenerierte Wissen + Beispiele”-Methode für die Modelle GPT3.5-Turbo-16k und GPT4 die beste Leistung.
Arbeit 2: Ein Schritt zurück: Reasoning durch Abstraktion in Large Language Models
Überblick
Die zweite Arbeit, “Ein Schritt zurück: Reasoning durch Abstraktion in Large Language Models“, stellt eine Technik namens Schritt-zurück-Prompting vor, die LLMs ermutigt, hochrangige Konzepte und Grundprinzipien aus detaillierten Instanzen abzuleiten. Die Autoren, Huaixiu Steven Zheng, Swaroop Mishra und andere, zielen darauf ab, die Reasoning-Fähigkeiten von LLMs zu verbessern, indem sie sie anleiten, einen korrekten Reasoning-Pfad zur Lösung zu folgen.

Darstellung des SCHRI TT-ZURÜCK-PROMPTINGS durch zwei Phasen der Abstraktion und des Reasonings, gesteuert durch Schlüsselkonzepte und Prinzipien
Lassen Sie uns ein einfacheres Beispiel mit einer grundlegenden Mathematikfrage erstellen, um die “Schritt-zurück-Frage”-Technik zu demonstrieren:
Ursprüngliche Frage: Wenn ein Zug mit einer Geschwindigkeit von 60 km/h fährt und eine Strecke von 120 km zurücklegt, wie lange wird er brauchen?
Optionen:
3 Stunden
2 Stunden
1 Stunde
4 Stunden
Ursprüngliche Antwort [Falsch]: Die richtige Antwort ist 1).
Schritt-zurück-Frage: Was ist die grundlegende Formel zur Berechnung der Zeit bei gegebener Geschwindigkeit und Entfernung?
Prinzipien:
Um die Zeit zu berechnen, verwenden wir die Formel:
Zeit = Entfernung / Geschwindigkeit
Endgültige Antwort:
Mit der Formel, Zeit = 120 km / 60 km/h = 2 Stunden.
Die richtige Antwort ist 2) 2 Stunden.
Obwohl LLMs heutzutage diese Frage leicht beantworten können, dient dieses Beispiel dazu, zu zeigen, wie die Schritt-zurück-Technik funktionieren würde. Für komplexere Szenarien kann dieselbe Technik angewendet werden, um das Problem systematisch zu zerlegen und anzugehen. Im Folgenden wird ein komplexeres Beispiel aus der Arbeit gezeigt:
Schüsselkonzepte und Methodik
Die Essenz des Schritt-zurück-Promptings liegt in seiner Fähigkeit, LLMs dazu zu bringen, einen metaphorischen Schritt zurück zu treten, um sie dazu zu ermutigen, das größere Bild zu betrachten, anstatt sich in Details zu verlieren. Dies wird durch eine Reihe sorgfältig gestalteter Prompts erreicht, die die LLMs anleiten, Informationen zu abstrahieren, hochrangige Konzepte abzuleiten und diese Konzepte anzuwenden, um das gegebene Problem zu lösen.
Der Prozess beginnt damit, dass das LLM aufgefordert wird, Details aus den gegebenen Instanzen abzustreifen, um es dazu zu bringen, sich auf die zugrunde liegenden Konzepte und Prinzipien zu konzentrieren. Dieser Schritt ist entscheidend, da er den Rahmen für das LLM schafft, um das Problem aus einer informierteren und prinzipielleren Perspektive anzugehen.
Sobald die hochrangigen Konzepte abgeleitet sind, werden sie verwendet, um das LLM durch die Reasoning-Schritte zur Lösung zu leiten. Diese Anleitung stellt sicher, dass das LLM auf dem richtigen Pfad bleibt, indem es einen logischen und kohärenten Pfad verfolgt, der in den abstrahierten Konzepten und Prinzipien verwurzelt ist.
Die Autoren führen eine Reihe von Experimenten durch, um die Wirksamkeit des Schritt-zurück-Promptings zu validieren, indem sie PaLM-2L-Modelle über eine Reihe von herausfordernden, reasoning-intensiven Aufgaben hinweg verwenden. Diese Aufgaben umfassen STEM-Probleme, Knowledge-QA und Multi-Hop-Reasoning, was einen umfassenden Testbereich für die Bewertung der Technik bietet.
Erhebliche Verbesserungen bei allen Aufgaben
Die Ergebnisse sind beeindruckend, da das Schritt-zurück-Prompting zu erheblichen Leistungssteigerungen bei allen Aufgaben führt. So verbessert die Technik beispielsweise die Leistung von PaLM-2L bei MMLU-Physik und -Chemie um 7% bzw. 11%. Ähnlich verbessert sie die Leistung bei TimeQA um 27% und bei MuSiQue um 7%.
Diese Ergebnisse unterstreichen das Potenzial des Schritt-zurück-Promptings, die Reasoning-Fähigkeiten von LLMs erheblich zu verbessern.
Zusammenfassung
Sowohl die Arbeiten von Google DeepMind als auch die vorgestellten innovativen Ansätze zur Prompt-Engineering zielen darauf ab, die Reasoning-Fähigkeiten von Large Language Models zu verbessern. Analoges Prompting nutzt das Konzept des analogen Reasonings, um Modelle dazu zu ermutigen, ihre eigenen Beispiele und Wissen zu generieren, was zu einer anpassungsfähigeren und effizienteren Problemlösung führt. Andererseits konzentriert sich das Schritt-zurück-Prompting auf die Abstraktion, um Modelle dazu zu bringen, hochrangige Konzepte und Prinzipien abzuleiten, was wiederum ihre Reasoning-Fähigkeiten verbessert.
Diese Forschungsarbeiten bieten wertvolle Einblicke und Methoden, die in verschiedenen Bereichen angewendet werden können, um intelligentere und leistungsfähigere Sprachmodelle zu entwickeln. Da wir weiterhin die Feinheiten der Prompt-Engineering erforschen und verstehen, dienen diese Ansätze als wichtige Schritte auf dem Weg zu fortschrittlicheren und komplexeren KI-Systemen.
















