Ingegneria rapida
Suggerimenti analogici e di passi indietro: un tuffo nei recenti progressi di Google DeepMind

Introduzione
Il prompt engineering si concentra sull'ideazione di suggerimenti efficaci per guidare i modelli linguistici di grandi dimensioni (LLM) come GPT-4 nella generazione delle risposte desiderate. Un suggerimento ben congegnato può fare la differenza tra una risposta vaga o imprecisa e una precisa e perspicace.
Nel più ampio ecosistema dell’intelligenza artificiale, il prompt engineering è uno dei numerosi metodi utilizzati per estrarre informazioni più accurate e contestualmente rilevanti dai modelli linguistici. Altri includono tecniche come l’apprendimento a poche riprese, in cui al modello vengono forniti alcuni esempi per aiutarlo a comprendere il compito, e la messa a punto, in cui il modello viene ulteriormente addestrato su un set di dati più piccolo per specializzare le sue risposte.
Google DeepMind ha recentemente pubblicato due articoli che approfondiscono il prompt engineering e il suo potenziale per migliorare le risposte a molteplici situazioni.
Questi documenti fanno parte dell’esplorazione continua nella comunità dell’intelligenza artificiale per perfezionare e ottimizzare il modo in cui comunichiamo con i modelli linguistici e forniscono nuove informazioni sulla strutturazione dei suggerimenti per una migliore gestione delle query e interazione con il database.
Questo articolo approfondisce i dettagli di questi documenti di ricerca, chiarendo i concetti, le metodologie e le implicazioni delle tecniche proposte, rendendole accessibili anche ai lettori con conoscenze limitate di intelligenza artificiale e PNL.
Articolo 1: Grandi modelli linguistici come ragionatori analogici
Il primo articolo, intitolato “Large Language Models as Analogical Reasoners”, introduce un nuovo approccio di suggerimento chiamato Analogical Prompting. Gli autori, Michihiro Yasunaga, Xinyun Chen e altri, traggono ispirazione dal ragionamento analogico, un processo cognitivo in cui gli esseri umani sfruttano le esperienze passate per affrontare nuovi problemi.
Concetti chiave e metodologia
Il suggerimento analogico incoraggia gli LLM a generare autonomamente esempi o conoscenze rilevanti nel contesto prima di procedere alla risoluzione di un determinato problema. Questo approccio elimina la necessità di esemplari etichettati, offrendo generalità e comodità, e adatta gli esemplari generati a ciascun problema specifico, garantendo l'adattabilità.

A sinistra: i metodi tradizionali per promuovere i LLM si basano su input generici (CoT a 0 colpi) o necessitano di esempi etichettati (CoT a pochi colpi). A destra: il nuovo approccio spinge gli LLM a creare autonomamente esempi rilevanti prima della risoluzione dei problemi, eliminando la necessità di etichettatura e personalizzando gli esempi per ciascuno
Esempi autogenerati
La prima tecnica presentata nell'articolo è quella degli esempi autogenerati. L'idea è di sfruttare la vasta conoscenza che i LLM hanno acquisito durante la loro formazione per aiutarli a risolvere nuovi problemi. Il processo prevede l'aggiunta di un problema target con istruzioni che spingono il modello a richiamare o generare problemi e soluzioni rilevanti.
Ad esempio, dato un problema, il modello viene incaricato di richiamare tre problemi distinti e rilevanti, descriverli e spiegarne le soluzioni. Questo processo è progettato per essere eseguito in un unico passaggio, consentendo al LLM di generare esempi pertinenti e risolvere il problema iniziale senza problemi. L'uso dei simboli "#" nei prompt aiuta a strutturare la risposta, rendendola più organizzata e più facile da seguire per il modello.
Le decisioni tecniche chiave evidenziate nel documento includono l'enfasi sulla generazione di esemplari pertinenti e diversificati, l'adozione di un approccio a passaggio singolo per una maggiore comodità e la constatazione che la generazione da tre a cinque esemplari produce i risultati migliori.
Conoscenza autogenerata + esempi
La seconda tecnica, conoscenza autogenerata + esempi, viene introdotta per affrontare le sfide in compiti più complessi, come la generazione di codice. In questi scenari, gli LLM potrebbero fare eccessivo affidamento su esempi di basso livello e avere difficoltà a generalizzare quando risolvono i problemi target. Per mitigare questo problema, gli autori propongono di migliorare il prompt con un'istruzione aggiuntiva che incoraggi il modello a identificare i concetti fondamentali del problema e fornire un tutorial o un takeaway di alto livello.
Una considerazione critica è l’ordine in cui vengono generati la conoscenza e gli esempi. Gli autori hanno scoperto che generare conoscenza prima degli esempi porta a risultati migliori, poiché aiuta il LLM a concentrarsi sugli approcci fondamentali per la risoluzione dei problemi piuttosto che solo sulle somiglianze a livello superficiale.
Vantaggi e applicazioni
L’approccio analogico offre diversi vantaggi. Fornisce esempi dettagliati di ragionamento senza la necessità di etichettatura manuale, affrontando le sfide associate ai metodi della catena di pensiero (CoT) a 0 e pochi colpi. Inoltre, gli esemplari generati sono adattati ai singoli problemi, offrendo indicazioni più pertinenti rispetto al tradizionale CoT a pochi scatti, che utilizza esemplari fissi.
Il documento dimostra l'efficacia di questo approccio in vari compiti di ragionamento, tra cui la risoluzione di problemi di matematica, la generazione di codice e altri compiti di ragionamento in BIG-Bench.
Le tabelle seguenti presentano le metriche delle prestazioni di vari metodi di richiesta in diverse architetture di modelli. In particolare, il metodo degli “Esempi autogenerati” supera costantemente gli altri metodi in termini di accuratezza. Nella precisione GSM8K, questo metodo raggiunge le prestazioni più elevate sul modello PaLM2 con l'81.7%. Allo stesso modo, per la precisione MATEMATICA, è in cima alla classifica su GPT3.5-turbo con il 37.3%.
Nella seconda tabella, per i modelli GPT3.5-turbo-16k e GPT4, “Conoscenza autogenerata + Esempi” mostra le migliori prestazioni.
Paper 2: Fai un passo indietro: evocare il ragionamento tramite l'astrazione in modelli linguistici di grandi dimensioni
Panoramica
Il secondo articolo, “Fai un passo indietro: evocare il ragionamento tramite l'astrazione in modelli linguistici di grandi dimensioni" presenta Step-Back Prompting, una tecnica che incoraggia gli LLM ad astrarre concetti di alto livello e principi primi da istanze dettagliate. Gli autori, Huaixiu Steven Zheng, Swaroop Mishra e altri mirano a migliorare le capacità di ragionamento degli LLM guidandoli a seguire un corretto percorso di ragionamento verso la soluzione.

Rappresentazione della PROPOSTA DI PASSO INDIETRO attraverso due fasi di Astrazione e Ragionamento, guidate da concetti e principi chiave.
Creiamo un esempio più semplice utilizzando una domanda matematica di base per dimostrare la tecnica della "Domanda Stepback":
Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?
Options:
3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).
Stepback Question: What is the basic formula to calculate time given speed and distance?
Principles:
To calculate time, we use the formula:
Time = Distance / Speed
Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.
Sebbene oggigiorno i LLM possano facilmente rispondere alla domanda di cui sopra, questo esempio è solo per dimostrare come funzionerebbe la tecnica dello stepback. Per scenari più impegnativi, la stessa tecnica può essere applicata per analizzare e affrontare il problema in modo sistematico. Di seguito è riportato un caso più complesso illustrato nel documento:
Concetti chiave e metodologia
L'essenza dello Step-Back Prompting risiede nella sua capacità di far fare ai LLM un metaforico passo indietro, incoraggiandoli a guardare il quadro più ampio piuttosto che perdersi nei dettagli. Ciò si ottiene attraverso una serie di suggerimenti attentamente realizzati che guidano i LLM verso informazioni astratte, derivano concetti di alto livello e applicano questi concetti per risolvere il problema dato.
Il processo inizia con la richiesta del LLM di astrarre i dettagli dalle istanze fornite, incoraggiandolo a concentrarsi sui concetti e principi sottostanti. Questo passaggio è cruciale in quanto pone le basi affinché il LLM possa affrontare il problema da una prospettiva più informata e basata sui principi.
Una volta derivati i concetti di alto livello, vengono utilizzati per guidare il LLM attraverso le fasi di ragionamento verso la soluzione. Questa guida garantisce che il LLM rimanga sulla strada giusta, seguendo un percorso logico e coerente basato su concetti e principi astratti.
Gli autori conducono una serie di esperimenti per convalidare l'efficacia del Prompt Step-Back, utilizzando modelli PaLM-2L in una serie di compiti impegnativi ad alta intensità di ragionamento. Queste attività includono problemi STEM, QA della conoscenza e ragionamento multi-hop, fornendo un banco di prova completo per valutare la tecnica.
Miglioramenti sostanziali nelle attività
I risultati sono impressionanti, con la funzione Step-Back Prompt che porta a sostanziali miglioramenti delle prestazioni in tutte le attività. Ad esempio, la tecnica migliora le prestazioni del PaLM-2L in fisica e chimica MMLU rispettivamente del 7% e dell'11%. Allo stesso modo, aumenta le prestazioni su TimeQA del 27% e su MuSiQue del 7%.
Questi risultati sottolineano il potenziale dello Step-Back Prompting nel migliorare significativamente le capacità di ragionamento degli LLM.
Conclusione
Entrambi gli articoli di Google DeepMind presentano approcci innovativi al prompt engineering, con l'obiettivo di migliorare le capacità di ragionamento di grandi modelli linguistici. Il suggerimento analogico sfrutta il concetto di ragionamento analogico, incoraggiando i modelli a generare i propri esempi e conoscenze, portando a una risoluzione dei problemi più adattabile ed efficiente. D’altro canto, lo Step-Back Prompting si concentra sull’astrazione, guidando i modelli a derivare concetti e principi di alto livello, che a loro volta migliorano le loro capacità di ragionamento.
Questi documenti di ricerca forniscono preziose intuizioni e metodologie che possono essere applicate in vari domini, portando a modelli linguistici più intelligenti e capaci. Mentre continuiamo a esplorare e comprendere le complessità del prompt engineering, questi approcci fungono da trampolini di lancio cruciali verso il raggiungimento di sistemi di intelligenza artificiale più avanzati e sofisticati.