στέλεχος Αναλογική προτροπή και βήμα προς τα πίσω: Μια κατάδυση στις πρόσφατες εξελίξεις από το Google DeepMind - Unite.AI
Συνδεθείτε μαζί μας

Άμεση Μηχανική

Αναλογική προτροπή και βήμα προς τα πίσω: Μια κατάδυση στις πρόσφατες εξελίξεις από το Google DeepMind

mm

Δημοσιευμένα

 on

Νέα έρευνα της Google DeepMind Prompt Engineering

Εισαγωγή

Το Prompt Engineering εστιάζει στην επινόηση αποτελεσματικών προτροπών για την καθοδήγηση Μεγάλων γλωσσικών μοντέλων (LLM) όπως το GPT-4 στη δημιουργία επιθυμητών αποκρίσεων. Μια καλοφτιαγμένη προτροπή μπορεί να είναι η διαφορά ανάμεσα σε μια ασαφή ή ανακριβή απάντηση και μια ακριβή, διορατική απάντηση.

Στο ευρύτερο οικοσύστημα της τεχνητής νοημοσύνης, η άμεση μηχανική είναι μία από τις πολλές μεθόδους που χρησιμοποιούνται για την εξαγωγή πιο ακριβών και συναφών πληροφοριών από γλωσσικά μοντέλα. Άλλες περιλαμβάνουν τεχνικές όπως η εκμάθηση με λίγες λήψεις, όπου δίνονται στο μοντέλο μερικά παραδείγματα για να το βοηθήσουν να κατανοήσει την εργασία και τη λεπτομέρεια, όπου το μοντέλο εκπαιδεύεται περαιτέρω σε ένα μικρότερο σύνολο δεδομένων για να εξειδικεύσει τις απαντήσεις του.

Google DeepMind δημοσίευσε πρόσφατα δύο εργασίες που εμβαθύνουν στην άμεση μηχανική και τις δυνατότητές της να ενισχύσει τις απαντήσεις σε πολλαπλές καταστάσεις.

Αυτά τα έγγραφα αποτελούν μέρος της συνεχιζόμενης εξερεύνησης στην κοινότητα της τεχνητής νοημοσύνης για τη βελτίωση και τη βελτιστοποίηση του τρόπου επικοινωνίας με τα μοντέλα γλώσσας και παρέχουν νέες πληροφορίες σχετικά με τη δομή των προτροπών για καλύτερο χειρισμό ερωτημάτων και αλληλεπίδραση με βάση δεδομένων.

Αυτό το άρθρο εμβαθύνει στις λεπτομέρειες αυτών των ερευνητικών εργασιών, διευκρινίζοντας τις έννοιες, τις μεθοδολογίες και τις επιπτώσεις των προτεινόμενων τεχνικών, καθιστώντας το προσβάσιμο ακόμη και σε αναγνώστες με περιορισμένες γνώσεις σε AI και NLP.

Εργασία 1: Μεγάλα γλωσσικά μοντέλα ως αναλογικοί λόγοι

Η πρώτη εργασία, με τίτλο «Μοντέλα μεγάλων γλωσσών ως αναλογικοί λόγοι», εισάγει μια νέα προσέγγιση προτροπής που ονομάζεται Αναλογική προτροπή. Οι συγγραφείς, Michihiro Yasunaga, Xinyun Chen και άλλοι, αντλούν έμπνευση από τον αναλογικό συλλογισμό - μια γνωστική διαδικασία όπου οι άνθρωποι αξιοποιούν τις προηγούμενες εμπειρίες για να αντιμετωπίσουν νέα προβλήματα.

Βασικές Έννοιες και Μεθοδολογία

Το Analogical Prompting ενθαρρύνει τους LLMs να παράγουν από μόνοι τους σχετικά υποδείγματα ή γνώσεις στο πλαίσιο πριν προχωρήσουν στην επίλυση ενός δεδομένου προβλήματος. Αυτή η προσέγγιση εξαλείφει την ανάγκη για υποδείγματα με ετικέτα, προσφέροντας γενικότητα και ευκολία, και προσαρμόζει τα παραγόμενα υποδείγματα σε κάθε συγκεκριμένο πρόβλημα, διασφαλίζοντας την προσαρμοστικότητα.

Αριστερά: Οι παραδοσιακές μέθοδοι παρότρυνσης για LLM βασίζονται σε γενικές εισροές (0-shot CoT) ή απαιτούν παραδείγματα με ετικέτα (few-shot CoT). Δεξιά: Η νέα προσέγγιση προτρέπει τους LLM να δημιουργήσουν μόνοι τους σχετικά παραδείγματα πριν από την επίλυση προβλημάτων, αφαιρώντας την ανάγκη για επισήμανση, ενώ προσαρμόζουν παραδείγματα σε κάθε μοναδικό πρόβλημα

Αριστερά: Οι παραδοσιακές μέθοδοι παρότρυνσης για LLM βασίζονται σε γενικές εισροές (0-shot CoT) ή απαιτούν παραδείγματα με ετικέτα (few-shot CoT). Δεξιά: Η νέα προσέγγιση προτρέπει τους LLM να δημιουργήσουν μόνοι τους σχετικά παραδείγματα πριν από την επίλυση προβλημάτων, αφαιρώντας την ανάγκη για επισήμανση, ενώ προσαρμόζουν παραδείγματα σε κάθε

Αυτο-δημιουργημένα Παραδείγματα

Η πρώτη τεχνική που παρουσιάζεται στην εργασία είναι τα αυτοπαραγόμενα υποδείγματα. Η ιδέα είναι να αξιοποιηθεί η εκτεταμένη γνώση που έχουν αποκτήσει οι LLM κατά τη διάρκεια της εκπαίδευσής τους για να τους βοηθήσουν να λύσουν νέα προβλήματα. Η διαδικασία περιλαμβάνει την αύξηση ενός προβλήματος στόχου με οδηγίες που προτρέπουν το μοντέλο να ανακαλέσει ή να δημιουργήσει σχετικά προβλήματα και λύσεις.

Για παράδειγμα, δεδομένου ενός προβλήματος, το μοντέλο έχει εντολή να ανακαλεί τρία διαφορετικά και σχετικά προβλήματα, να τα περιγράφει και να εξηγεί τις λύσεις τους. Αυτή η διαδικασία έχει σχεδιαστεί για να εκτελείται με ένα μόνο πέρασμα, επιτρέποντας στο LLM να δημιουργήσει σχετικά παραδείγματα και να λύσει το αρχικό πρόβλημα απρόσκοπτα. Η χρήση των συμβόλων «#» στις προτροπές βοηθά στη δομή της απόκρισης, καθιστώντας την πιο οργανωμένη και ευκολότερη για το μοντέλο να ακολουθήσει.

Οι βασικές τεχνικές αποφάσεις που επισημαίνονται στο έγγραφο περιλαμβάνουν την έμφαση στη δημιουργία σχετικών και διαφορετικών υποδειγμάτων, την υιοθέτηση μιας προσέγγισης με ένα πέρασμα για μεγαλύτερη ευκολία και τη διαπίστωση ότι η δημιουργία τριών έως πέντε υποδειγμάτων αποφέρει τα καλύτερα αποτελέσματα.

Γνώση που παράγεται από τον εαυτό σας + Παραδείγματα

Η δεύτερη τεχνική, η αυτοπαραγόμενη γνώση + υποδείγματα, εισάγεται για την αντιμετώπιση προκλήσεων σε πιο σύνθετες εργασίες, όπως η δημιουργία κώδικα. Σε αυτά τα σενάρια, οι LLM μπορεί να βασίζονται υπερβολικά σε υποδείγματα χαμηλού επιπέδου και να δυσκολεύονται να γενικεύσουν κατά την επίλυση των προβλημάτων-στόχων. Για να μετριαστεί αυτό, οι συγγραφείς προτείνουν τη βελτίωση της προτροπής με μια πρόσθετη οδηγία που ενθαρρύνει το μοντέλο να προσδιορίσει τις βασικές έννοιες του προβλήματος και να παρέχει ένα σεμινάριο ή ένα σεμινάριο υψηλού επιπέδου.

Ένα κρίσιμο κριτήριο είναι η σειρά με την οποία παράγονται η γνώση και τα υποδείγματα. Οι συγγραφείς διαπίστωσαν ότι η παραγωγή γνώσης πριν από τα υποδείγματα οδηγεί σε καλύτερα αποτελέσματα, καθώς βοηθά το LLM να επικεντρωθεί στις θεμελιώδεις προσεγγίσεις επίλυσης προβλημάτων και όχι απλώς στις ομοιότητες σε επίπεδο επιφάνειας.

Πλεονεκτήματα και εφαρμογές

Η αναλογική προσέγγιση προτροπής προσφέρει πολλά πλεονεκτήματα. Παρέχει λεπτομερή παραδείγματα συλλογισμού χωρίς την ανάγκη χειροκίνητης επισήμανσης, αντιμετωπίζοντας προκλήσεις που σχετίζονται με τις μεθόδους 0-shot και λίγες-shot chain-of-tought (CoT). Επιπλέον, τα παραγόμενα υποδείγματα είναι προσαρμοσμένα σε μεμονωμένα προβλήματα, προσφέροντας πιο σχετική καθοδήγηση από το παραδοσιακό CoT με λίγες λήψεις, το οποίο χρησιμοποιεί σταθερά υποδείγματα.

Το έγγραφο καταδεικνύει την αποτελεσματικότητα αυτής της προσέγγισης σε διάφορες συλλογιστικές εργασίες, συμπεριλαμβανομένης της επίλυσης μαθηματικών προβλημάτων, της δημιουργίας κώδικα και άλλων συλλογιστικών εργασιών στο BIG-Bench.

Οι παρακάτω πίνακες παρουσιάζουν μετρήσεις απόδοσης διαφόρων μεθόδων προτροπής σε διαφορετικές αρχιτεκτονικές μοντέλων. Συγκεκριμένα, η μέθοδος "Self-generated Exemplars" ξεπερνά σταθερά άλλες μεθόδους όσον αφορά την ακρίβεια. Με ακρίβεια GSM8K, αυτή η μέθοδος επιτυγχάνει την υψηλότερη απόδοση στο μοντέλο PaLM2 στο 81.7%. Ομοίως, για την ακρίβεια των μαθηματικών, βρίσκεται στην κορυφή του διαγράμματος στο GPT3.5-turbo στο 37.3%.

Απόδοση σε μαθηματικές εργασίες, GSM8K και MATH

Απόδοση σε μαθηματικές εργασίες, GSM8K και MATH

Στον δεύτερο πίνακα, για τα μοντέλα GPT3.5-turbo-16k και GPT4, το "Self-generated Knowledge + Exemplars" δείχνει την καλύτερη απόδοση.

Απόδοση στην εργασία δημιουργίας κώδικα Codeforces

Απόδοση στην εργασία δημιουργίας κώδικα Codeforces

Paper 2: Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models

Επισκόπηση

Το δεύτερο χαρτί, "Κάντε ένα βήμα πίσω: Προκαλώντας συλλογισμό μέσω αφαίρεσης σε μεγάλα γλωσσικά μοντέλα” παρουσιάζει το Step-Back Prompting, μια τεχνική που ενθαρρύνει τους LLM να αφαιρούν έννοιες υψηλού επιπέδου και πρώτες αρχές από λεπτομερείς περιπτώσεις. Οι συγγραφείς, Huaixiu Steven Zheng, Swaroop Mishra και άλλοι στοχεύουν να βελτιώσουν τις συλλογιστικές ικανότητες των LLMs καθοδηγώντας τους να ακολουθήσουν μια σωστή συλλογιστική πορεία προς τη λύση.

Απεικόνιση της ΠΡΟΤΡΟΠΗΣ ΒΗΜΑΤΟΣ ΠΙΣΩ μέσω δύο φάσεων Αφαίρεσης και Συλλογισμού, που καθοδηγούνται από βασικές έννοιες και αρχές.

Απεικόνιση της ΠΡΟΤΡΟΠΗΣ ΒΗΜΑΤΟΣ ΠΙΣΩ μέσω δύο φάσεων Αφαίρεσης και Συλλογισμού, που καθοδηγούνται από βασικές έννοιες και αρχές.

Ας δημιουργήσουμε ένα απλούστερο παράδειγμα χρησιμοποιώντας μια βασική μαθηματική ερώτηση για να δείξουμε την τεχνική «Stepback Question»:

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Αν και τα LLM σήμερα μπορούν εύκολα να απαντήσουν στην παραπάνω ερώτηση, αυτό το παράδειγμα είναι απλώς για να δείξει πώς θα λειτουργούσε η τεχνική stepback. Για πιο δύσκολα σενάρια, η ίδια τεχνική μπορεί να εφαρμοστεί για την ανατομή και την αντιμετώπιση του προβλήματος συστηματικά. Παρακάτω είναι μια πιο περίπλοκη περίπτωση που παρουσιάζεται στην εργασία:

ΒΗΜΑ ΠΙΣΩ στο σύνολο δεδομένων MMLU-Chemistry

ΒΗΜΑ ΠΙΣΩ στο σύνολο δεδομένων MMLU-Chemistry

Βασικές Έννοιες και Μεθοδολογία

Η ουσία του Step-Back Prompting έγκειται στην ικανότητά του να κάνει τους LLM να κάνουν ένα μεταφορικό βήμα πίσω, ενθαρρύνοντάς τους να κοιτάξουν τη μεγαλύτερη εικόνα αντί να χαθούν στις λεπτομέρειες. Αυτό επιτυγχάνεται μέσω μιας σειράς προσεκτικά σχεδιασμένων προτροπών που καθοδηγούν τα LLM σε αφηρημένες πληροφορίες, αντλούν έννοιες υψηλού επιπέδου και εφαρμόζουν αυτές τις έννοιες για να λύσουν το δεδομένο πρόβλημα.

Η διαδικασία ξεκινά με το LLM που ζητείται να αφαιρέσει λεπτομέρειες από τις δεδομένες περιπτώσεις, ενθαρρύνοντάς το να επικεντρωθεί στις υποκείμενες έννοιες και αρχές. Αυτό το βήμα είναι ζωτικής σημασίας, καθώς θέτει το σκηνικό για το LLM να προσεγγίσει το πρόβλημα από μια πιο ενημερωμένη και βασική προοπτική.

Μόλις προκύψουν οι έννοιες υψηλού επιπέδου, χρησιμοποιούνται για να καθοδηγήσουν το LLM στα συλλογιστικά βήματα προς τη λύση. Αυτή η καθοδήγηση διασφαλίζει ότι το LLM παραμένει στο σωστό δρόμο, ακολουθώντας μια λογική και συνεκτική διαδρομή που βασίζεται σε αφηρημένες έννοιες και αρχές.

Οι συγγραφείς διεξάγουν μια σειρά πειραμάτων για να επικυρώσουν την αποτελεσματικότητα της Προτροπής Step-Back, χρησιμοποιώντας μοντέλα PaLM-2L σε μια σειρά απαιτητικών εργασιών που απαιτούν συλλογισμό. Αυτές οι εργασίες περιλαμβάνουν προβλήματα STEM, Γνώση QA και Multi-Hop Reasoning, παρέχοντας μια ολοκληρωμένη βάση δοκιμών για την αξιολόγηση της τεχνικής.

Ουσιαστικές βελτιώσεις σε όλες τις εργασίες

Τα αποτελέσματα είναι εντυπωσιακά, με το Step-Back Prompting να οδηγεί σε σημαντικά κέρδη απόδοσης σε όλες τις εργασίες. Για παράδειγμα, η τεχνική βελτιώνει την απόδοση του PaLM-2L στο MMLU Physics και Chemistry κατά 7% και 11%, αντίστοιχα. Ομοίως, ενισχύει την απόδοση στο TimeQA κατά 27% και στο MuSiQue κατά 7%.

Εκτέλεση του STEP-BACK PROMPTING

Απόδοση του STEP-BACK PROMPTING vs CoT

Αυτά τα αποτελέσματα υπογραμμίζουν τη δυνατότητα του Step-Back Prompting να ενισχύσει σημαντικά τις συλλογιστικές ικανότητες των LLMs.

Συμπέρασμα

Και οι δύο εργασίες από το Google DeepMind παρουσιάζουν καινοτόμες προσεγγίσεις για την άμεση μηχανική, με στόχο την ενίσχυση των συλλογιστικών ικανοτήτων μεγάλων γλωσσικών μοντέλων. Το Analogical Prompting αξιοποιεί την έννοια του αναλογικού συλλογισμού, ενθαρρύνοντας τα μοντέλα να δημιουργήσουν τα δικά τους παραδείγματα και γνώσεις, οδηγώντας σε πιο προσαρμόσιμη και αποτελεσματική επίλυση προβλημάτων. Από την άλλη πλευρά, το Step-Back Prompting εστιάζει στην αφαίρεση, καθοδηγώντας τα μοντέλα για να αντλήσουν έννοιες και αρχές υψηλού επιπέδου, οι οποίες με τη σειρά τους βελτιώνουν τις συλλογιστικές τους ικανότητες.

Αυτές οι ερευνητικές εργασίες παρέχουν πολύτιμες γνώσεις και μεθοδολογίες που μπορούν να εφαρμοστούν σε διάφορους τομείς, οδηγώντας σε πιο έξυπνα και ικανά γλωσσικά μοντέλα. Καθώς συνεχίζουμε να διερευνούμε και να κατανοούμε τις περιπλοκές της άμεσης μηχανικής, αυτές οι προσεγγίσεις χρησιμεύουν ως κρίσιμα βήματα προς την επίτευξη πιο προηγμένων και εξελιγμένων συστημάτων τεχνητής νοημοσύνης.

Έχω περάσει τα τελευταία πέντε χρόνια βυθίζοντας τον εαυτό μου στον συναρπαστικό κόσμο της Μηχανικής Μάθησης και της Βαθιάς Μάθησης. Το πάθος και η εξειδίκευσή μου με οδήγησαν να συνεισφέρω σε περισσότερα από 50 διαφορετικά έργα μηχανικής λογισμικού, με ιδιαίτερη έμφαση στην AI/ML. Η συνεχής περιέργειά μου με έχει τραβήξει επίσης προς την Επεξεργασία Φυσικής Γλώσσας, έναν τομέα που ανυπομονώ να εξερευνήσω περαιτέρω.