בדל הנחיה אנלוגית וצעד אחורה: צלילה אל ההתקדמות האחרונה מאת Google DeepMind - Unite.AI
צור קשר

הנדסה מהירה

הנחיה אנלוגית וצעד אחורה: צלילה אל ההתקדמות האחרונה מאת Google DeepMind

mm

יצא לאור

 on

Google DeepMind Prompt Engineering מחקר חדש

מבוא

הנדסה מהירה מתמקדת בהמצאת הנחיות יעילות להנחות מודלים של שפה גדולה (LLMs) כגון GPT-4 ביצירת תגובות רצויות. הנחיה מעוצבת היטב יכולה להיות ההבדל בין תשובה מעורפלת או לא מדויקת לבין תשובה מדויקת ומלאת תובנה.

במערכת האקולוגית הרחבה יותר של AI, הנדסה מהירה היא אחת מכמה שיטות המשמשות לחילוץ מידע מדויק יותר ורלוונטי יותר מבחינה הקשרית ממודלים של שפות. אחרות כוללות טכניקות כמו למידה של מעט יריות, שבהן המודל מקבל כמה דוגמאות כדי לעזור לו להבין את המשימה, וכיוונון עדין, שבו המודל מאומן על מערך נתונים קטן יותר כדי להתמחות בתגובות שלו.

גוגל DeepMind פרסם לאחרונה שני מאמרים שמתעמקים בהנדסה מהירה ובפוטנציאל שלה לשפר תגובות על מצבים מרובים.

מאמרים אלה הם חלק מהחקירה המתמשכת בקהילת הבינה המלאכותית כדי לחדד ולייעל את האופן שבו אנו מתקשרים עם מודלים של שפות, והם מספקים תובנות חדשות לגבי מבנה הנחיות לטיפול טוב יותר בשאילתות ואינטראקציה עם מסד נתונים.

מאמר זה מתעמק בפרטים של מאמרי מחקר אלה, מבהיר את המושגים, המתודולוגיות וההשלכות של הטכניקות המוצעות, מה שהופך אותם לנגישים אפילו לקוראים בעלי ידע מוגבל ב-AI ו-NLP.

מאמר 1: מודלים שפה גדולים כסמקולים אנלוגיים

המאמר הראשון, שכותרתו "מודלים של שפה גדולה כסומקים אנלוגיים", מציג גישה חדשה של הנחיה בשם הנחיה אנלוגית. המחברים, Michihiro Yasunaga, Xinyun Chen ואחרים, שואבים השראה מהיגיון אנלוגי - תהליך קוגניטיבי שבו בני אדם ממנפים את חוויות העבר כדי להתמודד עם בעיות חדשות.

מושגי מפתח ומתודולוגיה

הנחיה אנלוגית מעודדת את ה-LLMs ליצור בעצמם דוגמאות או ידע רלוונטיים בהקשר לפני המשך פתרון בעיה נתונה. גישה זו מבטלת את הצורך במופתים מתויגים, המציעים כלליות ונוחות, ומתאימה את המופתים שנוצרו לכל בעיה ספציפית, מה שמבטיח יכולת הסתגלות.

משמאל: שיטות מסורתיות להנחות LLMs מסתמכות על תשומות גנריות (0-shot CoT) או מחייבות דוגמאות מתויגות (few-shot CoT). מימין: הגישה החדשנית מניחה את ה-LLMs ליצור בעצמם דוגמאות רלוונטיות לפני פתרון בעיות, תוך הסרת הצורך בתיוג תוך התאמה אישית של דוגמאות לכל בעיה ייחודית

משמאל: שיטות מסורתיות להנחות LLMs מסתמכות על תשומות גנריות (0-shot CoT) או מחייבות דוגמאות מתויגות (few-shot CoT). מימין: הגישה החדשנית מניחה את ה-LLMs ליצור בעצמם דוגמאות רלוונטיות לפני פתרון בעיות, תוך הסרת הצורך בתיוג תוך התאמה אישית של דוגמאות לכל

מופתים שנוצרו בעצמם

הטכניקה הראשונה המוצגת במאמר היא מופתים שנוצרו בעצמם. הרעיון הוא למנף את הידע הנרחב שרכשו אנשי LLM במהלך ההכשרה שלהם כדי לעזור להם לפתור בעיות חדשות. התהליך כרוך בהגדלת בעיית יעד עם הוראות המניעות את המודל להיזכר או ליצור בעיות ופתרונות רלוונטיים.

לדוגמה, בהינתן בעיה, המודל מקבל הוראה להיזכר בשלוש בעיות מובחנות ורלוונטיות, לתאר אותן ולהסביר את הפתרונות שלהן. תהליך זה נועד להתבצע במעבר אחד, מה שמאפשר ל-LLM ליצור דוגמאות רלוונטיות ולפתור את הבעיה הראשונית בצורה חלקה. השימוש בסמלים '#' בהנחיות מסייע במבנה התגובה, מה שהופך אותה למאורגנת יותר וקלה יותר עבור המודל לעקוב אחריה.

החלטות טכניות מרכזיות המודגשות במאמר כוללות את הדגש על יצירת דוגמאות רלוונטיות ומגוונות, אימוץ גישה של מעבר יחיד לנוחות רבה יותר, והממצא שיצירת שלושה עד חמישה דוגמאות מניבה את התוצאות הטובות ביותר.

ידע שנוצר בעצמו + מופתים

הטכניקה השנייה, ידע שנוצר בעצמו + מופתים, מוצגת כדי להתמודד עם אתגרים במשימות מורכבות יותר, כגון יצירת קוד. בתרחישים אלה, LLMs עשויים להסתמך יתר על המידה על מופתים ברמה נמוכה ולהתקשה להכליל בעת פתרון בעיות היעד. כדי למתן את זה, המחברים מציעים לשפר את ההנחיה עם הוראה נוספת המעודדת את המודל לזהות מושגי ליבה בבעיה ולספק הדרכה או טייק אווי ברמה גבוהה.

שיקול קריטי אחד הוא הסדר שבו נוצרים ידע ומופת. המחברים מצאו שיצירת ידע לפני מופתים מובילה לתוצאות טובות יותר, מכיוון שהיא עוזרת ל-LLM להתמקד בגישות הבסיסיות לפתרון בעיות ולא רק בדמיון ברמת השטח.

יתרונות ויישומים

גישת ההנחיה האנלוגית מציעה מספר יתרונות. הוא מספק דוגמאות מפורטות של נימוקים ללא צורך בתיוג ידני, תוך התייחסות לאתגרים הקשורים לשיטות של 0-shot ו-what-shot chain-of-thought (CoT). בנוסף, הדוגמאות שנוצרו מותאמות לבעיות אינדיבידואליות, ומציעות הדרכה רלוונטית יותר מ-CoT מסורתיים של מעט יריות, המשתמשת בדוגמאות קבועות.

המאמר מדגים את היעילות של גישה זו על פני משימות חשיבה שונות, כולל פתרון בעיות במתמטיקה, יצירת קוד ומשימות חשיבה אחרות ב-BIG-Bench.

הטבלאות שלהלן מציגות מדדי ביצועים של שיטות הנחיה שונות על פני ארכיטקטורות מודלים שונות. יש לציין, ששיטת "מופתים שנוצרו בעצמם" עולה באופן עקבי על שיטות אחרות מבחינת דיוק. ברמת דיוק GSM8K, שיטה זו משיגה את הביצועים הגבוהים ביותר בדגם PaLM2 ב-81.7%. באופן דומה, עבור דיוק MATH, הוא נמצא בראש הטבלה ב-GPT3.5-טורבו ב-37.3%.

ביצועים במשימות מתמטיות, GSM8K ו-MATH

ביצועים במשימות מתמטיות, GSM8K ו-MATH

בטבלה השנייה, עבור הדגמים GPT3.5-turbo-16k ו-GPT4, "ידע שנוצר בעצמו + מופתים" מציג את הביצועים הטובים ביותר.

ביצועים במשימת יצירת קוד של Codeforces

ביצועים במשימת יצירת קוד של Codeforces

מאמר 2: קח צעד אחורה: עורר היגיון באמצעות הפשטה במודלים של שפות גדולות

סקירה כללית

העיתון השני, "קח צעד אחורה: עורר היגיון באמצעות הפשטה במודלים של שפות גדולותמציג Step-Back Prompting, טכניקה המעודדת LLMs להפשט מושגים ברמה גבוהה ועקרונות ראשונים ממופעים מפורטים. המחברים, Huaixiu Steven Zheng, Swaroop Mishra ואחרים שואפים לשפר את יכולות החשיבה של LLMs על ידי הדרכתם ללכת בנתיב חשיבה נכון לקראת הפתרון.

מתאר STEP-BACK PROMPTING דרך שני שלבים של הפשטה והיגיון, המנווטים על ידי מושגים ועקרונות מפתח.

מתאר STEP-BACK PROMPTING דרך שני שלבים של הפשטה והיגיון, המנווטים על ידי מושגים ועקרונות מפתח.

בואו ניצור דוגמה פשוטה יותר באמצעות שאלה בסיסית במתמטיקה כדי להדגים את טכניקת "שאלת צעד אחורה":

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

למרות שלימודי תואר שני בימינו יכולים לענות בקלות על השאלה שלעיל, דוגמה זו היא רק כדי להדגים כיצד תעבוד טכניקת הצעד האחורי. עבור תרחישים מאתגרים יותר, ניתן ליישם את אותה טכניקה כדי לנתח ולטפל בבעיה באופן שיטתי. להלן מקרה מורכב יותר שהודגם במאמר:

בקשת צעד אחורה במערך הנתונים של MMLU-Chemistry

בקשת צעד אחורה במערך הנתונים של MMLU-Chemistry

מושגי מפתח ומתודולוגיה

המהות של דחיית צעד אחורה טמונה ביכולתה לגרום ל-LLM לקחת צעד מטפורי אחורה, ולעודד אותם להסתכל על התמונה הגדולה יותר מאשר ללכת לאיבוד בפרטים. זה מושג באמצעות סדרה של הנחיות מעוצבות בקפידה המנחות את ה-LLMs למידע מופשט, להפיק מושגים ברמה גבוהה, ולהחיל מושגים אלה כדי לפתור את הבעיה הנתונה.

התהליך מתחיל בכך שה-LLM מתבקש להפשט פרטים מהמקרים הנתונים, ולעודד אותו להתמקד במושגים ובעקרונות הבסיסיים. שלב זה הוא מכריע מכיוון שהוא מציב את השלב עבור ה-LLM לגשת לבעיה מנקודת מבט מושכלת ועקרונית יותר.

לאחר שנגזרו המושגים ברמה הגבוהה, הם משמשים כדי להנחות את ה-LLM דרך שלבי ההיגיון לקראת הפתרון. הנחיה זו מבטיחה שה-LLM יישאר במסלול הנכון, בעקבות מסלול הגיוני וקוהרנטי המבוסס על המושגים והעקרונות המופשטים.

המחברים עורכים סדרה של ניסויים כדי לאמת את האפקטיביות של Step-Back Prompting, תוך שימוש במודלים של PaLM-2L על פני מגוון משימות מאתגרות עתירות חשיבה. משימות אלו כוללות בעיות STEM, ידע QA ונימוק רב-הופ, המספקים ערכת מבחן מקיפה להערכת הטכניקה.

שיפורים מהותיים בין משימות

התוצאות מרשימות, כאשר הנחיית צעד אחורה מובילה לשיפורי ביצועים משמעותיים בכל המשימות. לדוגמה, הטכניקה משפרת את ביצועי PaLM-2L ב-MMLU פיזיקה וכימיה ב-7% ו-11%, בהתאמה. באופן דומה, הוא משפר את הביצועים ב-TimeQA ב-27% וב-MusiQue ב-7%.

ביצועים של STEP-BACK PROMPTING

ביצועים של STEP-BACK PROMPTING לעומת CoT

תוצאות אלו מדגישות את הפוטנציאל של הנחיות צעד אחורה לשפר משמעותית את יכולות החשיבה של LLMs.

סיכום

שני המאמרים של Google DeepMind מציגים גישות חדשניות להנדסה מהירה, במטרה לשפר את יכולות החשיבה של מודלים של שפות גדולות. הנחיה אנלוגית ממנפת את הרעיון של חשיבה אנלוגית, ומעודדת מודלים לייצר דוגמאות וידע משלהם, מה שמוביל לפתרון בעיות סתגלן ויעיל יותר. מצד שני, Step-Back Prompting מתמקדת בהפשטה, ומנחה מודלים להפקת מושגים ועקרונות ברמה גבוהה, אשר בתורם, משפרים את יכולות החשיבה שלהם.

עבודות מחקר אלו מספקות תובנות ומתודולוגיות חשובות שניתן ליישם בתחומים שונים, מה שמוביל למודלים שפה אינטליגנטיים ובעלי יכולת גבוהה יותר. ככל שאנו ממשיכים לחקור ולהבין את המורכבויות של הנדסה מהירה, גישות אלו משמשות אבני קפיצה מכריעות לקראת השגת מערכות בינה מלאכותית מתקדמות ומתוחכמות יותר.

ביליתי את חמש השנים האחרונות בשקיעת עצמי בעולם המרתק של למידת מכונה ולמידה עמוקה. התשוקה והמומחיות שלי הובילו אותי לתרום ליותר מ-50 פרויקטים מגוונים של הנדסת תוכנה, עם התמקדות מיוחדת ב-AI/ML. הסקרנות המתמשכת שלי משכה אותי גם לעבר עיבוד שפה טבעית, תחום שאני להוט לחקור עוד יותר.