בדל 3 דרכים לשמור על עובדות מעופשות טריות במודלים של שפות גדולות - Unite.AI
צור קשר

מנהיגי מחשבה

3 דרכים לשמור על עובדות מעופשות טריות במודלים של שפות גדולות

mm

יצא לאור

 on

מודלים גדולים של שפה (LLM) כמו GPT3, ChatGPT ו-BARD הם כל הזעם היום. לכל אחד יש דעה לגבי האופן שבו הכלים האלה טובים או רעים לחברה ומה המשמעות שלהם לעתיד הבינה המלאכותית. גוגל זכתה להתייחסות רבה על הדגם החדש שלה BARD ששגה בשאלה מורכבת (קצת). כששואלים אותי "על אילו תגליות חדשות מטלסקופ החלל ג'יימס ווב אני יכול לספר לילד בן ה-9 שלי?" – הצ'אטבוט סיפק שלוש תשובות, מתוכן 2 נכונות ו-1 שגוי. השגוי היה שתמונת ה"אקסופלנט" הראשונה צולמה על ידי JWST, וזה היה שגוי. אז בעצם, למודל הייתה עובדה לא נכונה מאוחסנת במאגר הידע שלו. כדי שמודלים של שפה גדולים יהיו יעילים, אנחנו צריכים דרך לעדכן את העובדות האלה או להגדיל את העובדות עם ידע חדש.

בואו נסתכל תחילה כיצד מאוחסנות עובדות בתוך מודל שפה גדול (LLM). מודלים של שפה גדולים אינם מאחסנים מידע ועובדות במובן המסורתי כמו מסדי נתונים או קבצים. במקום זאת, הם אומנו על כמויות עצומות של נתוני טקסט ולמדו דפוסים ויחסים בנתונים אלה. זה מאפשר להם ליצור תשובות דמויות אנושיות לשאלות, אבל אין להם מיקום אחסון ספציפי למידע הנלמד שלהם. כאשר עונה על שאלה, המודל משתמש בהכשרתו כדי ליצור תגובה על סמך הקלט שהוא מקבל. המידע והידע שיש למודל שפה הם תוצאה של הדפוסים שהוא למד בנתונים שעליהם הוא הוכשר, ולא תוצאה של שמירתו באופן מפורש בזיכרון המודל. לארכיטקטורת הרובוטריקים שעליה מבוססים רוב ה-LLMs המודרניים יש קידוד פנימי של עובדות המשמש למענה על השאלה שנשאלה בהנחיה.

לכן, אם עובדות בתוך הזיכרון הפנימי של ה-LLM שגויות או מעופשות, יש לספק מידע חדש באמצעות הנחיה. הנחיה היא הטקסט שנשלח ל-LLM עם השאילתה והראיות התומכות שיכולות להיות כמה עובדות חדשות או מתוקנות. הנה 3 דרכים לגשת לזה.

1. דרך אחת לתקן את העובדות המקודדות של LLM היא לספק עובדות חדשות הרלוונטיות להקשר באמצעות בסיס ידע חיצוני. בסיס ידע זה עשוי להיות קריאות API לקבלת מידע רלוונטי או חיפוש על מסד נתונים של SQL, No-SQL או וקטור. ניתן להפיק ידע מתקדם יותר מגרף ידע המאחסן ישויות נתונים והקשרים ביניהם. בהתאם למידע שהמשתמש מבקש, ניתן לאחזר את מידע ההקשר הרלוונטי ולתת כעובדות נוספות ל-LLM. עובדות אלו עשויות להיות גם מעוצבות כך שייראו כמו דוגמאות אימון לשיפור תהליך הלמידה. לדוגמה, אתה יכול להעביר חבורה של צמדי תשובות לשאלות למודל כדי ללמוד כיצד לספק תשובות.

2. דרך חדשנית יותר (ויקרה יותר) להגדיל את ה-LLM היא כוונון עדין בפועל באמצעות נתוני אימון. אז במקום לחפש בבסיס הידע עובדות ספציפיות להוסיף, אנו בונים מערך הדרכה על ידי דגימת בסיס הידע. באמצעות טכניקות למידה בפיקוח כמו כוונון עדין נוכל ליצור גרסה חדשה של ה-LLM שמאומנת על הידע הנוסף הזה. תהליך זה הוא בדרך כלל יקר ויכול לעלות כמה אלפי דולרים לבנות ולתחזק מודל מכוונן ב-OpenAI. כמובן שהעלות צפויה להיות זולה יותר עם הזמן.

3. אפשרות נוספת היא להשתמש בשיטות כמו Reinforcement Learning (RL) כדי להכשיר סוכן עם משוב אנושי וללמוד מדיניות כיצד לענות על שאלות. שיטה זו הייתה יעילה מאוד בבניית מודלים קטנים יותר של טביעת רגל שמצליחים במשימות ספציפיות. לדוגמה, ChatGPT המפורסם ששוחרר על ידי OpenAI הוכשר על שילוב של למידה מפוקחת ו-RL עם משוב אנושי.

לסיכום, זהו מרחב מתפתח מאוד, כאשר כל חברה גדולה רוצה להיכנס ולהראות את הבידול שלה. בקרוב נראה כלי LLM עיקריים ברוב התחומים כמו קמעונאות, בריאות ובנקאות שיכולים להגיב בצורה אנושית תוך הבנת הניואנסים של השפה. הכלים המונעים על ידי LLM המשולבים בנתונים ארגוניים יכולים לייעל את הגישה ולהפוך את הנתונים הנכונים לזמינים לאנשים הנכונים בזמן הנכון.

Dattaraj Rao, מדען נתונים ראשי ב מערכות מתמשכות, הוא מחבר הספר "Keras to Kubernetes: The Journey of a Machine Learning Model to Production." ב-Persistent Systems, Dattaraj מוביל את מעבדת המחקר בינה מלאכותית הבוחנת אלגוריתמים חדישים בתחום ראיית המחשב, הבנת שפה טבעית, תכנות הסתברותי, למידת חיזוק, בינה מלאכותית ניתנת להסבר וכו' ומדגימה ישימות בתחומי בריאות, בנקאות ותעשייה. ל-Dattaraj 11 פטנטים בתחום למידת מכונה וראייה ממוחשבת.