Connect with us

ืฆื•ื•ืช ืžื—ืงืจ ืžื˜ืจืชื• ืœื™ืฆื•ืจ AI ืฉืงื•ืฃ ืœืžืขืŸ ืžื ื™ืขืช ื”ืคืฆืช ื ืฉืง ื’ืจืขื™ื ื™ ื•ื‘ื™ื˜ื—ื•ืŸ ื’ืจืขื™ื ื™

ื‘ื™ื ื” ืžืœืื›ื•ืชื™ืช

ืฆื•ื•ืช ืžื—ืงืจ ืžื˜ืจืชื• ืœื™ืฆื•ืจ AI ืฉืงื•ืฃ ืœืžืขืŸ ืžื ื™ืขืช ื”ืคืฆืช ื ืฉืง ื’ืจืขื™ื ื™ ื•ื‘ื™ื˜ื—ื•ืŸ ื’ืจืขื™ื ื™

mm

חוקרים ממעבדה הלאומית פסיפיק נורת’ווסט (PNNL) מנסים להפוך את ה-AI לשקוף לצורכי מניעת הפצת נשק גרעיני וביטחון לאומי. המטרה היא להפוך את ההחלטות שמוחזרות על ידי מודלי AI לשקופות לכל החלטה הקשורה לביטחון גרעיני.

יש תשומת לב רבה יותר מאי פעם לחשיבותן של מודלי AI שקופים, במאמץ לפתור את “בעיית הקופסה השחורה” של למידת מכונה. מודלי AI מוסמכים לקבל החלטות מורכבות אפילו כאשר אלו האחראים לביצוע ההחלטות האלה לא מבינים את הנימוקים מאחורי ההחלטות. ככל שהפוטנציאל לאסון וסכנה גדול יותר, כך חשוב יותר שהנימוקים מאחורי ההחלטות יהיו שקופים.

אין צורך להבין את הנימוקים מאחורי סיווגים אם אפליקציה של AI עושה משהו פשוט כמו סיווג תמונות של פירות, אבל במקרים הקשורים לנשק גרעיני או ייצור חומר גרעיני, עדיף לפתוח את הקופסה השחורה העומדת בבסיס ה-AI המועסק בתרחישים האלה.

חוקרים מ-PNNL עובדים על מנת להפוך את ה-AI לשקוף באמצעות מגוון טכניקות חדשות. חוקרים אלה עובדים לצד משרד האנרגיה של מנהל הביטחון הגרעיני הלאומי (NNSA) של מחלקת ההגנה, משרד המחקר והפיתוח (DNN R&D). DNN R&D אחראי לפיקוח על יכולתה של ארצות הברית לפקח ולגלות את ייצור החומר הגרעיני, פיתוח נשק גרעיני והפעלת נשק גרעיני ברחבי העולם.

נתון הסיכונים הגבוהים הקשורים לנושאים הקשורים למניעת הפצת נשק גרעיני, הוא בעל חשיבות עליונה לדעת כיצד מערכת AI מגיעה למסקנותיה בנושאים אלה. אנג’י שפילד היא מנהלת תוכנית בכירה ב-DNN R&D. לפי שפילד, לעיתים קשה לשלב טכנולוגיות חדשות כמו מודלי AI לתוך טכניקות ומסגרות מדעיות מסורתיות, אך תהליך השילוב של AI למערכות אלה יכול להיעשות קל יותר על ידי עיצוב דרכים חדשות ליצירת אינטראקציה יותר יעילה עם מערכות אלה. שפילד טוענת כי חוקרים צריכים ליצור כלים המאפשרים למפתחים להבין כיצד טכניקות מתוחכמות אלה פועלות.

המחסור היחסי של נתונים הקשורים לפיצוצים גרעיניים ופיתוח נשק גרעיני, הופך את ה-AI השקוף לחשוב עוד יותר. אימון מודלי AI בתחום זה תוצר מודלים שעלולים להיות פחות אמינים בשל העובדה שיש מעט מאוד נתונים בהשוואה למשימה כמו זיהוי פנים. כתוצאה מכך, כל שלב בתהליך המשמש את המודל לקבל החלטה צריך להיות ניתן לבדיקה.

מארק גריבס, חוקר ב-PNNL, הסביר כי הסיכונים הטמונים בהפצת נשק גרעיני דורשים מערכת שיכולה להודיע לאנשים מדוע תשובה מסוימת נבחרה.

כפי שגריבס הסביר דרך EurekaAlert:

“אם מערכת AI מפיקה הסתברות שגויה בנוגע לשאלה האם אומה מחזיקה בנשק גרעיני, זו בעיה בסדר גודל אחר לגמרי. לכן, מערכת שלנו חייבת לפחות לייצר הסברים כך שבני אדם יוכלו לבדוק את מסקנותיה ולהשתמש במומחיות שלהם כדי לתקן את פערי האימון של AI שנגרמים על ידי הדלדלות הנתונים.”

כפי שהסביר שפילד, PNNL היא בעלת שתי נקודות חוזק שיעזרו להם לפתור את הבעיה. ראשית, PNNL היא בעלת ניסיון משמעותי בתחום ה-AI. בנוסף, הצוות היא בעלת ידע משמעותי בנוגע לחומרים גרעיניים ונשק. צוות PNNL מבין נושאים כמו עיבוד פלוטוניום וסוגי אותות ייחודיים לפיתוח נשק גרעיני. שילוב הניסיון ב-AI, הניסיון בביטחון לאומי וידע בתחום הגרעיני, הופך את PNNL למתאימה באופן ייחודי לטיפול בעניינים הקשורים לביטחון לאומי ו-AI.

ื‘ืœื•ื’ืจ ื•ืžืชื›ื ืช ืขื ื”ืชืžื—ื•ื™ื•ืช ื‘ื ื•ืฉืื™ื Machine Learning ื• Deep Learning. ื“ื ื™ืืœ ืžืงื•ื•ื” ืœืขื–ื•ืจ ืœืื—ืจื™ื ืœื”ืฉืชืžืฉ ื‘ื›ื•ื— ืฉืœ AI ืœื˜ื•ื‘ืช ื”ื—ื‘ืจื”.

ื’ื™ืœื•ื™ ื ืื•ืช ืœืžืคืจืกืžื™ื: Unite.AI ืžื—ื•ื™ื‘ืช ืœืกื˜ื ื“ืจื˜ื™ื ืžืขืจื›ืชื™ื™ื ืžื—ืžื™ืจื™ื ื›ื“ื™ ืœืกืคืง ืœืงื•ืจืื™ื ืžื™ื“ืข ื•ื—ื“ืฉื•ืช ืžื“ื•ื™ืงื™ื. ื™ื™ืชื›ืŸ ืฉื ืงื‘ืœ ืชื’ืžื•ืœ ื›ืืฉืจ ืชืœื—ืฆื• ืขืœ ืงื™ืฉื•ืจื™ื ืœืžื•ืฆืจื™ื ืฉืกืงืจื ื•.