ืจืืืื ืืช
ืืืืืืื ืืืืจ, CTO ืฉื Intertrust – ืกืืจืช ืจืืืื ืืช

דייוויד מאהר משמש כסגן נשיא בכיר וקצין טכנולוגיה ראשי של Intertrust. עם יותר מ-30 שנות ניסיון במערכות מבוזרות מהימנות, מערכות בטוחות וניהול סיכונים, דייוויד הוביל מאמצי מחקר ופיתוח והחזיק בתפקידי הנהלה מפתח בחברות בנות של החברה. הוא היה בעבר נשיא Seacert Corporation, רשות אישור לתקשורת דיגיטלית ו-IoT, ונשיא whiteCryption Corporation, מפתחת מערכות להגנה עצמית של תוכנה. הוא גם שימש כיו”ר משותף של ארגון הניהול של Marlin Trust (MTMO), המפקח על המערכת העצמאית היחידה בעולם לניהול זכויות דיגיטליות.
Intertrust פיתחה חידושים המאפשרים למערכות הפעלה מבוזרות לאבטח ולנהל נתונים וחישובים ברשתות פתוחות, מה שהוביל לפטנט יסודי בתחום החישוב המבוזר המהימן.
במקור, Intertrust התבססה על מחקר, אך התפתחה לחברה המתמקדת במוצרים המציעה שירותי חישוב מהימנים המאחדים פעולות התקן ונתונים, במיוחד עבור IoT ו-AI. שווקים שלה כוללים הפצת מדיה, זיהוי ואימות התקן, ניהול אנרגיה דיגיטלית, ניתוחים ואבטחת אחסון ענן.
כיצד ניתן לסגור את הפער האמון של AI ולטפל בדאגות הציבור הגוברות בנוגע לבטיחות ואמינות של AI?
שקיפות היא התכונה החשובה ביותר, לדעתי, שתעזור לטפל בדאגות הגוברות בנוגע ל-AI. שקיפות כוללת תכונות המסייעות הן לצרכנים והן לטכנולוגים להבין מהם המנגנונים של AI שהם חלק ממערכות איתן אנו מתעסקים, מהו הרקע שלהם: כיצד דגם AI מאומן, מהם המגרעות הקיימות, מהם המדיניות שיושמו בפיתוח הדגם, ומהם האבטחות האחרות הקיימות לבטיחות ואבטחת מנגנון נתון. עם שקיפות רבה יותר, נוכל לטפל בסיכונים ובנושאים אמיתיים ולא להיות מוסחים כל כך על ידי פחדים והשערות לא רציונליים.
מהו התפקיד של אימות מטא-נתונים בהבטחת אמינות פלטי AI?
אימות מטא-נתונים עוזר להגביר את הביטחון שלנו שההבטחות בנוגע לדגם AI או מנגנון אחר הן אמינות. כרטיס AI הוא דוגמה לאוסף של מטא-נתונים שיכול לסייע בהערכת השימוש במנגנון AI (דגם, סוכן וכו’) למטרה ספציפית. אנו צריכים לקבוע תקנים לבהירות ושלמות לכרטיסי דגמים עם תקנים למדידות כמותיות והצהרות מאומתות בנוגע לביצועים, הטיה, תכונות נתוני אימון וכו’.
כיצד יכולות ארגונים לצמצם את הסיכון של AI מוטה והזיות במודלים של שפה גדולים (LLM)?
“רד טימינג” הוא גישה כללית לטיפול בסיכונים אלו ובסיכונים אחרים במהלך הפיתוח ולפני השקה של מודלים. במקור, גישה זו שימשה להערכת מערכות בטוחות, אך כעת היא הופכת לתקן עבור מערכות המבוססות AI. זוהי גישה שיטתית לניהול סיכונים שיכולה וצריכה לכלול את כל מחזור החיים של מערכת, מפיתוח התחלתי ועד הטמעה בשטח, תוך כיסוי שרשרת האספקה השלמה. במיוחד, הדבר בולט בסיווג ואימות נתוני האימון המשמשים לדגם.
מהם הצעדים שחברות יכולות לנקוט כדי ליצור שקיפות במערכות AI ולהפחית את הסיכונים הקשורים לבעיה של “קופסה שחורה”?
להבין כיצד החברה מתכננת להשתמש בדגם ומהם האחריות הפוטנציאליות שלה בהטמעה, הן לשימוש פנימי והן לשימוש לקוחות, באופן ישיר או עקיף. אז, להבין מהו “הייחוס” של מנגנוני ה-AI שיוטמעו, כולל הצהרות על כרטיס דגם, תוצאות ניסויים של “רד טים”, ניתוח דיפרנציאלי על השימוש הספציפי של החברה, מה נבדק באופן פורמלי, ומה היו חוויות אחרים. בדיקות פנימיות באמצעות תוכנית בדיקה מקיפה בסביבה ריאליסטית הכרחיות. התקנים הטובים ביותר מתפתחים בתחום זה, שעדיין בחיתוליו, ולכן חשוב להישאר מעודכנים.
כיצד ניתן לעצב מערכות AI עם קווים מנחים אתיים, ומהם האתגרים בהשגת זאת בתעשיות שונות?
זהו תחום מחקר, ורבים טוענים כי מושג האתיקה וגרסאות ה-AI הנוכחיות אינם תואמים, שכן אתיקה מבוססת על מושגים, ומנגנוני AI הם בעיקר נתונים-מונעים. למשל, כללים פשוטים שבני אדם מבינים, כגון “אל תרמה”, קשים לאימות. עם זאת, ניתוח זהיר של אינטראקציות וסכסוכים של מטרות בלמידת מטרות, הפרדת נתונים מפוקפקים ודיסאינפורמציה, ובניית כללים הדורשים שימוש במסנני פלט המאכפים מגרעות ובודקים הפרות של עקרונות אתיים, כגון תמיכה או הזדהות עם שימוש באלימות בתוכן פלט, צריכים להילקח בחשבון. באופן דומה, בדיקות אמינות להטיה יכולות לסייע ליישר כיוון דגם יותר עם עקרונות אתיים. שוב, הרבה מזה יכול להיות מושגי, ולכן יש לתת דעת לבדוק את השפעותיהם של גישות שונות, שכן מנגנון AI לא “יבין” הוראות באופן שבני אדם עושים.
מהם הסיכונים והאתגרים העיקריים ש-AI עומדת בפניהם בעתיד, במיוחד כאשר היא משתלבת יותר עם מערכות IoT?
אנו רוצים להשתמש ב-AI כדי לאוטומט את המערכות שמאפשרות תהליכים ביתיים ביתיים. למשל, אנו יודעים שאנו יכולים לאופטימיזציה של הפצת אנרגיה ושימוש באמצעות תחנות כוח וירטואליות, המתאמות אלפי אלמנטים של ייצור, אחסון ושימוש באנרגיה. זה אפשרי רק עם אוטומציה מאסיבית ושימוש ב-AI כדי לסייע בקבלת החלטות ברמת הדקה. המערכות יכללו סוכנים עם מטרות אופטימיזציה סותרות (למשל, לטובת הצרכן מול הספק). בטיחות ואבטחת AI יהיו קריטיות בהטמעה הנרחבת של מערכות כאלו.
מהו סוג התשתית הדרושה לזיהוי ואימות ישות במערכות AI?
אנו זקוקים לתשתית חזקה ויעילה, שבאמצעותה יוכלו ישויות המעורבות בהערכת כל היבטים של מערכות AI והטמעתן לפרסם טענות אותנטיות ומאומתות בנוגע למערכות AI, ייחוסן, נתוני אימון זמינים, ייחוס נתוני חיישנים, אירועים ותקריות ביטחוניות וכו’. תשתית זו תצטרך גם להקל על אימות טענות והצהרות על ידי משתמשי מערכות הכוללות מנגנוני AI ועל ידי רכיבים במערכות אוטומטיות המקבלות החלטות על סמך פלטים ממודלים ואופטימייזרים של AI.
האם תוכל לשתף אותנו בחוויות מה שאתה עובד עליו ב-Intertrust וכיצד זה משפיע על מה שדנו?
אנו חוקרים ומע












