ืื ืืืื ืืขื
ืืืฉืจ ‘ืืืข’ ืฉื AI ืืื ืื 50 ืฉื ื: ืกืืืื ืชืืืืืช ืฉืื ืืคืฉืจ ืืืชืขืื ืืื ื

הנושא של תובנות AI כוזבות הוא אתגר דחוף כאשר תאגידים מגדילים את השימוש בכלים יוצרים. למרות ההתלהבות הרחבה סביב אימוץ AI, ישנו גם זרם חזק של ביקורת. פרשנים ביקורתיים רבים מצביעים על אי-דיוקים כוזבים ובלתי צפויים בפלט של AI, שתוקפים את ערכו – ואפילו יכולים לגרום לנזק אמיתי לבני אדם, במיוחד בתחומים כמו בריאות ותחבורה, שם פלטים כוזבים יכולים להוביל לכל דבר, ממרשם לא נכון ועד לרכבות במסלול התנגשות.
לעיתים קרובות, אי-דיוקים אלו מיוחסים ל-‘הזיות‘ של AI – מקרים בהם AI מייצר ‘תשובה הטובה ביותר’, המועברת עם אותה ביטחון כמו ‘תשובה אמיתית’, במקום להודיע למשתמש על פער בידע או יכולת. הזיות יכולות להיות קשות לזיהוי במבט ראשון – אך יש בעיה שקטה, רצינית וקשה יותר לגילוי.
חוב האיכות של הנתונים: עקב ה-AI
כאשר מערכות AI שואבות מנתונים מיושנים, חסרים או לא מדויקים, פלטים כוזבים מתרחשים אך פחות ניתנים לזיהוי מיד. לדוגמה, אתה עשוי לבקש מ-AI לזהות את התסמינים של מצב רפואי ולקבל תשובה המבוססת על מאמר בן 50 שנה, במקום מחקר נוכחי. התוצאה לא סבירה להופיע באופן ברור, מגוחך, נכון – אך המראה הראשוני של תקפות מהווה סיכון אמיתי הן לחולה והן לספק הבריאות.
האותו הדבר נכון לכל התעשיות – אם הנתונים המוזנים למודל AI כוללים מידע ישן, מיושן או חלקי, יש סיכון גבוה לפלטים כוזבים. וככל שיותר חברות משלבות AI בתהליכים עסקיים בעלי חשיבות, הסיכון של הסקת מסקנות כוזבות מנתונים שאינם מתואמים הולך וגדל.
דיוק לרגולטור
זהו לא רק בעיה לפעולות יומיומיות – זוהי גם אתגר תאימות משמעותי. דרישות רגולטוריות מתפתחות מהר כדי לטפל בדאגות סביב AI לא מדויק. לדוגמה, מספר פעולות רגולטוריות מוקדמות על AI התרחשו; במיוחד כאשר איטליה אסרה זמנית ChatGPT על חששות פרטיות, וה-EU Data Protection Board השיקה צוות משימה מיוחד לתאם פעולות אכיפה נגד ChatGPT.
אחד השינויים הרגולטוריים המשמעותיים ביותר היה מעבר לחוק AI של האיחוד האירופי, המסגרת המשפטית המקיפה הראשונה בעולם ל-AI. החוק קובע חובות על בסיס רמת הסיכון של מערכות AI, ממערכות ‘סיכון בלתי קביל’ שאסורות, ועד למערכות ‘סיכון גבוה’, שפנים אליהן דרישות קפדניות סביב שקיפות, איכות נתונים, ממשל ופיקוח אנושי.
המשמעות של חוק AI של האיחוד האירופי טמונה לא רק בהיקף השאפתני אלא גם בתקדים שהוא קובע. רגולטורים מודיעים בבירור ש-AI יהיה כפוף לכללים מחייבים ואכיפה, ושארגונים חייבים לטפל בתאימות ושקיפות סביב היכן ואיך AI משמש כחלק אינטגרלי מאימוץ AI, ולא כדבר משני.
החוק הוא בעל היקף רחב, עם פוטנציאל להשפיע על חלק גדול מפיתוחי AI. בליבו, הוא מיועד להפוך את AI לבטוח תוך כבוד לזכויות וערכים יסודיים. בתוך מערכת העקרונות החדשה, מתרחשת אבחון של מקורות פוטנציאליים לאי-דיוקים של AI, כולל הנתונים והמאגרים המזינים את המודלים, אופקות המודל וגישה, ועיצוב מערכת ושימוש. פתרונות AI הם מורכבים מכל השלושה – בעיות עם אחד מהם יכולות להוביל לתוצאה שלילית. לא רק זאת, אלא שהנתונים הנכנסים לעיצוב, פיתוח, פריסה והפעלה של AI כנראה יהיו בעיקר רשומות עסקיות, הכפופות לדרישות תאימות שונות.
במילים אחרות, הסביבה הרגולטורית סביב AI הופכת למחמירה יותר – וזה נכון גם לנתונים הנכנסים, כמו גם לנתונים היוצאים, אף על פי שהאחרונים מקבלים יותר כותרות.
חמש צעדים להאכילה של AI עם נתונים תואמים, נוכחיים ורלוונטיים
כדי לפתור את האתגר הכפול – להבטיח הן טיפול נתונים תואם והן קלט נתונים באיכות גבוהה המאפשר פלט באיכות גבוהה – עסקים זקוקים לשליטה על נתוני האימון וההסקה. לצער, זהו משהו שרבים מהתאגידים עדיין חסרים.
לפחות, ארגונים צריכים ליישם את תוכניות התאימות והממשל הכלליות שלהם ליוזמות AI. הם צריכים להתחיל לתעד ולשמור רשומות מתאימות על הנתונים שהם מזינים למודלים AI, כיצד המודלים והמערכות מעוצבים, כמו גם ההחלטות והתוכן המופקים דרך AI.
הדבר הופך להיות בעל חשיבות קריטית עבור ארגונים ללכת מעבר לכך ולוודא שיש להם שליטה מלאה על כל הנתונים שיכולים להיעשות בפועל ביישומים AI, הן לאימון ראשוני והן לעבודה ‘חיה’. זה דורש אסטרטגיית ניהול ואחסון נתונים באיכות גבוהה, המובטחת כי כל הנתונים הרלוונטיים נאספים, נוקים, נשמרים, מסווגים ומורשים באופן אינטליגנטי. כדי להשיג זאת, ארגונים צריכים לשקול ארבעה צעדים מפתח:
1. ייחוס נתונים ומוצא
זה כולל שמירה על רישום של מקור הנתונים, מוצאו, בעלותו, וכל שינויים במטא-נתונים (אם מותר) לאורך כל מחזור החיים. זה כולל גם שמירה על מטא-נתונים עשירים וכל המסמכים או ארטיפקטים המונחים בסיסם.
2. אותנטיות של נתונים
זה דורש שמירה על שרשרת חסות ברורה עבור כל הנתונים, אחסון אובייקטים בצורתם הילידית, והשגת הישגים עבור אובייקטים שהתקבלו כדי להוכיח שהנתונים נותרו ללא שינוי. בנוסף, ארגונים חייבים לשמור על היסטוריית אודיט מלאה עבור כל אובייקט, ועבור כל פעולות ואירועים ביחס לכל שינוי.
3. סיווג נתונים
קביעת טבעו של קבוצה או סוג של נתונים היא חשובה. ארגונים צריכים להיות מסוגלים לנהל נתונים מובנים, נתונים חצי-מובנים, וקבוצות מובנות של נתונים. מתן סכמה ייחודית לכל מחלקה מאפשר לארגונים לנהל קבוצות מגוונות של נתונים ללא אונטולוגיה קבועה – מבלי להשתמש בנתונים באופן מיותר כדי לאלץ אותם להתאים למבנה נתונים לא גמיש.
4. נירמול נתונים
קביעת הגדרות ופורמטים משותפים של מטא-נתונים היא חשובה לשימוש בניתוחים ופתרונות AI. סכמות ברורות מהוות אלמנט חשוב, יחד עם כלים שיכולים להמיר או למפות נתונים כדי לשמור על נקודות מבט עקביות ומנורמלות של נתונים קשורים.
5. זכויות נתונים
תאגידים זקוקים לבקרות זכויות גרעיניות, כולל ברמת אובייקט או שדה, על בסיס פרופיל משתמש או מערכת. זה משמעותי שהנתונים הנכונים זמינים למשתמשים ומערכות שמורשים לגישה, בעוד הגישה מוגבלת או מוגבלת לאלו שאינם.
עם אלמנטים אלו במקום, עסקים יהיו בעמדה הטובה ביותר לוודא שהנתונים המוצגים למודלים AI הם הן באיכות גבוהה והן תואמים. AI יניע שיפורים ויעילויות ברחבי התעשיות – אך עבור זאת לקרות, יסוד נתונים חזק הוא חיוני.












