Connect with us

ืžื“ืจื™ืš ืžืขืฉื™ ืœืžืกื™ืจืช AI ืื—ืจืื™

ืžื ื”ื™ื’ื™ ื“ืขื”

ืžื“ืจื™ืš ืžืขืฉื™ ืœืžืกื™ืจืช AI ืื—ืจืื™

mm

הפריסות של בינת המכונה (AI) מתרחבות מעבר לשלבים הראשונים של ניסויים לתוך פתרונות מלאים, מניעים ייצור ושינוי בקנה מידה תעשייתי. נגד רקע זה, מנהלים מתמודדים עם משימה אתגרית: העברת AI משלב הוכחת קונספט לליבת הפעילות היומיומית. המעבר הזה דורש מהם לענות שאלות חדשות, החל מהאופן שבו לפתח, לפרוס ולהשתמש ב-AI באופן אחראי, כדי לבנות יסוד אמין עליו להישען.
AI אחראי הוא וודאות ש-AI מועיל ללא היותו מזיק לאנשים, ארגונים וחברה. בעוד שהתפיסה עשויה להיות שהיא יכולה לאטום את מחזור הפיתוח, בפועל, היא יכולה להתעצמת את החדשנות. פריסת AI אחראי יכולה לעזור להפחית את מספר הכישלונות היקרים, לאפשר אימוץ מהיר יותר ואמון, לספק מערכות המוכנות לרגולציה, ולשפר את הבטיחות.
אולם, הבנת האופן שבו ארגונים יכולים לפתח, לפרוס ולאמץ AI אחראי היא מפתח להבטחת פרקטיקה יסודית ואינטגרציה מלאה. כאן אנו מספקים מדריך מעשי על האופן שבו חברות יכולות לעשות זאת, תוך הבטחת פיקוח אנושי משלבי העיצוב המוקדמים דרך פריסה, ניטור, הערכת סיכונים וביטול בסופו של דבר.
אלו שיטפלו ב-AI אחראי כאחרון יסכנו חשיפה רגולטורית, נזק למוניטין וסחיפת אמון הלקוח. לעומת זאת, אלו שישתלבו אותו מההתחלה יהיו מוצבים טוב יותר להישרדות AI באופן בר קיימא.

זיהוי חמשת העקרונות לאינטגרציה של AI אחראי

בלב כל אסטרטגיה של AI אחראי טמונים עקרונות יסוד שצריכים להנחות את הפיתוח, הפריסה, ההערכה והממשל. השפעת עקרונות אלו תעצב מעשית את פרקטיקות הממשל, ניהול הסיכונים והציות, שיגנו על אנשים ויגנו על ערך המותג.
עבור ארגונים גדולים, עליהם לעבוד ברחבי צוותים ועם שותפים חיצוניים כדי להבטיח את האינטגרציה שלו. כך, ישנם חמישה עקרונות מפתח שעסקים יכולים לאמץ כדי לכוון את יוזמות AI שלהם לכיוון אמון, ציות ותוצאות אתיות.
ראשית, אחריות. מישהו צריך להיות אחראי לתוצאה של כל מערכת AI חשובה, ויש להיות אדם או צוות אחראי מההתחלה ועד הסוף. התחל עם מצב פשוט, אוטומט את הקנה המידה והתחל לרשום את מערכות AI, מטרותיהן, מקורות הנתונים ובעליהן. חשוב גם להיות מוכן למקרים שבהם הדברים הולכים לאיבוד. חיוני לדעת איך לעצור ואיך לחקור ולמתן בעיות.
שנית, בדיקת הוגנות של AI והשפעתו הפוטנציאלית על אנשים חשובה. אל תסתמך רק על מטריקות טכניות, והיה מודע שתוצאות AI יכולות להשתנות בין קבוצות ולא להיטיב עם מישהו. זהו קריטי למקרי שימוש בסיכון גבוה בתחומים כגון גיוס, הלוואות או בריאות. השתמש בבדיקות נתונים ככל האפשר, וכלל היבטים של ביקורת אנושית ונימוקים לפלט.
שלישית, ביטחון הוא חיוני. איומים על מערכות AI ממשיכים להתפתח, כולל כעת גם התקפות מבוססות פרומפט או סוכנים. חשוב לטפל בסיכונים האלו, ולעבוד עם צוותי אבטחה כדי לדמות התקפות אלו. בנה אבטחה לתוך העיצוב, הגביל את גישת AI למערכות ונתונים אחרים, ובצע בדיקות מתמשכות, אפילו לאחר השקה.
רביעית, פרטיות היא דאגה. דאגה זו חורגת מעבר לנתוני האימון הראשוניים, ופרטיות צריכה להיות מוגנת בכל שלב. שקל פרטיות בפרומפטים של משתמש, רישומי שיחות ופלטים שנוצרו על ידי AI, כיוון שכולם יכולים להכיל מידע פרטי. תכנן מערכות לאסוף רק את הנתונים הדרושים, הגדר כללים קפדניים לגישה ואחסון, ובצע ביקורות פרטיות ליישומים בסיכון גבוה יותר.
לבסוף, שקיפות וספקי יכולת להסתגל לבעלי עניין היא חיונית. מה שלקוחות צריכים לדעת שונה ממפתחי AI. למשל, משתמשים צריכים לדעת כאשר הם מתקשרים עם AI, ולהבין את הגבולות שלו. צוותים פנימיים זקוקים למסמכים ברורים על איך AI נבנה ואיך הוא מתפקד. שקיפות של מערכות AI מזינה פיקוח משותף ואמון ביכולות המערכת.

ידיעת ההבדלים: AI אחראי לעומת AI גוברננס

בעוד AI אחראי ו-AI גוברננס משמשים לעיתים קרובות באופן מחליף, ישנם הבדלים מהותיים. AI אחראי הוא קבוצה של פרקטיקות ועקרונות הוליסטיים לקבלת החלטות אמינות במהלך פיתוח, פריסה ושימוש ב-AI. הוא מתמקד באפשרויות כגון חמשת העקרונות לעיל, כדי למזער את הסיכונים ולמקסם את היתרונות של AI.
AI גוברננס, מנגד, הוא קבוצה של מדיניות, הליכים ופרקטיקות שמטרתן לאפשר תוצאות חיוביות ולהפחית את הסיכון לנזק. הוא מתמקד בהצבת הבקרות הארגוניות והטכניות המתאימות, כדי לאפשר AI אחראי ואתי, לרוב עם דגש על אחריות וציות לחוקים ומדיניות ארגוניות.
ארגונים מוצבים טוב יותר להישרדות AI באופן אחראי, תוך שמירה על אמון וכשירות רגולטורית, כאשר הם מבינים ששניים הם נפרדים אך מחוברים. בנוסף, בעוד פעולות מסוימות בנוגע לאחריות וגוברננס נדרשות על ידי חוק, אחרות לא. למשל, חוקים המטילים הגבלות על עבודות שנשים יכולות להחזיק במדינות מסוימות. לכן, שניהם הכרחיים לגישה מקיפה ומאוזנת ל-AI אחראי.

חשיבות הגוברננס הגמיש

ככל ש-AI מתפשט, רגולטורים נכנסים עם מסגרות גוברננס שחורגות מעבר להנחיות וולונטריות. תקנות כגון חוק האינטליגנציה המלאכותית של האיחוד האירופי מניחות רגולציה מבוססת סיכון במרכז הגוברננס של AI. במקום לרגולט AI באופן אחיד, החוק מסווג מערכות AI לרמות סיכון מרובות, המכירות בנזק הפוטנציאלי על בסיס מקרי שימוש שונים. למשל, מסנן גיוס AI לעומת מנוע המלצות קניות. זה מרמז כי גוברננס, תיעוד ומנגנוני בטיחות צריכים להיות מסונכרנים עם ההקשר והיישום של AI.
ירוסלבים אחרים הגדירו גם הם מסגרות לגוברננס AI. על פי דו”ח IAPP, סינגפור מעודדת גישה גמישה עם כלים כגון מסגרת הגוברננס AI המודלית, המדגישה בדיקות ושקיפות על פני צווים קפדניים. חוק ה-AI הבסיסי של קוריאה הדרומית משלב גם הוא פיקוח עם מרחב לחדשנות. ובתוך תעשיות, זה משתנה. שירותים פיננסיים התמודדו זמן רב עם תקנים קפדניים של בטיחות והוגנות, בעוד AI רפואי צריך לעמוד ברגולציות של התקנים רפואיים. מוצרי טכנולוגיה צרכנית כפופים גם הם לחוקים להגנת פרטיות וצרכנים, כאשר כל תחום דורש רגולציה המותאמת לפרופיל הסיכון ולציפיות החברתיות שלו.
לכן, גישה אחידה לגוברננס AI אינה עובדת, שכן תעשיות ותחומים מדיניים שונים במידת הנזק, הצדדים המושפעים והמסגרות המשפטיות שהם פועלים תחתיהן. כך, יש צורך בגמישות.

איך לנהל AI אוטונומי

כאשר AI נכנס לעידן חדש, משנה ממנועי חיזוי צרים ל-AI אגנטי, מערכות המסוגלות לתכנן, להסתגל ולבצע פעולות אוטונומיות, זה בא עם סיכונים חדשים.
למשל, ניתן לשקול AI אגנטי שביצע באופן אוטונומי עסקה פיננסית או החלטת HR. אם הוא מסווג בטעות עסקה או ממליץ על החלטת גיוס המשובצת בהטיה, ההשלכות העסקיות חמורות, מאבדות פיננסיות ונזק למוניטין, קנסות רגולטוריות וחשיפה משפטית.
מחקר שהוצג ב שיקולים כלכליים וסיסטמיים במערכות רשת אגנטיות מסביר גם את האתגרים החדשים שמובאים על ידי מושג הרשת האגנטית המתעורר, הפועלת בשווקים מרובי-סוכנים, חוצי-גבולות, במהירות מכונה. הוא מתאר מניפים שליטה מכוונים מוקדמים, כולל סוכני אפוטרופוס / פיקוח ומדיניות קריאה מכונה, עם דגש על אימוץ כולל תחת הגבלות משאבים לא שוויוניות.
נגד רקע זה, מערכות גוברננס יצטרכו להציב גבולות ובקרות על כמה AI מערכת יכולה לטפל באופן אוטונומי ללא אישור אנושי. הם צריכים לקבוע רכבות חוקיות ברורות, להגביל גישה לכלים ופונקציות אישור, ולאפשר נקודות עיצוב מוחלטות לביקורת אנושית. כל רכיבי הזרימה צריכים להיבדק, כולל חיבורים ואינטראקציות בין סוכנים, שם שגיאות רבות מתרחשות. כל פעולה צריכה להיות מתועדת לצורך עקיבה, ולהתקין בקרות כדי לנטרל את המערכת כאשר נדרש.

עתיד ה-AI האחראי

AI מציע הזדמנויות בלתי מובנות לשנות את האופן שבו עסקים פועלים, חודשים, מספקים ערך, ו-AI אחראי תומך בכך. שילוב AI אחראי בעיצוב, פיתוח ופריסה אינו רק טקטיקה לסיכון משפטי ומיתון סיכונים, אלא גם מגן על מוניטין המותג, זוכה באמון לקוחות ולקוחות, ונועל יתרון שוק על ידי הדגמת מחויבות לחדשנות אתית.
אולם, כדי לנעול את היתרונות, חברות חייבות לשלב פרקטיקות אחראיות מרכזיות במערכת AI שלהן, החל מההתחלה ועד לסוף מחזור החיים שלה. זה כולל שילוב שיקולים אתיים וגוברננס באסטרטגיית הנתונים, פרטיות ואיסוף, עיצוב, פיתוח, שקיפות והוגנות, פריסה וניטור, וכן לאחר פריסה וביטול.
עבור כל מי שמעורב בפיתוח ופריסת AI, המנדט ברור: בנה באופן אחראי, גבר בפעיל, צפה את הסיכונים של היום, מחר והלאה, כדי להבטיח את ההתפתחות המוצלחת של AI בעולם המשתנה.

ื“"ืจ ื”ืช'ืจ ื“ื•ืžื™ืŸ, ืกื’ื ื™ืช ื ืฉื™ื ื•ืจืืฉ ืžืฉืจื“ Responsible AI ื•-Governance ื‘-HCLTech, ื”ื™ื ืžื•ืžื—ื™ืช ืžื•ื‘ื™ืœื” ื‘-Responsible AI, ื”ืžื™ื™ืขืฆืช ืœืืจื’ื•ื ื™ื ื’ืœื•ื‘ืœื™ื™ื ื‘ื ื•ืฉืื™ ืžืžืฉืœ AI ืืชื™ ื•ื™ื™ืฉื•ื.

ื’ื™ืœื•ื™ ื ืื•ืช ืœืžืคืจืกืžื™ื: Unite.AI ืžื—ื•ื™ื‘ืช ืœืกื˜ื ื“ืจื˜ื™ื ืžืขืจื›ืชื™ื™ื ืžื—ืžื™ืจื™ื ื›ื“ื™ ืœืกืคืง ืœืงื•ืจืื™ื ืžื™ื“ืข ื•ื—ื“ืฉื•ืช ืžื“ื•ื™ืงื™ื. ื™ื™ืชื›ืŸ ืฉื ืงื‘ืœ ืชื’ืžื•ืœ ื›ืืฉืจ ืชืœื—ืฆื• ืขืœ ืงื™ืฉื•ืจื™ื ืœืžื•ืฆืจื™ื ืฉืกืงืจื ื•.