בדל אנדרו פרי, מבשר אתיקה, ABBYY - סדרת ראיונות - Unite.AI
צור קשר

ראיונות

אנדרו פרי, מבשר אתיקה, ABBYY – סדרת ראיונות

mm
מְעוּדכָּן on

אנדרו פרי, הוא אוונגליסט האתיקה ב ABBYY, חברת מודיעין דיגיטלי. הם מעצימים ארגונים לגשת לתובנה בעלת הערך, אך לעתים קרובות קשה להשגה, לגבי הפעילות שלהם המאפשרת טרנספורמציה עסקית אמיתית.

ABBYY הוציאה לאחרונה א יוזמה גלובלית לקידום פיתוח של בינה מלאכותית אמינה. החלטנו לשאול את אנדרו שאלות בנוגע לאתיקה בבינה מלאכותית, ניצול לרעה של בינה מלאכותית, ומה תעשיית הבינה המלאכותית יכולה לעשות לגבי החששות האלה קדימה.

מה זה שעורר בהתחלה את העניין שלך באתיקה של AI?

מה שעורר בהתחלה את העניין שלי באתיקה של בינה מלאכותית היה עניין עמוק בהצטלבות של משפט וטכנולוגיית בינה מלאכותית. התחלתי את דרכי במערכת המשפט הפלילי, כשייצגתי נאשמים מעוטי יכולת שלא היו ברשותם האמצעים הכלכליים להרשות לעצמם שירותים משפטיים. לאחר מכן עברתי לטכנולוגיה המתמקדת ביישום חיפוש מתקדם ובינה מלאכותית במשפטים. בתור איש מקצוע מוסמך לפרטיות נתונים, אני נלהב במיוחד מדיני הפרטיות והשימוש הנכון בטכנולוגיית AI שמתיישרת עם זכויות הפרטיות ומשפרות אותן.

טכנולוגיית זיהוי פנים מנוצלת לעתים קרובות על ידי מקורות סמכות כולל ממשלת ארה"ב. עד כמה זה צריך להיות דאגה חברתית גדולה?

ההשלכות של טכנולוגיית זיהוי פנים צריכות להוות דאגה חברתית משמעותית שכן טכנולוגיה זו יכולה להשפיע על כל כך הרבה זכויות יסוד כולל זכויות כלכליות, חברתיות וביטחוניות.

ישנן עדויות ברורות ומשכנעות שאלגוריתמים של זיהוי פנים אינם אמינים. א מחקר NIST מאלגוריתמים של זיהוי פנים מצאו שלאפריקאים אמריקאים יש סיכוי גבוה פי 100 לזיהוי שגוי. מחקר דומה של בית הספר למשפטים של ג'ורג'טאון מצא שאלגוריתמים של זיהוי פנים המבוססים על צילומי ספל יצרו אחוז גבוה של תוצאות חיוביות שגויות הקשורות לאנשים אפרו-אמריקאים, וכן  מחקר MIT לשנת 2018 על תוכנת זיהוי פנים של אמזון מצא שבעוד גברים לבנים זוהו במדויק ב-99% מהמקרים, אנשים כהי עור יצרו עד 35% תוצאות חיוביות שגויות.

מסיבות אלו הרגולטורים מתחילים לנקוט בצעדים לאיסור השימוש בטכנולוגיות זיהוי פנים, במיוחד בהקשר של מעקב ופרופיל. למשל, הסנאט של קליפורניה העביר איסור במדינה על שימוש בטכנולוגיית זיהוי פנים ושיטות מעקב ביומטריות אחרות.

יש גם מומנטום בקהילת הטכנולוגיה להתנתק משיווק תוכנות זיהוי פנים. יבמ הודיעה כי תפסיק למכור תוכנת זיהוי פנים, בטענה שהיא מפרה זכויות אדם בסיסיות וחירויות בסיסיות. מיקרוסופט גם הודיעה על החלטה דומה להפסיק את מכירת טכנולוגיית זיהוי הפנים שלה, גם תוך ציון זכויות אדם בסיסיות.

תוכנת COMPAS ששימשה על ידי בתי המשפט בארה"ב להערכת סיכונים פליליים תייגה בטעות עברייני מיעוטים גלויים כעל סבירות גבוהה יותר להפגע מחדש מאשר עבריינים לבנים. האם לדעת זאת שימוש בבינה מלאכותית בבתי משפט בכלל צריכה להיות אופציה?

מחקרים מ-COMPAS גילה שהוא לא טוב יותר בניבוי פשעים מאשר אנשים אקראיים. בעוד שניתוח חיזוי מספק ערך משמעותי בהקשר מסחרי, הוכח כי היא גורמת לחוסר שוויון ביישום שלה למשפט פלילי. זה ניכר בא לדווח פורסם על ידי Pro Publica שמצא את זה COMPAS, התוכנה הפופולרית ביותר המשמשת את בתי המשפט בארה"ב להערכת סיכונים פליליים, תייגה בטעות עברייני מיעוטים גלויים כבעלי סבירות גבוהה יותר שיעברו עבירות חוזרות בשיעור כפול מאשר עבריינים לבנים.

אי שוויון אלה הניעו את התובע הכללי דאז אריק הולדר להטיל ספק בהגינות ו להביע חששות על אי-השוויון הפוטנציאלי שנוצר כתוצאה מיישום טכנולוגיית בינה מלאכותית כדי לחזות את שיעורי החזרה באוכלוסיית העבריינים.

איך החברה יכולה להימנע מתכנות לא מכוון בהטיות שליליות למערכות בינה מלאכותית?

ראשית, חייבת להיות הכרה בכך ש-AI עשויה להיות בעלת נטייה לייצר הטיה לא מכוונת המכונה הטיה לא מודעת. הפחתת השפעתה השלילית דורשת גישה הוליסטית המורכבת מפיתוח של הנחיות בינה מלאכותית אתית, כפי שהוצעה על ידי מסגרות אתיות של OECD. זה מבוסס על שבעה עקרונות יסוד, כולל סוכנות ופיקוח אנושיים, חוסן ובטיחות טכניים, פרטיות וממשל, שקיפות, גיוון ואי-אפליה, רווחה חברתית ואחריות.

שנית, עמידה במסגרות חוקיות המגנות מפני יצירת פרופילים אוטומטיים היא המפתח. לדוגמה, לאיחוד האירופי יש היסטוריה ארוכה של כיבוד והגנה על זכויות הפרטיות, כאשר הביטוי האחרון והחזק ביותר הוא תקנת הגנת המידע הכללית (GDPR) המגנה באופן ספציפי מפני קבלת החלטות אוטומטית.

שלישית, צריכה להיות אחריות בתעשייה על האופן שבו טכנולוגיית AI מפותחת ומחויבות לספק שקיפות מבלי להשפיע על זכויות ה-IP הקנייניות שלהם. יש כאן התפתחויות חיוביות. לדוגמה, השותפות בנושא בינה מלאכותית היא ארגון עם למעלה מ-80 חברים ב-13 מדינות המוקדש למחקר ולדיון בנושאי בינה מלאכותית.

לבסוף, ארגונים טכנולוגיים צריכים לעמוד בהתחייבות לבצע הערכת השפעה הטיה לפני השחרור המסחרי של אלגוריתמי בינה מלאכותית, במיוחד כאשר היישומים שלהם משפיעים על פרטיות וזכויות אבטחה. שאלות שמנהיגי טכנולוגיה צריכים לשקול לפני שחרור יישומים חדשים התומכים בינה מלאכותית כוללות: האם הנתונים שעליהם טכנולוגיה זו הוכשרה מגוונים מספיק? כיצד תתגלה הטיה? איך זה נבדק ועל ידי מי? מהם התמריצים למפתחים? מי ירוויח מזה מבחינה מסחרית?

חשוב לזכור שפתרונות בינה מלאכותית משקפים את הנתונים הבסיסיים שיישומים אלו מאומנים, כך שחשוב לוודא שהנתונים הללו אינם מוטים ומשקפים כראוי את מגוון המרכיבים שהפתרון ישרת. במילותיו של פרופסור חוקר בינה מלאכותית ג'ואנה בריסון, "אם הנתונים הבסיסיים משקפים סטריאוטיפים, או אם תאמן AI מהתרבות האנושית, תמצא הטיה. ואם לא נזהר, אנו מסתכנים בשילוב ההטיה הזו בתוכנות המחשב שמשתלטות במהירות על ההפעלה של כל דבר, מבתי חולים ועד בתי ספר ועד בתי סוהר - תוכניות שאמורות לחסל את ההטיות הללו מלכתחילה".

ABBYY השיקה לאחרונה יוזמה גלובלית לקידום פיתוח של בינה מלאכותית אמינה. עד כמה היוזמה הזו חשובה לעתיד ABBYY?

ההחלטה לפתח את שלנו יוזמה גלובלית לבינה מלאכותית מהימנה היא החלטה חשובה המונעת על ידי האמונה שלנו שכארגון שהטכנולוגיות שלו משפיעות על ארגונים ברחבי העולם ומשרתים עשרות אלפי משתמשים בודדים, יש לנו מחויבות להיות אזרחים תאגידיים טובים עם מצפון חברתי. זה לא רק עוזר ליצור אמון רב יותר מהלקוחות והשותפים הגלובליים שלנו, אלא הוא גם עוזר להבטיח שהטכנולוגיות שלנו ימשיכו להשפיע באופן עמוק באופן שמועיל לטובת הכלל.

זה גם הגיוני לעסקים לקדם ולתמוך בשימוש אמין ב-AI. זה מחזק את הון העצמי של המותג שלנו, מייצר אמון עם הקהילה שלנו של לקוחות גלובליים ואקוסיסטם של שותפים. אמון מתורגם לעסקים חוזרים ולצמיחה בת קיימא.

חלק מיוזמה זו היא ש-ABBYY מתחייבת לטפח תרבות המקדמת את השימוש האתי בבינה מלאכותית והתועלת החברתית שלה. מה צריך לעשות כדי שחברות אחרות יטפחו תרבות דומה?

חברות טכנולוגיה צריכות לבנות מסגרת לשימוש אתי ב-AI. היקף מחויבות כזו תלוי ביישומים המיועדים של אלגוריתמי AI. הדרך הטובה ביותר לאמוד את השפעתו היא ליישם את עיקרון אל תזיק ובעלי מחויבות מלמעלה למטה לשימוש אמין ב-AI.

חשובה לא פחות היא מחויבות לשקיפות. בעוד שזכויות ה-IP צריכות להיות מאוזנות עם העיקרון של AI מהימן, החשיבות של שקיפות ואחריות לשימוש אחראי ב-AI צריכה להיות מנוסחת בבירור ותקשורת בכל הארגון.

אחת היוזמות אליהן התחייבה ABBYY היא אספקת טכנולוגיות AI שמועילות מבחינה חברתית וכלכלית. זה יכול להיות איזון שקשה להשיג. איך חברות יכולות ליישם זאת בצורה הטובה ביותר?

מנהיגים יכולים להשיג איזון זה על ידי התחשבות בהמלצות המוצעות על ידי דלויט: עיצוב אתיקה לתוך AI מתחיל בקביעה מה חשוב לבעלי עניין כמו לקוחות, עובדים, רגולטורים והציבור הרחב. חברות צריכות להקים ועדה ייעודית לממשל AI ומייעצת ממנהיגים צולבים ויועצים חיצוניים, שתעסוק בקבוצות עבודה מרובות מחזיקי עניין ותקים ויפקח על הממשל של פתרונות התומכים בבינה מלאכותית, כולל התכנון, הפיתוח, הפריסה והשימוש שלהם.

כיצד אנו מאזנים בין האינטרסים המסחריים שלנו לבין הטוב החברתי שלנו הודגם לאחרונה במהלך מגיפת הקורונה. הפכנו רבות מהטכנולוגיות שלנו לזמינות בחינם או בתעריפים מוזלים כדי לעזור לאנשים ולארגונים לנווט את המשבר, לשמור על המשכיות עסקית ולתמוך בלקוחותיהם בנסיבות בלתי צפויות.

לאחרונה הפכנו את המסגרות הטכנולוגיות שלנו לזמינות באמצעות NeoML, ספריית למידת מכונה חוצת פלטפורמות שלנו בקוד פתוח המאפשרת למפתחי תוכנה למנף מודלים מוכחים ואמינים כדי לקדם חדשנות בינה מלאכותית.

האם תוכל לחלוק דעות מאחורי השימוש בבינה מלאכותית עבור אפליקציות COVID-19 לצורך מעקב אחר אנשי קשר והצרכים של איזון הזכות לפרטיות?

זו סוגיה מטרידה במיוחד. יש הטוענים שהטמעת אפליקציות מעקב ניידות מייצגת חדירה בלתי רצויה לזכויות הפרטיות. מצד שני, בכל הנוגע לביטחון הציבור, תמיד יש מגבלות על זכויות באופן כללי. זה החלפה בין זכויות וחובות. עם זאת, הזכויות אינן מוחלטות. בלימה של מגיפה עולמית מחייבת פעולה מתואמת ויישום של משאבים וטכנולוגיות שניתן להשתמש בהן בצורה אחראית כדי להגן על האוכלוסייה בכללותה.

איזון זה בין זכויות הפרטיות של הפרט לבין טובת הכלל מוכר במסגרת חוקית. לדוגמה, ה-GDPR מזהה שש עילות לעיבוד חוקי של מידע אישי מזהה, כולל הוראה שכאשר העיבוד הוא הכרחי למען האינטרס הציבורי, עיבוד כזה של PII מוצדק ללא קבלת הסכמת נושא הנתונים.

יתרה מזאת, רמז 46 של GDPR קובע ישירות שעיבוד של PII הוא מוצדק ללא קבלת הסכמת נושא הנתונים במצבי חירום הומניטריים כולל מגיפות. עם זאת, חשוב לציין כי פסקה 46 מפרשת את תחולת הוראת האינטרס הציבורי בצמצום רב, תוך ציון כי היא צריכה להתקיים רק כאשר אין אפשרות לבסס אותה על בסיס משפטי אחר.

מלבד האיזון בין זכויות הפרטיות לאינטרס הציבורי, חובה גם על מגזר הטכנולוגיה ועל קובעי המדיניות ליישם הנחיות מוסריות, שקופות והוגנות הנוגעות לשימוש בפרופילים מונעי בינה מלאכותית ושיתוף מידע בריאותי רגיש ביותר. חברות טכנולוגיה גדולות כולל גוגל ופייסבוק כבר החלו ביוזמות לעקוב אחר תנועות המשתמשים כדי לזהות כיצד הנגיף מתפשט ולהעריך את יעילותם של אמצעי ריחוק חברתי.

אני מאמין שכל עוד המידע אנונימי, לשימוש בו יש תועלת חברתית.

האם יש משהו נוסף שתרצה לחלוק בנוגע ליוזמה העולמית החדשה של ABBYY לקידום פיתוח בינה מלאכותית אמינה?

התקנות נוטות לפגר את החדשנות הטכנולוגית, לכן, חברות צריכות לקחת תפקיד פרואקטיבי בטיפוח שקיפות ואחריות עם טכנולוגיות AI וכיצד הן משפיעות על הפרטיות ועל זכויות האבטחה. שֶׁלָנוּ יזמה משקף את המחויבות שלנו במאמץ הזה. מאז הקמתנו, יצרנו טכנולוגיות חדשניות השומרות מידע בעל ערך והופכות אותו לידע בר-פעולה.

יתרה מזאת, שימוש אתי בטכנולוגיות בינה מלאכותית לא צריך להיחשב רק על בסיס חוקי אלא גם כמחויבות מוסרית וכציווי עסקי. אם לפתרונות שלך יש טווח רחוק ומשפיעים על פונקציות קריטיות לעסק, זה צריך להיות תקן תעשייתי להיות שקוף ביישום טכנולוגיות AI.

תודה רבה על התשובה לשאלות החשובות הללו. כדי לראות את העקרונות המנחים והגישה של ABBYY לעמידה בעקרונות בינה מלאכותית ומהימנים, בבקשה לחץ כאן. כל מי שרוצה ללמוד עוד על ABBYY באופן כללי יכול לבקר באתר אתר ABBYY.

שותף מייסד של unite.AI וחבר ב- המועצה הטכנולוגית של פורבס, אנטואן הוא א עתידן שהוא נלהב מהעתיד של AI ורובוטיקה.

הוא גם המייסד של Securities.io, אתר אינטרנט המתמקד בהשקעה בטכנולוגיה משבשת.