בדל ריד בלקמן, Ph.D, מייסד ומנכ"ל Virtue Consultants - סדרת ראיונות - Unite.AI
צור קשר

ראיונות

ריד בלקמן, Ph.D, מייסד ומנכ"ל Virtue Consultants - סדרת ראיונות

mm

יצא לאור

 on

ריד בלקמן הוא המייסד והמנכ"ל של יועצי סגולה. בתפקיד זה הוא עבד עם חברות כדי לשלב אתיקה והפחתת סיכונים אתיים בתרבות החברה ובפיתוח, פריסה ורכש של מוצרים טכנולוגיים מתפתחים. הוא גם יועץ בכיר של ארנסט אנד יאנג ויושב במועצת הייעוץ שלהם לבינה מלאכותית, וחבר ביוזמת העיצוב האתי של IEEE.

עבודתו של ריד צוינה ב"וול סטריט ג'ורנל" וב-Dell Perspectives והוא תרם קטעים ל-The Harvard Business Review, TechCrunch, VentureBeat ומגזין Risk & Compliance. הוא צוטט בכתבות חדשותיות רבות, והוא נואם בקביעות במקומות שונים כולל הפורום הכלכלי העולמי, SAP, קאן ליונס, פורבס, בית הספר לעסקים של NYU Stern, University of Columbia ו-AIG.

היית פרופסור לפילוסופיה באוניברסיטת קולגייט משנת 2009 עד 2018. באיזה שלב התחלת לשלב אתיקה של AI בשיעורים שלך?

לעתים קרובות לימדתי קורס על פילוסופיה חברתית ופוליטית, שבו סיקרתי את מרקס. אחת הטענות המרכזיות של מרקס היא שהקפיטליזם יפנה בסופו של דבר את מקומו לקומוניזם, עקב גידול מסיבי ב"אמצעי הייצור". במילים אחרות, הקפיטליזם דוחף יעילות רבה יותר ויותר בשם התחרות ופתיחת שווקים חדשים, שמשמעותה עלייה ביצירת טכנולוגיות שיכולות להפיק יותר ויותר בזמן קצר יותר ויותר. מרקס גם חזה שהדבר יכניס יותר ויותר כסף לידיים של מעטים וידחוף יותר ויותר אנשים לעוני, ובשלב זה יתהפכו מבנים קפיטליסטיים על ידי מהפכה בהובלת מספרם ההולך וגדל של ההמונים חסרי כל. כל זה מוביל לדיון סביב האתיקה של הטכנולוגיה המייתרת את הצורך בעבודה אנושית, שהיא מרכיב מרכזי באתיקה של AI.

סיפור צדדי קטן אם אתה מעוניין: עוד בשנת 2002 הייתי סטודנט לתואר שני שהוביל דיון על מרקס עם בוגרי תואר ראשון באוניברסיטת נורת'ווסטרן. בשלב מסוים, תלמיד הרים את ידו ואמר, "בסופו של דבר לא נזדקק לבני אדם שיעשו שום עבודה." הכיתה הייתה מבולבלת. הייתי מבולבל. אז אמרתי, "טוב אז מי יעשה את העבודה?" הוא ענה בצורה עניינית מאוד: "רובוטים". הכיתה פרצה מצחוק. חנקתי את שלי. אבל זה די ברור מי צחק אחרון.

בשנת 2018, השקת יועצי סגולה, ייעוץ אתי המאפשר למובילי נתונים ו-AI לזהות ולהפחית את הסיכונים האתיים של המוצרים שלהם. מה נתן לך השראה להתחיל את המסע היזמי הזה?

קנאה. טוב סוג של. פתחתי חברה לסיטונאי זיקוקים כשהייתי סטודנט לתואר שני, אני חושב בסביבות 2003 או 2004. זה הלך טוב יותר ממה שציפיתי, והחברה עדיין קיימת, אם כי עכשיו אני יועץ וכבר לא דואג לתפעול היומיומי . בכל מקרה, זה רלוונטי כי זה מסביר איך הגעתי להיות מנטור לסטארט-אפים בתוכנית היזמות של קולגייט (שנקראת TIA, Thought Into Action, בהובלת שני הון סיכון מדהימים, אנדי גרינפילד ווילס האפורת', שמנהלים את TIA Ventures). כמנטור ראיתי סטודנטים יוצאים לפרויקטים מרגשים כשהם ניסו להבין איך להקים ולהגדיל את הסטארט-אפים שלהם למטרות רווח או ללא מטרות רווח וחשבתי, "אני רוצה את זה!" אבל מה יהיה המיזם החדש שלי? זה היה צריך לדבר לאהבתי לפילוסופיה ולאתיקה, והדבר הראשון שהיה הגיוני היה ייעוץ אתי. לא ראיתי אז את השוק לשירותים כאלה, כי לא היה אחד לראות, ולכן חיכיתי. ואז קיימברידג' אנליטיקה, ו-BLM, ו-MeToo# עלו לכותרות לאומיות, ופתאום הייתה מודעות גדולה יותר לצורך.

עד כמה חשוב לחברות להציג הצהרת אתיקה של AI?

הצהרת אתיקה בינה מלאכותית אינה חיונית, אך היא כלי שימושי ביותר להגדרת היעדים שלך. כאשר אתה מציג תוכנית אתיקה בינה מלאכותית לארגון שלך, אתה רוצה שהיא תזהה ותפחית ותנהל סיכונים אתיים, מוניטין, רגולטוריים ומשפטיים שונים. זה תפקידו העיקרי. הצהרת אתיקה עוזרת לנסח איך הדברים ייראו ברגע שתהיה לך את התשתית, התהליך והפרקטיקות כדי להשיג את הפונקציה הזו. במידה ואסטרטגיה זקוקה למטרה - מה שהיא תמיד עושה - הצהרת אתיקה של AI היא דרך נחמדה לבטא את המטרות הללו, אם כי זו לא הדרך היחידה.

כיצד חברות יכולות להבטיח שהצהרת האתיקה תועבר לתהליך ולפרקטיקה?

הצהרת אתיקה היא רק צעד זעיר בכיוון הנכון. אם אתה רוצה להמשיך, הצעד הטבעי הבא הוא לעשות הערכה של היכן אתה נמצא ביחס למטרות המנוסחות בהצהרה זו. ברגע שאתה יודע היכן נמצאים הפערים הגדולים והמסוכנים ביותר - כלומר היכן אתה בסיכון הגבוה ביותר ליפול מהמטרות שלך - אז אתה יכול להתחיל לתכנן את הפתרונות לצמצום הפערים הללו. אולי זו ועדת אתיקה. אולי זה תהליך בדיקת נאותות במהלך פיתוח המוצר. אולי זה משתפר לגבי האופן שבו אתה מטפל בנתונים במחלקות שאינן מוצר, כמו שיווק ומשאבי אנוש. כנראה זה כל הדברים האלה ועוד.

מהם כמה פתרונות שחברות צריכות ליישם כדי למנוע הטיה לאלגוריתם הבינה המלאכותית בפועל?

יש שם חבורה של כלים טכניים לזיהוי הטיה, אבל הם מוגבלים. הם יאפשרו לך להשוות את התפוקות של המודל שלך מול עשרות המדדים הכמותיים שהוצעו בספרות האתיקה האקדמית של ML, אך עליך להיות זהיר כי מדדים אלה אינם תואמים זה את זה. אז צריך לקבל החלטה מהותית, אתית: איזה, אם אחד מהמדדים האלה, הוא המתאים בהקשר הזה?

מלבד השימוש בכלי כזה, בתוספת דרך אחראית לענות על השאלה הזו, טוב יעשו צוותי מוצר לחשוב היכן הטיה יכולה להתגנב לפני שהם מתחילים לבנות. איך זה יכול להיכלל או להשתקף במערכי הנתונים של ההדרכה? מה דעתך בקביעת הפונקציה האובייקטיבית? מה לגבי קביעת הסף? יש הרבה מקומות שהטיה יכולה להתגנב פנימה. מחשבה מוקדמת לגבי היכן זה יכול להיות בפרויקט הנוכחי של האדם וכיצד זה יכול להיכנס לשם חיונית לזיהוי והפחתה של הטיה.

חברות בינה מלאכותית ידועות לשמצה בכך שהן נשלטות על ידי גברים לבנים שעלולים לתכנת בטעות בכמה הטיות למערכת הבינה המלאכותית. כדי להימנע מכך, איזה סוג של תכונות צריכות לחפש במחלקות משאבי אנוש?

אני בעד הזדמנויות גדולות יותר וגיוון רב יותר בין מהנדסים וצוותי מוצר באופן כללי. עם זאת, אני חושב שזו הסתכלות על דברים דרך העדשה הלא נכונה. הבעיה העיקרית כשמדובר באלגוריתמים מוטים היא לא שהטיות של בחור לבן מובילות לקוד מוטה. זה שמערכות ההדרכה של הנתונים מוטות. למעשה, מאמר שפורסם לאחרונה מקולומביה - "מתכנתים מוטים? או נתונים מוטים? ניסוי שטח בהפעלת אתיקה של בינה מלאכותית" – הגיע למסקנה ש"מתכנתים שמבינים הדרכה טכנית מצליחים לצמצם הטיה", וכי "תחזיות [אלגוריתמיות של מתכנתות בינה מלאכותיות ומיעוט אינן מפגינות פחות הטיה או אפליה אלגוריתמית". אז בעוד שמשאבי אנוש צריכים לשים לב לנושאי גיוון, זה רחוק מלהיות ברור שאסטרטגיות להפחתת תפוקות בינה מלאכותית מוטות צריכות להתמקד בעיקר - שלא לומר, באופן בלעדי - בקבלת החלטות ביחס למאמצי הגיוון.

האם תוכל לדון מהו בדיקת נאותות לסיכון אתי ומדוע חברות צריכות ליישם אותה?

בדיקת נאותות לסיכון אתי היא ניסיון לזהות את הסיכונים האתיים השונים שניתן לממש עם המוצר שאתה יוצר, כולל אופן פריסתו, כיצד ניתן להשתמש בו ולעשות בו שימוש לרעה וכו'. אתה רוצה להתמקד בתכונות של מוצר - הן אלה שיש לו והן אלה שחסרים לו - והדרכים שבהן הם יכולים להוביל, כאשר הם נפרסים בהקשרים שונים, לעוולות אתיות. כשזה נעשה היטב, מדובר בבדיקה מערכתית וממצה. כמובן, בעוד שאתה יכול לנסות כמיטב יכולתך להסתכל מעבר לפינה, יש בהחלט כמה דברים שתפספסו, וזו הסיבה שמעקב רציף חשוב.

באשר למה שחברות צריכות ליישם את זה: הן צריכות רק לשקול את הסיכונים האתיים, המוניטין, הרגולטוריים והמשפטיים על כך שלא עושים זאת. חשבו על Optum בחדשות ובחקירה רגולטורית עבור אלגוריתם מוטה (לכאורה) שהמליץ ​​לעוסקים בתחום הבריאות לשים לב יותר לחולים לבנים מאשר לחולים שחורים חולים יותר. או לגולדמן זאקס, בחקירה בגין מסגרת האשראי לכרטיס אפל, שלכאורה מפלה נשים. או תוכנת הגיוס של אמזון, שנפסלה עקב חששות לגבי הטיה לפני פריסתה. או ש-IBM נתבעת על ידי לוס אנג'לס על ניצול שגוי של נתונים שנאספו מאפליקציית Weather שלה. או פייסבוק….

האם יש משהו נוסף שתרצה לחלוק על יועצי סגולה?

Virtue עוזרת למנהיגים בכירים ליישם את האתיקה של בינה מלאכותית, בין אם זה עוזר בחינוך והכשרת אנשים בנושא, כתיבת הצהרת אתיקה של בינה מלאכותית, יצירה ויישום של מסגרת סיכון אתית של בינה מלאכותית, או פשוט לשמש כיועצים לאתיקה של בינה מלאכותית. אם זה נשמע מעניין, אנשים צריכים לבוא להגיד שלום.

תודה על הראיון הנהדר, קוראים שרוצים ללמוד עוד על ריד צריכים לבקר ריד בלקמן, או שאתה יכול לבקר יועצי סגולה.

שותף מייסד של unite.AI וחבר ב- המועצה הטכנולוגית של פורבס, אנטואן הוא א עתידן שהוא נלהב מהעתיד של AI ורובוטיקה.

הוא גם המייסד של Securities.io, אתר אינטרנט המתמקד בהשקעה בטכנולוגיה משבשת.