Connect with us

ืขืงืจื•ื ื•ืช ืืชื™ืงื” ืฉืœ AI ืขื•ื‘ืจื™ื ืžื˜ื-ื ื™ืชื•ื—, ื–ื›ื•ื™ื•ืช ืื“ื ืžื•ื“ื’ืฉื•ืช

ืืชื™ืงื”

ืขืงืจื•ื ื•ืช ืืชื™ืงื” ืฉืœ AI ืขื•ื‘ืจื™ื ืžื˜ื-ื ื™ืชื•ื—, ื–ื›ื•ื™ื•ืช ืื“ื ืžื•ื“ื’ืฉื•ืช

mm

בשנת 2019, היה יותר מעורבות באתיקה של AI מאי פעם, אולם הרבה מהדיון הזה נראה מעורפל, ללא גישה מוקודדת. במקום זאת, חברות שונות יצרו את המסגרות והמדיניות שלהן בנוגע לאתיקה של AI. היותו של קונצנזוס בנושאי אתיקה של AI חשובה, מכיוון שהיא עוזרת למחוקקים ליצור ולתקן מדיניות, והיא גם מנחה את העבודה שנעשית על ידי חוקרים וחוקרות. מעבר לכך, חברות AI חייבות לדעת היכן הגבולות האתיים אם הן רוצות להימנע מיישום AI בלתי אתי. על מנת ליצור תמונה טובה יותר של המגמות באתיקה של AI, כפי ש VentureBeats דיווח, המרכז Berkman Klein באוניברסיטת הרווארד ביצע מטא-ניתוח של עקרונות ומסגרות אתיקה של AI הקיימים.

לפי המחברים של הניתוח, החוקרים רצו להשוות את העקרונות זה לזה כדי לחפש חפיפה והבדל. Jessica Fjeld, סגנית המנהל של מרפאת הסייבר של בית הספר למשפטים של הרווארד, הסבירה כי צוות המחקר רצה “לחשוף את התנופה הנסתרת בשיח הגלובלי המפוצל סביב עתידו של AI, תוצאה בדו”ח לבן זה ובוויזואליזציה המקושרת.”

במהלך הניתוח, הצוות בדק 36 מסמכים שונים של עקרונות AI, המקור ברחבי העולם ומסוגים שונים של ארגונים. תוצאות המחקר מצאו כי היו שמונה נושאים שהופיעו באופן קבוע לאורך המסמכים.

פרטיות ואחריות היו שניים מהנושאים האתיים הנפוצים ביותר, כמו גם בטיחות / AI. שקיפות / הסברתיות הייתה גם מטרה מצוטטת, עם ניסיונות רבים להפוך אלגוריתמים ליותר הסבריים במהלך 2019. הוגנות / אי-אפליה הייתה נקודת מוקד אתית נוספת, משקפת דאגות גוברות על אפליה בנתונים. הבטחת שליטה אנושית בטכנולוגיה, ולא מסירת כוח החלטה ל-AI, הוזכרה רבות. אחריות מקצועית הייתה הנושא השביעי הנפוץ שנמצא על ידי החוקרים. לבסוף, החוקרים מצאו אזכור מתמיד של קידום ערכים אנושיים במסמכי אתיקה של AI שבדקו.

צוות המחקר סיפק פירוט כמותי ואיכותני של היכן הנושאים הללו הופיעו בתוך מסמכי אתיקה של AI בניירם וב מפה המלווה. המפה מציגה היכן כל אחד מהנושאים הוזכר.

צוות המחקר העיר כי הרבה מהדיון סביב אתיקה של AI סבב סביב דאגה לערכים וזכויות אדם. כפי שהנייר המחקרי מציין:

“64% מהמסמכים שלנו הכילו הפניה לזכויות אדם, וחמישה מסמכים [14%] לקחו זכויות אדם בינלאומיות כמסגרת למאמץ הכללי שלהם.”

הפניות לזכויות אדם וערכים היו נפוצות יותר במסמכים שהופקו על ידי קבוצות המגזר הפרטי וקבוצות החברה האזרחית. זה מצביע על כך שחברות AI פרטיות אינן עוסקות רק ברווחים, אלא גם בייצור AI בדרך אתית. בינתיים, סוכנויות ממשלתיות נראות פחות מודעות לאתיקה של AI, עם פחות ממחצית מהמסמכים הקשורים ל-AI המקור בסוכנויות ממשלתיות, העוסקות באתיקה של AI.

החוקרים העירו גם כי אם המסמכים שבדקו היו חדשים יותר, הם היו נוטים יותר לטפל בכל שמונת הנושאים הבולטים, במקום רק במספר. עובדה זו מרמזת כי הרעיונות מאחורי מהווים שימוש אתי ב-AI מתחילים להתלכד בין אלו שמובילים את הדיון על אתיקה של AI. לבסוף, החוקרים טוענים כי הצלחתם של עקרונות אלה בהנחיית פיתוח AI תלויה בכמה הם משולבים היטב בקהילת פיתוח AI בכלל. החוקרים טוענים בנייר:

“בנוסף, עקרונות הם נקודת התחלה לממשל, לא סוף. לעצמו, סט עקרונות אינו סביר שיהיה יותר מאשר שכנוע עדין. השפעתו תלויה בכמה הוא משולב במערכת ממשל גדולה יותר, כולל למשל מדיניות רלוונטיות (למשל תוכניות לאומיות של AI), חוקים, תקנות, אבל גם פרקטיקות מקצועיות ושגרה יומיומית.”

ื‘ืœื•ื’ืจ ื•ืžืชื›ื ืช ืขื ื”ืชืžื—ื•ื™ื•ืช ื‘ื ื•ืฉืื™ื Machine Learning ื• Deep Learning. ื“ื ื™ืืœ ืžืงื•ื•ื” ืœืขื–ื•ืจ ืœืื—ืจื™ื ืœื”ืฉืชืžืฉ ื‘ื›ื•ื— ืฉืœ AI ืœื˜ื•ื‘ืช ื”ื—ื‘ืจื”.