בדל כיצד ליישם את האתיקה של AI? - Unite.AI
צור קשר

מנהיגי מחשבה

כיצד ליישם את האתיקה של AI?

mm

יצא לאור

 on

AI עוסק באופטימיזציה של תהליכים, לא בסילוק בני אדם מהם. האחריות נותרת מכרעת ברעיון הכולל ש-AI יכול להחליף בני אדם. בעוד שטכנולוגיה ומערכות אוטומטיות עזרו לנו להשיג תפוקות כלכליות טובות יותר במאה האחרונה, האם הן באמת יכולות להחליף שירותים, יצירתיות וידע עמוק? אני עדיין מאמין שהם לא יכולים, אבל הם יכולים לייעל את הזמן המושקע בפיתוח אזורים אלה.

האחריות נשענת במידה רבה על זכויות קניין רוחני, תוך חיזוי השפעת הטכנולוגיה על זכויות קולקטיביות ואינדיווידואליות, והבטחת הבטיחות וההגנה של הנתונים המשמשים בהדרכה ושיתוף תוך פיתוח מודלים חדשים. ככל שאנו ממשיכים להתקדם בטכנולוגיה, הנושא של אתיקה של AI הפך יותר ויותר רלוונטי. זה מעלה שאלות חשובות לגבי האופן שבו אנו מווסתים ומשלבים AI בחברה תוך מזעור סיכונים פוטנציאליים.

אני עובד בשיתוף פעולה הדוק עם היבט אחד של AI - שיבוט קולי. קול הוא חלק חשוב מהדמיון והנתונים הביומטריים של אדם המשמשים לאימון מודלים קוליים. ההגנה על דמיון (שאלות משפטיות ומדיניות), אבטחת נתוני קול (מדיניות פרטיות ואבטחת סייבר), וקביעת הגבולות של יישומי שיבוט קול (שאלות אתיות המודדות השפעה) חיוניים לשקול בעת בניית המוצר.

עלינו להעריך כיצד AI מתיישר עם הנורמות והערכים של החברה. יש להתאים את הבינה המלאכותית כך שתתאים למסגרת האתית הקיימת של החברה, ולהבטיח שהיא לא מטילה סיכונים נוספים או מאיימת על נורמות חברתיות מבוססות. השפעת הטכנולוגיה מכסה תחומים שבהם בינה מלאכותית מעצימה קבוצה אחת של אנשים תוך חיסול אחרים. דילמה קיומית זו מתעוררת בכל שלב בהתפתחות שלנו ובצמיחה או דעיכה חברתית. האם בינה מלאכותית יכולה להכניס יותר דיסאינפורמציה למערכות אקולוגיות של מידע? כן. כיצד אנו מנהלים את הסיכון ברמת המוצר, וכיצד אנו מחנכים את המשתמשים וקובעי המדיניות לגביו? התשובות טמונות לא בסכנות של הטכנולוגיה עצמה, אלא באופן שבו אנו אורזים אותה למוצרים ושירותים. אם אין לנו מספיק כוח אדם בצוותי המוצר כדי להסתכל מעבר ולהעריך את ההשפעה של הטכנולוגיה, ניהיה תקועים במעגל של תיקון הבלגן.

השילוב של AI במוצרים מעלה שאלות לגבי בטיחות המוצר ומניעת נזקים הקשורים לבינה מלאכותית. הפיתוח והיישום של AI צריכים לתת עדיפות לשיקולי בטיחות ואתיים, המחייבים הקצאת משאבים לצוותים רלוונטיים.

כדי להקל על הדיון המתהווה על הפעלת אתיקה של AI, אני מציע את המחזור הבסיסי הזה להפיכת AI לאתי ברמת המוצר:

1. חקור את ההיבטים המשפטיים של בינה מלאכותית וכיצד אנו מסדירים אותה, אם קיימות תקנות. אלה כוללים את חוק האיחוד האירופי בנושא AI, חוק שירות דיגיטלי, הצעת חוק הבטיחות המקוונת של בריטניה ו-GDPR בנושא פרטיות נתונים. המסגרות הן עבודות בתהליך וזקוקות לתשומה ממובילי התעשייה (טכנולוגיה מתפתחת) וממנהיגים. ראה נקודה (4) המשלימה את המחזור המוצע.

2. שקול כיצד אנו מתאימים מוצרים מבוססי בינה מלאכותית לנורמות החברה מבלי להטיל סיכונים נוספים. האם זה משפיע על אבטחת המידע או על מגזר העבודה, או שהוא מפר זכויות יוצרים וזכויות IP? צור מטריצה ​​מבוססת תרחישי משבר. אני שואב את זה מהרקע הביטחוני הבינלאומי שלי.

3. קבע כיצד לשלב את האמור לעיל במוצרים מבוססי בינה מלאכותית. ככל שה-AI נעשה מתוחכם יותר, עלינו להבטיח שהיא תואמת את ערכי החברה והנורמות. עלינו להיות פרואקטיביים בהתייחסות לשיקולים אתיים ושילובם בפיתוח ויישום בינה מלאכותית. אם מוצרים מבוססי בינה מלאכותית, כמו בינה מלאכותית גנרית, מאיימים להפיץ יותר מידע דיסאינפורמציה, עלינו להציג תכונות הפחתה, מתינות, להגביל את הגישה לטכנולוגיית ליבה ולתקשר עם המשתמשים. זה חיוני שיהיו צוותי אתיקה ובטיחות בינה מלאכותית במוצרים מבוססי בינה מלאכותית, מה שדורש משאבים וחזון של החברה.

שקול כיצד אנו יכולים לתרום ולעצב מסגרות משפטיות. שיטות עבודה מומלצות ומסגרות מדיניות אינן מילות באז בלבד; הם כלים מעשיים שעוזרים לטכנולוגיה חדשה לתפקד ככלי מסייע ולא כאיומים מתקרבים. חיבור בין קובעי מדיניות, חוקרים, טכנולוגיה גדולה וטכנולוגיה מתפתחת חיוני לאיזון אינטרסים חברתיים ועסקיים סביב AI. מסגרות משפטיות חייבות להתאים את עצמן לטכנולוגיה המתפתחת של בינה מלאכותית, להבטיח שהן מגינות על יחידים ועל החברה תוך טיפוח חדשנות וקידמה.

4. חשבו כיצד אנו תורמים למסגרות המשפטיות ומעצבים אותן. השיטות המומלצות ומסגרות המדיניות אינן מילות באז ריקות, אלא כלים מעשיים למדי לגרום לטכנולוגיה החדשה לעבוד ככלי מסייע, לא כאיומים מתקרבים. קביעת מדיניות, חוקרים, טכנולוגיה גדולה וטכנולוגיה מתפתחת בחדר אחד חיונית כדי לאזן בין אינטרסים חברתיים ועסקיים סביב AI. מסגרות משפטיות חייבות להתאים את עצמן לטכנולוגיה המתפתחת של AI. עלינו להבטיח שהמסגרות הללו יגנו על הפרטים והחברה ובמקביל גם מקלות על חדשנות וקידמה.

<br> סיכום

זהו מעגל בסיסי באמת של שילוב טכנולוגיות מתפתחות מבוססות Ai בחברות שלנו. ככל שאנו ממשיכים להתמודד עם המורכבות של אתיקה בינה מלאכותית, חיוני להישאר מחויבים למציאת פתרונות המעניקים עדיפות לבטיחות, אתיקה ורווחה חברתית. ואלה אינן מילים ריקות, אלא העבודה הקשה של חיבור כל הפאזלים מדי יום.

מילים אלו מבוססות על ניסיוני ומסקנות שלי.

אנה היא ראש תחום אתיקה ושותפויות ב רפצ'ר, טכנולוגיית שיבוט קול עטורת אמי שבסיסה באוקראינה. אנה היא יועצת מדיניות לשעבר ב-Reface, אפליקציית מדיה סינתטית המופעלת בינה מלאכותית ומייסדת טכנולוגיה של כלי הדיסאינפורמציה הנגדית Cappture הממומן על ידי תוכנית האקסלרטור Startup Wise Guys. לאנה ניסיון של 11 שנים במדיניות ביטחון והגנה, טכנולוגיות ובניית חוסן. היא עמיתת מחקר לשעבר במרכז הבינלאומי להגנה וביטחון בטאלין ובמכון לחקר הביטחון של פראג. היא גם מייעצת לחברות אוקראיניות גדולות בבניית חוסן כחלק מכוח המשימה ללוחמה היברידית בבית הספר לכלכלה של קייב.