ืืื ื ืืืืืืชืืช
ืืื ืงืื ืืืืฆืจืื ืืืื ืฉื ืืื ื ืืืืืืชืืช ืืืืืื ืืืจืื ืืืืืจ ืืืงืืจืื ื

מאז תנועת Me Too עלתה לבמה בסוף 2017, תשומת לב רבה יותר מוקדשת למקרים של הטרדה מינית, כולל הטרדה במקום העבודה והטרדה דרך דואר אלקטרוני או הודעות מיידיות.
כפי שדווח ב-The Guardian, חוקרים ומהנדסים של בינה מלאכותית יוצרים כלים לגילוי הטרדה דרך תקשורת טקסט, המכונים MeTooBots. MeTooBots מוטמעים על ידי חברות ברחבי העולם על מנת לסמן תקשורות פוטנציאלית מזיקות ומטרידות. דוגמה אחת לכך היא בוט שנוצר על ידי החברה Nex AI, המשמש כיום כ-50 חברות שונות. הבוט משתמש באלגוריתם שבוחן מסמכים של חברות, צ’אט ודואר אלקטרוני ומשווה אותו לנתוני האימון של הודעות בוליות או מטרידות. הודעות שנחשבות כפוטנציאלית מטרידות או מזיקות יכולות להישלח למנהל HR לביקורת, אם כי Nex AI לא חשף את המונחים הספציפיים שהבוט מחפש בתקשורות שהוא מנתח.
חברות הזנקים אחרות גם יצרו כלים לגילוי הטרדה בעלי כוח AI. הסטארט-אפ Spot מחזיקה בבוט צ’אט שמסוגל לאפשר לעובדים לדווח באופן אנונימי על קביעות של הטרדה מינית. הבוט ישאל שאלות ויתן עצות על מנת לאסוף פרטים נוספים ולקדם חקירה לתקרית. Spot רוצה לעזור לצוותי HR לטפל בנושאי הטרדה באופן רגיש בעודו שומר על אנונימיות.
על פי The Guardian, פרופ’ בריאן סוביראנה, פרופסור לבינה מלאכותית ב-MIT והרווארד, הסביר כי ניסיונות להשתמש בבינה מלאכותית לגילוי הטרדה הם מוגבלים. הטרדה יכולה להיות מאוד עדינה וקשה לזהות, לעיתים קרובות היא מתגלה רק כדפוס שמתגלה כאשר בוחנים שבועות של נתונים. בוטים גם לא יכולים, כרגע, לעבור את גילוי מילים מפתח מסוימות ולנתח את הדינמיקה הבין-אישית או התרבותית הרחבה יותר שעלולה להיות בפעולה. למרות המורכבות של גילוי הטרדה, סוביראנה מאמין שבוטים יכולים לשחק תפקיד במאבק בהטרדה מקוונת. סוביראנה רואה את הבוטים משמשים לאימון אנשים לזהות הטרדה כאשר הם רואים אותה, יוצרים מאגר של הודעות בעייתיות פוטנציאליות. סוביראנה גם ציין כי ייתכן שיהיה אפקט פלצבו שיגרום לאנשים להיות פחות מועדים להטריד את עמיתיהם, אפילו אם הם חושדים שהודעותיהם עלולות להיבדק, אפילו אם הם לא.
בעוד שסוביראנה מאמין שבוטים הם בעלי פוטנציאל, הוא גם טוען כי סודיות הנתונים ופרטיות הם דאגה מרכזית. סוביראנה מצהיר כי טכנולוגיה כזו יכולה ליצור אווירה של חוסר אמון וחשד אם היא תינצל לרעה. סם סמית’רס, המנכ”לית של ארגון הנשים Fawcett Society, הביעה גם היא דאגה בנוגע לאופן שבו הבוטים יכולים להינצל. סמית’רס אמרה:
“אנו היינו רוצים לבדוק בקפידה כיצד הטכנולוגיה מפותחת, מי עומד מאחוריה, ואם הגישה שננקטת היא מושפעת מתרבות עבודה המחפשת למנוע הטרדה ולקדם שוויון, או אם זהו רק דרך נוספת לשלוט בעובדים.”
שיטות להשתמש בבוטים לגילוי הטרדה ולהגן על אנונימיות ופרטיות יצטרכו להיעבד ב间יים בין מפתחי הבוטים, חברות ורגולטורים. דרכים אפשריות להשתמש בכוח החיזוי של בוטים ובינה מלאכותית בעודו שומרים על פרטיות כוללות שמירה על תקשורות אנונימיות. למשל, דוחות יכולים להיות מיוצרים על ידי הבוט שיכלולו רק את נוכחות של שפה פוטנציאלית מזיקה וספירת כמה פעמים השפה המטרידה מופיעה. HR יכולים אז לקבל מושג אם השימוש בשפה רעילה יורד לאחר סמינרים מודעות, או להפ




