الذكاء الاصطناعي
شركات ابداعية تطور أدوات ذكاء اصطناعي لاكتشاف المضايقات عبر البريد الإلكتروني

منذ أن أصبحت حركة Me Too بارزة في أواخر عام 2017، أصبح هناك المزيد من الاهتمام بالحوادث المتصلة بالمضايقات الجنسية، بما في ذلك المضايقات في مكان العمل والمضايقات من خلال البريد الإلكتروني أو الرسائل الفورية.
كما ذكر في صحيفة The Guardian ، باحثون ومهندسون في مجال الذكاء الاصطناعي يطورون أدوات لاكتشاف المضايقات من خلال الاتصالات النصية، والتي أطلقوا عليها اسم MeTooBots. يتم تطبيق MeTooBots من قبل الشركات في جميع أنحاء العالم لتحديد الاتصالات المحتملة التي قد تكون مضايقة أو مؤذية. مثال على ذلك هو روبوت تم إنشاؤه بواسطة شركة Nex AI، والذي يتم استخدامه حاليًا من قبل حوالي 50 شركة مختلفة. يستخدم الروبوت خوارزمية تحليل الوثائق والمراسلات والبريد الإلكتروني للشركة ومقارنتها بالبيانات المدربة على الرسائل المضايقة أو المزعجة. يمكن إرسال الرسائل التي يُعتبرها محتملة المضايقة أو الضرر إلى مدير الموارد البشرية لمراجعتها، على الرغم من أن Nex AI لم تكشف عن الشروط المحددة التي يبحث الروبوت عنها في المراسلات التي يفحصها.
كما قامت شركات ابداعية أخرى بتطوير أدوات لاكتشاف المضايقات باستخدام الذكاء الاصطناعي. تملك شركة Spot روبوتًا يمكنه تمكين الموظفين من الإبلاغ بشكل مجهول عن اتهامات المضايقة الجنسية. سيسأل الروبوت الأسئلة ويعطي النصائح من أجل جمع المزيد من التفاصيل وتقديم تحقيق في الحادثة. تريد شركة Spot مساعدة فرق الموارد البشرية في التعامل مع قضايا المضايقة بطريقة حساسة مع الحفاظ على السرية.
وفقًا لصحيفة The Guardian، أوضح البروفيسور بريان سوبيرانا، أستاذ الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا وجامعة هارفارد، أن محاولات استخدام الذكاء الاصطناعي لاكتشاف المضايقات لها حدودها. يمكن أن تكون المضايقة خفية وصعبة الكشف، وتظهر غالبًا فقط كنمط يظهر عند فحص أسابيع من البيانات. لا يمكن للروبوتات، حتى الآن، أن تتجاوز الكلمات المحفزة وتحلل الديناميات الشخصية أو الثقافية الأوسع التي قد تكون قيد اللعب. على الرغم من تعقيدات اكتشاف المضايقة، يعتقد سوبيرانا أن الروبوتات يمكن أن تلعب دورًا في مكافحة المضايقة عبر الإنترنت. يمكن أن يرى سوبيرانا أن الروبوتات يمكن استخدامها لتدريب الناس على اكتشاف المضايقة عند رؤيتها، وإنشاء قاعدة بيانات للرسائل المحتملة المشكلة. كما أشار سوبيرانا إلى أن هناك تأثيرًا وهميًا قد يجعل الناس أقل احتمالاً للمضايقة من زملائهم حتى لو اشتبهوا في أن رسائلهم قد يتم فحصها، حتى لو لم يكن ذلك كذلك.
في حين يعتقد سوبيرانا أن الروبوتات لها استعمالاتها المحتملة في مكافحة المضايقة، يجادل أيضًا بأن سرية البيانات والخصوصية هي قلق كبير. يصرح سوبيرانا أن مثل هذه التكنولوجيا يمكن أن تخلق جوًا من عدم الثقة والشك إذا استخدمت بشكل خاطئ. كما أعربت سام سميثرز، المدير التنفيذي لمنظمة حقوق المرأة Fawcett Society، عن قلقها حول كيفية استخدام الروبوتات. قالت سميثرز:
“نريد أن ننظر بعناية إلى كيفية تطوير التكنولوجيا، ومن هو وراءها، وهل النهج المتبع هو نهج مستنير من ثقافة مكان العمل التي تسعى إلى منع المضايقة وتعزيز المساواة، أو إذا كانت مجرد طريقة أخرى للسيطرة على موظفيها.”
سيتعين على مطورو الروبوتات والشركات والمنظمين العمل معًا لتحديد طرق استخدام الروبوتات لاكتشاف المضايقة مع الحفاظ على السرية والخصوصية. بعض الطرق الممكنة لاستخدام القوة التنبؤية للروبوتات والذكاء الاصطناعي مع الحفاظ على الخصوصية تشمل الحفاظ على سرية الاتصالات. على سبيل المثال، يمكن أن تتم إنشاء تقارير من قبل الروبوت تتضمن وجود لغة محتملة للمضايقة وعددها. يمكن أن يحصل فريق الموارد البشرية على فكرة إذا كانت استخدامات اللغة السامة تقل بعد ندوات التوعية، أو إذا كان عليهم أن يكونوا على حذر من زيادة المضايقة.
على الرغم من عدم اتفاق الآراء حول الاستخدامات المناسبة للخوارزميات والروبوتات في اكتشاف المضايقة، يبدو أن الجانبين يتفقان على أن القرار النهائي للتدخل في حالات المضايقة يجب أن يكون من قبل إنسان، وأن الروبوتات يجب أن تحذر فقط الناس من الأنماط المتطابقة بدلاً من القول بشكل قاطع إن شيئًا ما كان مثالاً على المضايقة.




