Connect with us

قادة الفكر

من سوف يحمينا من المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي؟

mm

لقد تحول الذكاء الاصطناعي التوليدي من الصفر إلى المئة في أقل من سنة. في حين أنه مبكر، أظهر إمكاناته في تحويل الأعمال. نحن جميعاً نتفق على ذلك. حيث نختلف هو كيفية احتواء المخاطر التي تشكلها.

لكي أكون واضحاً، أنا من مؤيدي الابتكار، و بعيداً عن كوني شخصاً يثير الخوف. لكن الزيادة الأخيرة في المعلومات الخاطئة – والتي تهدف في الغالب إلى التأثير على القضايا المثيرة للجدل في الوقت الحالي – جعلت من الواضح أن الذكاء الاصطناعي التوليدي يمكن أن ي gây دماراً على المجتمعات إذا تم إهماله.

لقد رأينا هذا الفيلم من قبل مع وسائل الإعلام الاجتماعية، لكنه استغرق سنواتًا ودروسًا صعبة لنتعلم منها. لقد تعلمنا (على ما يبدو) شيئاً. السؤال اليوم هو من سوف يساعد في احتواء تدفق تشويه الواقع من الذكاء الاصطناعي التوليدي، وكيف؟

بالطبع، بدأت الحكومات في التصرف. أوروبا تقود الهجوم، كما أنها أظهرت بشكل متزايد على تنظيم التكنولوجيا. الولايات المتحدة تتبعها، مع إصدار الرئيس بايدن أمراً تنفيذياً في أكتوبر الماضي.

لكنها سوف تتطلب قرية عالمية تعمل معاً ل「الحفاظ على الذكاء الاصطناعي التوليدي صادقاً」. وقبل أن تتمكن الحكومة من المساعدة، تحتاج إلى فهم حدود النهج المتاحة.

مشكلة الهوية قد أصبحت أسوأ

في هذا العالم الجديد، تصبح الحقيقة إبرة في كومة من الآراء التي تتنكر في شكل حقائق. معرفة من أين يأتي المحتوى أمر أكثر أهمية من أي وقت مضى.

وليس من السهل أن يُمرر مرسوم ي规定 أن كل حساب على وسائل الإعلام الاجتماعية يجب أن يكون مصحوباً بالتحقق من الهوية. هناك معارضة شرسة لذلك، وفي بعض الحالات ، تكون 匿名ية ضرورية لحماية حاملي الحسابات. بالإضافة إلى ذلك، لا يهتم العديد من مستهلكي أسوأ المحتوى بصدقته، ولا من أين أتى.

على الرغم من تلك التحفظات، فإن دور الهوية في التعامل مع الذكاء الاصطناعي التوليدي غير متقدم. أسمعني، يا متشككون.

دعونا نتصور أن التنظيم أو الضمير الاجتماعي يؤديان إلى أن تمنح المنصات كل حامل الحسابات الخيارات التالية:

  1. التحقق من هويتهم أو لا، و
  2. الإفصاح علناً عن هويتهم المثبتة، أو مجرد وضع علامة „مؤكد“

ثم يمكن للجمهور على وسائل الإعلام الاجتماعية أن يقرر بسهولة من هو موثوق.

مع رفع الذكاء الاصطناعي التوليدي للمخاطر، أعتقد أن الهوية – معرفة من نشر ما—هي أمر بالغ الأهمية.

معضلة التصفية

تصفية المحتوى – آلياً وبشرياً – هي الخط الدفاعي الأخير ضد المحتوى غير المرغوب فيه. التصفية البشرية هي وظيفة قاسية، مع خطر الإضرار النفسية بسبب التعرض لأسوأ ما يمكن أن تقدمه الإنسانية. كما أنها مكلفة وغالبًا ما يُتهم بالرقابة المائلة التي تسعى المنصات إلى تقليصها.

التصفية الآلية تتجاوز قدرة البشر على التعامل مع تدفقات المحتوى الجديدة، لكنها تفشل في فهم السياق (الأغلفة هي مثال شائع) والرقيقات الثقافية. كلاهما ضروريان وضروريان، لكنهما جزء فقط من الإجابة.

الوصفة الشائعة، التقليدية، لمكافحة الذكاء الاصطناعي التوليدي هي: „التعاون بين قادة التكنولوجيا، والحكومة، والمجتمع المدني ضروري“.

الحكومات، من جانبها، يمكن أن تدفع المنصات الاجتماعية ووسائل الإعلام إلى تقديم التحقق من الهوية وعرضها بشكل بارز على جميع المنشورات.

الجانب المشرق من الشارع: الابتكار

وعد الابتكار يجعلني متفائلاً هنا. لا يمكننا أن نتوقع من السياسيين أو أصحاب المنصات أن يحميونا полностью من الخداع الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.

منذ أن نعرف الآن الجانب السلبي من وسائل الإعلام الاجتماعية، لقد أدركنا بسرعة أن الذكاء الاصطناعي التوليدي يمكن أن يصبح صافي سالب كبير للبشرية، مع قدرته على التأثير والتضليل.

بصورة متفائلة، أرى فوائد لنهج متعدد الأوجه حيث تعمل أساليب التحكم معاً، أولاً في المصدر، وتنقيح إنشاء المحتوى المصمم للاستخدام غير المشروع.

Jeff Sakasegawa هو معماري الثقة والأمان في Persona. مع أكثر من عقد من الخبرة في مجال الثقة والأمان عبر شركات مثل Google و Facebook و Square و Sift ، يعتبر Jeff خبيرًا في إدارة المخاطر والامتثال. وهو يهتم بضمان تجارب أمنية عبر الإنترنت آمنة لجميع المستخدمين.