رطم المخاوف بشأن المخاطر المحتملة من ChatGPT تكتسب زخمًا ولكن هل التوقف مؤقتًا عن الذكاء الاصطناعي خطوة جيدة؟ - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات

قاده التفكير

المخاوف بشأن المخاطر المحتملة من ChatGPT تكتسب زخمًا ولكن هل التوقف مؤقتًا عن الذكاء الاصطناعي خطوة جيدة؟

mm

تم النشر

 on

بينما دعا Elon Musk وقادة التكنولوجيا العالميون الآخرون إلى وجود وقفة في الذكاء الاصطناعي بعد إصدار ChatGPT ، يعتقد بعض النقاد أن توقف التطوير ليس هو الحل. يعتقد أندرو بيري ، المبشر بالذكاء الاصطناعي ، من شركة الأتمتة الذكية ABBYY أن أخذ قسط من الراحة يشبه إعادة معجون الأسنان إلى الأنبوب. هنا يخبرنا لماذا ...

تطبيقات الذكاء الاصطناعي منتشرة وتؤثر فعليًا على كل جانب من جوانب حياتنا. في حين أنه جدير بالثناء ، فإن وضع المكابح الآن قد يكون غير معقول.

من المؤكد أن هناك مخاوف ملموسة تدعو إلى زيادة الرقابة التنظيمية للسيطرة على آثارها الضارة المحتملة.

مؤخرًا ، منعت هيئة حماية البيانات الإيطالية مؤقتًا استخدام ChatGPT على الصعيد الوطني بسبب مخاوف تتعلق بالخصوصية تتعلق بطريقة جمع ومعالجة البيانات الشخصية المستخدمة في تدريب النموذج ، فضلاً عن الافتقار الواضح إلى الضمانات ، مما يعرض الأطفال للردود "تمامًا" غير مناسب لأعمارهم ووعيهم ".

تحث منظمة المستهلك الأوروبية (BEUC) الاتحاد الأوروبي على التحقيق في الآثار الضارة المحتملة للنماذج اللغوية واسعة النطاق نظرًا "للمخاوف المتزايدة بشأن كيفية قيام ChatGPT وروبوتات المحادثة المماثلة بخداع الأشخاص والتلاعب بهم. تحتاج أنظمة الذكاء الاصطناعي هذه إلى مزيد من التدقيق العام ، ويجب على السلطات العامة إعادة تأكيد سيطرتها عليها ".

في الولايات المتحدة، مركز الذكاء الاصطناعي والسياسة الرقمية قدّم شكوى إلى لجنة التجارة الفيدرالية بأن ChatGPT ينتهك المادة 5 من قانون لجنة التجارة الفيدرالية (قانون FTC) (15 USC 45). أساس الشكوى هو أن ChatGPT فشل في تلبية توجيه التي وضعتها لجنة التجارة الفيدرالية للشفافية وإمكانية شرح أنظمة الذكاء الاصطناعي. تمت الإشارة إلى اعتراف ChatGPT بالعديد من الاعترافات المعروفة المخاطر بما في ذلك المساس بحقوق الخصوصية ، وإنشاء محتوى ضار ، ونشر المعلومات المضللة.

تشير فائدة النماذج اللغوية واسعة النطاق مثل ChatGPT على الرغم من الأبحاث إلى إمكاناتها الجانب المظلم. ثبت أنه ينتج إجابات غير صحيحة ، حيث يعتمد نموذج ChatGPT الأساسي على خوارزميات التعلم العميق التي تستفيد من مجموعات بيانات التدريب الكبيرة من الإنترنت. على عكس روبوتات الدردشة الأخرى ، تستخدم ChatGPT نماذج لغوية تستند إلى تقنيات التعلم العميق التي تولد نصًا مشابهًا للمحادثات البشرية ، وتصل المنصة إلى إجابة من خلال إجراء سلسلة من التخمينات ، والتي تعد جزءًا من سبب قدرتها على مناقشة الإجابات الخاطئة كما لو كانت كانت صحيحة تمامًا. "

علاوة على ذلك ، ثبت أن ChatGPT يبرز ويضخم التحيز مما يؤدي إلى "إجابات تميز ضد الجنس والعرق ومجموعات الأقليات ، وهو أمر تحاول الشركة التخفيف منه". قد يكون ChatGPT أيضًا بمثابة مكافأة للجهات الفاعلة الشائنة لاستغلال المستخدمين المطمئنين ، مما يعرضهم للخطر خصوصية وتعريضهم ل هجمات احتيال.

دفعت هذه المخاوف البرلمان الأوروبي إلى نشر ملف تعليق مما يعزز الحاجة إلى زيادة تعزيز الأحكام الحالية للمشروع قانون الاتحاد الأوروبي للذكاء الاصطناعي ، (AIA) التي لا تزال في انتظار التصديق. يشير التعليق إلى أن المسودة الحالية للائحة المقترحة تركز على ما يشار إليه بتطبيقات الذكاء الاصطناعي الضيقة ، والتي تتكون من فئات محددة من أنظمة الذكاء الاصطناعي عالية المخاطر مثل التوظيف والجدارة الائتمانية والتوظيف وإنفاذ القانون والأهلية للحصول على الخدمات الاجتماعية. ومع ذلك ، فإن مسودة لائحة الاتحاد الأوروبي AIA لا تغطي الذكاء الاصطناعي للأغراض العامة ، مثل نماذج اللغات الكبيرة التي توفر قدرات معرفية أكثر تقدمًا والتي يمكنها "أداء مجموعة واسعة من المهام الذكية". هناك دعوات لتوسيع نطاق مسودة اللوائح لتشمل فئة منفصلة عالية المخاطر لأنظمة الذكاء الاصطناعي للأغراض العامة ، مما يتطلب من المطورين إجراء اختبارات مطابقة صارمة مسبقًا قبل طرح هذه الأنظمة في السوق ومراقبة أدائها بشكل مستمر من أجل مخرجات ضارة غير متوقعة محتملة.

قطعة مفيدة بشكل خاص من بحث يلفت الانتباه إلى هذه الفجوة التي مفادها أن لوائح الاتحاد الأوروبي AIA "تركز بشكل أساسي على نماذج الذكاء الاصطناعي التقليدية ، وليس على الجيل الجديد الذي نشهد ولادته اليوم".

ويوصي بأربع استراتيجيات يجب أن يأخذها المنظمون في الاعتبار.

  1. مطالبة مطوري هذه الأنظمة بالإبلاغ بانتظام عن فعالية عمليات إدارة المخاطر الخاصة بهم للتخفيف من النواتج الضارة.
  2. يجب أن تكون الشركات التي تستخدم نماذج لغوية واسعة النطاق ملزمة بالإفصاح لعملائها عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
  3. يجب على المطورين الاشتراك في عملية رسمية للإصدارات المرحلية ، كجزء من إطار عمل إدارة المخاطر ، المصمم للحماية من النتائج الضارة المحتملة غير المتوقعة.
  4. ضع العبء على عاتق المطورين "للتخفيف من المخاطر من جذورها" من خلال الاضطرار إلى "تدقيق استباقي لمجموعة بيانات التدريب بحثًا عن تحريفات."

العامل الذي يديم المخاطر المرتبطة بالتقنيات التخريبية هو دافع المبتكرين لتحقيق ميزة المحرك الأول من خلال اعتماد نموذج أعمال "السفينة أولاً ثم الإصلاح لاحقًا". بينما OpenAI إلى حد ما شفاف حول المخاطر المحتملة لـ ChatGPT ، فقد أطلقوه للاستخدام التجاري الواسع مع عبء "احذر المشتري" على المستخدمين لتقييم المخاطر وتحملها بأنفسهم. قد يكون هذا نهجًا لا يمكن الدفاع عنه نظرًا للتأثير المنتشر لأنظمة الذكاء الاصطناعي للمحادثة. يجب أن يكون التنظيم الاستباقي المقترن بإجراءات إنفاذ قوية أمرًا بالغ الأهمية عند التعامل مع مثل هذه التكنولوجيا التخريبية.

يتغلغل الذكاء الاصطناعي بالفعل في كل جزء من حياتنا تقريبًا ، مما يعني أن توقف تطوير الذكاء الاصطناعي قد ينطوي على العديد من العقبات والعواقب غير المتوقعة. بدلاً من ضخ فترات الراحة فجأة ، يجب أن يتعاون اللاعبون الصناعيون والتشريعيون بحسن نية لسن تشريعات قابلة للتنفيذ متجذرة في القيم التي تتمحور حول الإنسان مثل الشفافية والمساءلة والإنصاف. من خلال الرجوع إلى التشريعات الحالية مثل AIA ، يمكن للقادة في القطاعين الخاص والعام تصميم سياسات شاملة وموحدة عالميًا من شأنها منع الاستخدامات الشائنة والتخفيف من النتائج السلبية ، وبالتالي الحفاظ على الذكاء الاصطناعي ضمن حدود تحسين الخبرات البشرية.

أندرو بيري هو مبشر لأخلاقيات الذكاء الاصطناعي في شركة أتمتة ذكية ABBYY. يتمتع بيري بأكثر من 25 عامًا من الخبرة في قيادة برامج إدارة المنتجات لشركات التكنولوجيا العالمية الرائدة. خبرته في أتمتة عمليات المستندات الذكية وذكاء العمليات مع خبرة خاصة في تقنيات الذكاء الاصطناعي وبرامج التطبيقات وخصوصية البيانات وأخلاقيات الذكاء الاصطناعي. وهو حاصل على درجة الماجستير في القانون بامتياز من كلية الحقوق بجامعة نورث وسترن بريتزكر وهو محترف معتمد في خصوصية البيانات.