الذكاء الاصطناعي
النسيان المراقب: التحدي الكبير القادم في ذاكرة الذكاء الاصطناعي

لسنوات، ركز مجال الذكاء الاصطناعي على هدف واحد: جعل الأنظمة تتذكر بشكل أفضل. لقد دربنا النماذج على مجموعات بيانات ضخمة و 改善 من khảية الاحتفاظ بالمعلومات و استدعائها. لكننا الآن ندرك حقيقة غير مريحة. نفس الأنظمة التي لا تنسى الآن محبوسة بذاكرتها الخاصة. ما كان يبدو قوة أصبح الآن عيبًا خطيرًا.
البشر ينسون بشكل طبيعي. نترك المعلومات و نتعلم و نتحرك إلى الأمام. أنظمة الذكاء الاصطناعي تعمل بشكل مختلف. تتذكر كل شيء إلا إذا علمنا كيف تنسى. هذا يخلق مشاكل حقيقية. الذكاء الاصطناعي يصارع مع انتهاكات الخصوصية، المعلومات المتقادمة، الانحيازات المدمجة، و الأنظمة التي تنهار عند تعلم مهام جديدة. التحدي القادم ليس حول جعل الذكاء الاصطناعي يتذكر المزيد. نحن بحاجة إلى تعليم الذكاء الاصطناعي كيف تنسى بحكمة.
وجهان للنسيان
النسيان في الذكاء الاصطناعي يظهر في شكلين مختلفين، كل مع مجموعة من المشاكل.
الأول هو النسيان الكارثي. يحدث هذا عندما تفقد الشبكة العصبية المعرفة المكتسبة مسبقًا بعد التدريب على مهام جديدة. على سبيل المثال، قد تنسى نموذج تم تدريبه على التعرف على القطط و الكلاب القدرة على التعرف بعد تعلم التعرف على الطيور.
الshape الثاني هو النسيان المراقب. هذا هو متعمد. يتضمن إزالة المعلومات بشكل متعمد من النماذج المدربة. قوانين الخصوصية مثل GDPR تعطي الأشخاص “الحق في النسيان”، الذي يتطلب من الشركات محو البيانات عند الطلب. هذا ليس حول إصلاح الأنظمة المعطوبة. إنه حول إزالة البيانات المتعمدة التي يجب ألا تكون مخزنة أبدًا أو يجب أن تختفي عند الطلب.
تجذب هذه المشاكل في اتجاهات متعاكسة. واحدة تتطلب منا أن نتوقف عن النسيان. الأخرى تطلب منا جعل النسيان ممكنًا. إدارة كلاهما في نفس الوقت هو واحد من أصعب تحديات الذكاء الاصطناعي.
عندما تصبح الذاكرة عبئًا
أبحاث الذكاء الاصطناعي ركزت لفترة طويلة على تحسين الذاكرة. نمت النماذج أكبر، و مجموعات البيانات أكبر، و نافذة السياق أطول. أنظمة مثل GPT-4o يمكنها الآن التعامل مع 128,000 رمز من السياق، و Claude يمكنه الوصول إلى 200,000. هذه التطورات تحسنت الأداء ولكنها أدخلت أيضًا مشاكل جديدة.
عندما تتذكر النموذج الكثير، يمكنها استدعاء المعلومات المتقادمة أو غير ذات الصلة. هذا يهدر الحوسبة و يمكن أن ي混ّك المستخدمين. على سبيل المثال، ضع في اعتبارك بوت دعم العملاء مدرب على قاعدة معارف شركتك. تقوم بتحديث سياسة، لكن بعد بعض التفاعلات، يعود البوت إلى المعلومات القديمة. هذا يحدث لأن الذكاء الاصطناعي لا يمكنه تحديد الأولوية للذاكرة بشكل صحيح. الذكاء الاصطناعي لا يمكنه التمييز بين ما هو حديث و ما هو قديم.
قوانين الخصوصية تجعل الأمور أصعب. تحت GDPR، عندما يطلب مستخدم حذف بياناته، يجب على الشركات حذفها. لكن حذف البيانات من نموذج الذكاء الاصطناعي ليس مثل حذف ملف من الكمبيوتر. عندما تصبح البيانات الشخصية جزءًا من معلمات النموذج، تنتشر عبر ملايين الاتصالات داخل الشبكة. إعادة تدريب النظام بأكمله لحذف تلك البيانات مكلف و غالبًا ما يكون مستحيلًا. الأبحاث تظهر أن النماذج الأكبر أكثر عرضة للهجمات الإلكترونية. كلما كان النموذج أكبر، زادت قدرته على تذكر البيانات و إنتاجها عند الطلب من خلال التحفيز المrafted بعناية. المهاجمون يمكنهم استخراج المعلومات التي لا يجب أن يصلوا إليها.
ما يجعل النسيان صعبًا
نماذج الذكاء الاصطناعي لا تخزن الأمثلة المدربة مثل الملفات في مجلد. إنها تضغط و تخلط المعلومات المدربة في أوزانها و تنشيطاتها. إزالة قطعة واحدة من البيانات بدون إزعاج كل شيء آخر صعب للغاية. كما لا يمكننا تتبع بسهولة كيف تؤثر البيانات المدربة على أوزان النموذج الداخلية. عندما يتعلم النموذج من البيانات، تنتشر المعرفة عبر معلماته بطرق صعبة التتبع.
إعادة تدريب النماذج من الصفر بعد كل طلب حذف ليس ممكنًا. عندما يطلب شخص حذف بياناته الشخصية بموجب GDPR، يجب عليك حذفها من نظام الذكاء الاصطناعي. لكن إعادة تدريب النموذج من الصفر كل مرة مكلف و بطيء في معظم الإعدادات الإنتاجية.对于 نماذج اللغة الكبيرة المدربة على مليارات النقاط البيانية، هذا النهج سيكون مكلفًا و بطيئًا.
التحقق من النسيان يطرح تحديًا آخر. كيف نثبت أن البيانات قد نُسيت بالفعل؟ الشركات تحتاج إلى تدقيق خارجي لإظهار أنها حذفّت المعلومات. بدون أساليب التحقق الموثوقة، لا يمكن للأعمال إثبات الامتثال، و لا يمكن للمستخدمين الثقة بأن بياناتهم قد زالت حقًا.
تؤدي هذه التحديات إلى مجال جديد يسمى machine unlearning. يركز على تقنيات إزالة تأثير البيانات المحددة من النماذج المدربة. لكن هذه الأساليب لا تزال في مرحلة مبكرة. النسيان الدقيق غالبًا ما يتطلب إعادة تدريب النموذج، بينما قد تترك الأساليب التقريبية أثرًا من المعلومات المحذوفة.
مأزق الاستقرار-المرنة
التحدي الأساسي الذي نحتاج إلى معالجته هو منع النسيان الكارثي بينما يتمكن من النسيان المراقب. هذا يؤدي بنا إلى تحدي رئيسي تواجهه الذكاء الاصطناعي: مأزق الاستقرار-المرنة. النماذج يجب أن تكون مرنة بما يكفي لتعلم المعلومات الجديدة، لكنها يجب أن تكون مستقرة بما يكفي للحفاظ على المعرفة القديمة. إذا دفعنا النموذج بعيدًا تجاه الاستقرار، فإنه لا يمكنه التكيف. من ناحية أخرى، إذا دفعنا النموذج بعيدًا تجاه المرنة، فإنه يمكن أن ينسى كل شيء تعلمه في الماضي.
الذاكرة البشرية توفر أدلة مفيدة لمعالجة هذا المأزق. العلوم العصبية تخبرنا أن النسيان ليس عيبًا. إنه عملية نشطة. الدماغ ينسى عمدًا لجعل التعلم يعمل بشكل أفضل. إنه يزيل أو يقمع المعلومات القديمة أو منخفضة القيمة، بحيث تظل الذكريات الجديدة قابلة للوصول. عندما يتعلم الأشخاص لغة جديدة، لا يمحون اللغة القديمة. لكن إذا توقفوا عن استخدامها، يصبح الاستدعاء أكثر صعوبة. المعلومات لا تزال هناك، لكنها أقل أولوية. الدماغ يستخدم الكبت الانتقائي، لا الحذف.
باحثو الذكاء الاصطناعي يعتمدون أفكارًا مشابهة. تقنيات إعادة اللعب التوليدية تقلد كيف يخزن الدماغ الذكريات. إنها tạo تمثيلات مجردة للمعرفة السابقة بدلاً من تخزين البيانات الخام. هذا يقلل من النسيان الكارثي و يحافظ على الذاكرة المضغوطة. فكرة واعدة أخرى هي التدهور الذكي. الذكريات المخزنة تُحسب بناءً على مدى حداثتها، و صلتها، و فائدتها. الذكريات الأقل أهمية تفقد الأولوية تدريجيًا و تُستدعى أقل في المرة القادمة. هذا يحافظ على المعلومات المتاحة لكن مخفية ما لم تكن مطلوبة. أنظمة الذكاء الاصطناعي يمكنها إدارة قواعد المعرفة الكبيرة دون التخلص من المعلومات القيمة المحتملة.
الهدف ليس الحذف، بل التوازن بين التذكر و النسيان بذكاء.
ما يبدو الم未来
الصناعة تتحرك في ثلاثة اتجاهات رئيسية.
أولاً، وهناك هندسات ذاكرة هجينة تظهر. هذه النظم تجمع بين الذاكرة الحوادثية (التجارب المحددة) و الذاكرة الدلالية (المعرفة العامة). إنها تستخدم آليات التصنيف و الحذف للاحتفاظ بالمعلومات المهمة بينما ت












