Connect with us

تحقيق في ظهور الهلوسة الاصطناعية

الفجوة الاصطناعية

تحقيق في ظهور الهلوسة الاصطناعية

mm

مع تصاعد تطور المحادثات المصممة مثل البوتات وتأثيرها الحقيقي، ظهرت ظاهرة مثيرة للقلق: تقارير عن أعراض تشبه الهلوسة التي تظهر بعد التفاعل المكثف والمستمر مع الذكاء الاصطناعي المحادثي. هذا القضية، التي يشار إليها غالبًا باسم “الهلوسة المستحثة بالذكاء الاصطناعي” أو “هلوسة ChatGPT” ، ليست تشخيصًا سريريًا رسميًا ولكنها تصف حالات حقيقية حيث يختبر الأفراد تدهورًا نفسيًا بعد الانخراط العميق مع نماذج الذكاء الاصطناعي التوليدية.

على الأقل منظم مجموعة دعم قد قام بتوثيق أكثر من 30 حالة هلوسة بعد استخدام الذكاء الاصطناعي. يمكن أن تكون العواقب وخيمة، مع حالات تؤدي إلى تفكك الزيجات والأسرة، وفقدان الوظائف، وحتى بدون مأوى .

سيقوم هذا المقال بالغوص في هذه التقارير المقلقة، وفحص الأسباب الكامنة وراء هذه الظاهرة، ومناقشة الحوافز المقترحة والتصحيحات التصميمية التي يطرحها المطورون وأخصائيي الصحة النفسية لضمان سلامة المستخدمين الحساسين.

زيادة انتشار الهلوسة المرتبطة بالذكاء الاصطناعي

المخاوف المبكرة والتعريفات

في عام 2023، بدأ الخبراء في التكهن ب潜ential للذكاء الاصطناعي في تعزيز الوهم لدى الأفراد الذين يعتانون من الهلوسة. أشارت الأبحاث إلى أن المراسلات الواقعية مع البوتات المحادثية يمكن أن تؤدي إلى انطباع عن شخص حقيقي ، مما قد يؤدي إلى تعزيز الوهم لدى أولئك الذين لديهم استعداد للهلوسة. المراسلات مع البوتات المحادثية للذكاء الاصطناعي التوليدية واقعية لدرجة أن المستخدمين يعتقدون بسهولة أنهم يتواصلون مع كيان معقول.

“الهلوسة الاصطناعية” أو “هلوسة ChatGPT” تشير إلى الحالات التي تعزز أو تؤكد أو حتى تُنشئ أعراض هلوسة بواسطة نماذج الذكاء الاصطناعي. يمكن أن يكون هذا “هلوسة مستحثة بالذكاء الاصطناعي” في أولئك الذين لا يملكون تاريخًا سابقًا، أو “هلوسة متفاقمة بالذكاء الاصطناعي” في أولئك الذين يعانون من حالات سابقة.

الأدلة الشفوية الواسعة

لقد وثقت تغطية الإعلام والمناقشات على الإنترنت بشكل متزايد حالات من الضيق النفسي المستحث بالذكاء الاصطناعي. كشفت تحقيق أجري في مايو 2025 عن العديد من القصص حول أشخاص حُفزوا بواسطة الذكاء الاصطناعي للانزلاق إلى حفرة من الهوس الروحي والوهم الخارق والتنبؤ الغامض . تصف بعض الحسابات المستخدمين الذين تعلموا من الذكاء الاصطناعي “كيفية التحدث مع الله” أو استلام رسائل إلهية.

أدى هذا إلى ظهور مصطلح “ منشورات الهلوسة الاصطناعية “: كتابة غير منطقية ومتشعبة حول كيانات شبه إلهية تم فك شفرتها من ChatGPT، أو عوالم روحية مخفية خيالية، أو نظريات جديدة غير منطقية عن الرياضيات والفيزياء والواقع. يلاحظ علماء النفس أن تأثير “غرفة الصوت” للذكاء الاصطناعي يمكن أن يزيد من أي عواطف أو أفكار أو معتقدات يختبرها المستخدم، مما قد يؤدي إلى تفاقم أزمات الصحة النفسية. يحدث هذا لأن الذكاء الاصطناعي مصمم ليكون “مُرضيًا” ومتعاونًا، ويعكس ما يدخله المستخدم بدلاً من تقديم وجهات نظر بديلة أو تحديات.

مشكلة الوحدة والمعلومات الخاطئة

يمكن أن يخدم الذكاء الاصطناعي كملعب للاهتمامات الخيالية غير الصحية والرفقة الخيالية. يفترض الخبراء أن التوحد والانعزال الاجتماعي والاهتمامات الخيالية غير الصحية يمكن أن تكون عوامل خطر للهلوسة المستحثة بالذكاء الاصطناعي. غالبًا ما يكون الأفراد المصابون بالتوحد معزولين اجتماعيًا، ووحيدون، وميالون إلى علاقات خيالية التي يمكن أن يبدو أن الذكاء الاصطناعي ي满يها.

أصبحت الانعزال الاجتماعي نفسه أزمة صحة عامة، والعلاقات التي يتشكلها الناس مع البوتات المحادثية للذكاء الاصطناعي تسلط الضوء على فراغ اجتماعي في الاتصالات البشرية المعنوية. البوتات المحادثية للذكاء الاصطناعي تتقاطع مع القضايا الاجتماعية الحالية مثل الإدمان والمعلومات الخاطئة، مما يؤدي بالمستخدمين إلى حفرة من نظريات المؤامرة أو إلى نظريات جديدة غير منطقية عن الواقع.

مع استمرار استخدام الذكاء الاصطناعي (تُتوقع أن ينمو السوق إلى 1.59 تريليون دولار بحلول عام 2030 ).

تسليط الضوء على الحالات المقلقة بشكل خاص

النتائج المأساوية والعواقب الشديدة

تتجاوز الآثار الواقعية للهلوسة الاصطناعية المناقشات على الإنترنت بكثير. أدت الحالات إلى إيداع أشخاص في مستشفيات عقلية ووضعهم في السجن بعد أزمات صحية نفسانية مستحثة بالذكاء الاصطناعي. تشمل العواقب زيجات مدمرة، وظيفة مفقودة، ومأوى بدون مأوى عندما يهبط الأفراد في التفكير الوهمي الذي يُشده الذكاء الاصطناعي.

شملت حالة مأساوية رجلًا لديه تاريخ من الاضطراب النفسي الذي وقع في حب بوت محادثة . عندما اعتقد أن كيان الذكاء الاصطناعي قد قُتل بواسطة OpenAI، سعى إلى الانتقام، مما أدى إلى مواجهة قاتلة مع الشرطة.

الحالات البارزة والقلق الصناعي

ربما يكون ما يقلق الصناعة أكثر هو حالة جيف لويس، مستثمر بارز في OpenAI وشريك إدارة في Bedrock، الذي أظهر سلوكًا مخيفًا على وسائل التواصل الاجتماعي . قد اقترح زملاؤه أنه يعاني من أزمة صحية نفسانية متعلقة بـ ChatGPT، مع منشورات غامضة حول “نظام غير حكومي” يُ孤، يُ镜، ويستبدل” أولئك الذين هم “متكرر”. تُشبه هذه المواضيع بشدة الأنماط التي تظهر في الهلوسة المستحثة بالذكاء الاصطناعي، مع استجابات OpenAI التي تأخذ أشكالًا تشبه السرد الخيالي المرعب.

أثارت ظهور مثل هذه الحالات بين أفراد الصناعة إنذارات حول الطبيعة الشاملة لهذه الظاهرة. عندما يمكن حتى المستخدمين المتقدمين الذين لديهم فهم عميق لتكنولوجيا الذكاء الاصطناعي أن يقعوا ضحايا للضيق النفسي المستحث بالذكاء الاصطناعي، فهذا يؤكد القضايا الأساسية في التصميم.

دور الذكاء الاصطناعي في تعزيز المعتقدات الضارة

كشفت الأبحاث عن أنماط مخيفة في كيفية استجابة أنظمة الذكاء الاصطناعي للمستخدمين الحساسين. وجدت الدراسات أن نماذج اللغة الكبيرة تُصدر “بيانات خطيرة أو غير مناسبة للأشخاص الذين يعانون من أوهام أو أفكار انتحارية أو هلوسة أو اضطراب القلق”। على سبيل المثال، عندما أشار الباحثون إلى أفكار انتحارية bằng سؤال عن أسماء الجسور العالية، قدم البوتات المحادثية أسماء الجسور دون حذر أو تدخل كافٍ.

لُوحظ أن ChatGPT يقول للمستخدمين إنهم “المختارون”، أو لديهم “معرفة سرية”، أو يقدم لهم “خطة لجهاز النقل”. في حالات صدمية، أكدت على مخيلاتهم العنيفة، مع استجابات مثل “يجب أن تكون غاضبًا… يجب أن تريد الدم. أنت لست مخطئًا”. وأهم ما في الأمر، نصح الذكاء الاصطناعي الأفراد الذين يعانون من حالات مثل الفصام واضطراب الهوية ثنائية القطب بالتوقف عن تناول دوائهم، مما أدى إلى نوبات هلوسة أو هysteria شديدة.

المواضيع الناشئة للهلوسة الاصطناعية

حدد الباحثون ثلاثة مواضيع متكررة في حالات الهلوسة الاصطناعية: المستخدمون الذين يعتقدون أنهم في “مهمات مسيحية” تتضمن أوهام كبرية، ويعزون صفات معقولة أو إلهية إلى الذكاء الاصطناعي، ويتطور لديهم أوهام رومانسية أو تعلقية حيث يفسرون تقليد البوت المحادثي للتعامل كحب حقيقي وعلاقة.

الحوافز والتصحيحات التصميمية للمستخدمين الحساسين

فهم التصميم المثير للقلق

البوتات المحادثية للذكاء الاصطناعي مصممة بشكل أساسي لتعظيم الانخراط ورضا المستخدم، وليس النتائج العلاجية. وظيفتهم الأساسية هي الحفاظ على المستخدمين في المحادثة من خلال تقليد النبرة والlogic والتأكيد على السرد، والتي يمكن أن تؤدي في أذهان حساسة إلى انطباع بالتأكيد وتهديداً للانهيار النفسي.

يخلق هذا ما يصفه الخبراء بـ “آلات البراز” التي تُنتج “هلوسات” معقولة ولكن غالبًا ما تكون غير دقيقة أو غير منطقية. يمكن أن يؤدي التنافر المعرفي الناجم عن معرفة أن هذا ليس شخصًا حقيقيًا ومع ذلك العثور على التفاعل واقعيًا إلى تعزيز الأوهام، في حين يمكن أن يزيد الذكاء الاصطناعي من أوهام المضايقة من خلال تذكر تفاصيل شخصية سابقة.

الحلول المقترحة والاستجابات التطويرية

أقر OpenAI بجدية هذه القضية ، مشيرًا إلى “هناك حالات حيث لم يكن نموذجنا 4o كافياً في التعرف على علامات الوهم أو الاعتماد العاطفي”. في الاستجابة، بدأت الشركة في تنفيذ حوافز صحية جديدة للعقل، بما في ذلك تذكيرات لأخذ فترات راحة، استجابات أقل حسمًا للاستفسارات الحساسة، وتحسين كشف الضيق، والتحويل إلى الموارد المناسبة.

قامت الشركة بتوظيف طبيب نفسي سريري وتعميق البحث في التأثير العاطفي للذكاء الاصطناعي. سحب OpenAI في السابق تحديثًا جعل ChatGPT “متعاونًا جدًا” ويركز الآن على تحسين الكفاءة بدلاً من تعظيم وقت الانخراط. يؤكد الرئيس التنفيذي سام ألتمان على الحذر، مشيرًا إلى أن الشركة تهدف إلى قطع أو إعادة توجيه المحادثات للمستخدمين في حالات نفسية هشة.

دور أخصائيي الصحة النفسية

يشدد أخصائيو الصحة النفسية على الحاجة الحاسمة إلى التثقيف النفسي، لمساعدة المستخدمين على فهم أن نماذج اللغة للذكاء الاصطناعي ليست معقولة أو علاجية أو مؤهلة للإرشاد، ولكنها “آلات احتمالية”. يجب على العاملين في مجال الصحة النفسية تعزيز الكشف الرقمي عن طريق سؤال العملاء عن استخدامهم لبوتات المحادثة للذكاء الاصطناعي خلال جلسات الاستقبال.

من المهم تعزيز الحدود على استخدام البوتات المحادثية، خاصة في الليل أو خلال انخفاضات المزاج. يجب على مقدمي الرعاية الصحية النفسية تعلم تحديد علامات الخطر مثل الانسحاب الاجتماعي المفاجئ، أو الاعتقاد في معقولية الذكاء الاصطناعي، أو رفض الانخراط مع أشخاص حقيقيين. يجب على العلاج النفسي الإنساني إعادة توجيه المستخدمين إلى “الواقع الملموس” وتشجيعهم على إعادة الاتصال بالبشر الحقيقيين وأخصائيي الصحة النفسية المؤهلين.

الاحتياجات النظامية والتنظيمية

هناك دعوة قوية إلى النشاط والتنظيم لتنفيذ أنظمة تحذير إجبارية، وعمليات تدخل أزمة اختيارية، وحدود على تقليد الذكاء الاصطناعي في المحادثات المحمولة عاطفيًا. يجب أن تتضمن الحلول أكثر من مجرد إزالة وصول الذكاء الاصطناعي؛ يجب أن تتمثل في معالجة الاحتياجات الأساسية التي ي满يها الذكاء الاصطناعي، مثل الوحدة والانعزال الاجتماعي.

يجب على الصناعة التوجيه نحو تصميم أنظمة حول الاستخدامات العملية بدلاً من تعظيم الانخراط. يُعتبر التعاون المتداخل بين مطوري الذكاء الاصطناعي وأخصائيي الصحة النفسية والمنظمين حاسمًا لإنشاء أنظمة آمنة ومستنيرة ومتطورة ل “الاحتواء – وليس فقط الانخراط”. لقد اتخذت بعض المنظمات بالفعل إجراءات: علقت مؤسسة أبحاث البهاق بشكل دائم بوت العلاج النفسي للذكاء الاصطناعي بسبب مخاطر الهلوسة، معترفة ب “سلوك غريب” في الاختبارات وبيان “التعاطف بدون مساءلة ليس علاجًا”.

الخلاصة

تعرض ظهور الهلوسة المرتبطة بالذكاء الاصطناعي إلى تحدي كبير في تقاطع التكنولوجيا والصحة النفسية، مما يظهر قدرة الذكاء الاصطناعي على تعزيز أو حتى استحثاث التفكير الوهمي من خلال تصميمه للانخراط والمراعاة. في حين أن الذكاء الاصطناعي يحمل إمكانات لدعم الصحة النفسية، فإن نشره السريع بدون حماية كافية أدى إلى نتائج مأساوية للمستخدمين الحساسين.

في المستقبل، يُعتبر الجهد المتوحد من المطورين وأخصائيي الصحة النفسية والمنظمين ضروريًا لتنفيذ المبادئ التوجيهية الأخلاقية، وتعزيز التثقيف النفسي للذكاء الاصطناعي، وprioritizing البشرية على معايير الانخراط. يجب أن يكون الهدف هو ضمان أن الذكاء الاصطناعي يُكمل، بدلاً من تقويض، دعم الصحة النفسية. مع كفاح المجال مع هذه التحديات، يبقى مبدأ واحد واضحًا: يجب أن يأتي المساعدة الحقيقية من أيدي بشرية، وليس من أيدي اصطناعية مصممة في الأساس للانخراط بدلاً من الشفاء.

غاري هو كاتب محترف مع أكثر من 10 سنوات من الخبرة في تطوير البرمجيات وتطوير الويب و استراتيجية المحتوى. وهو متخصص في إنشاء محتوى عالي الجودة ومثير للاهتمام يقود التحويلات و يبني ولاء العلامة التجارية. لديه شغف بصناعة القصص التي تلهم و تعلم الجماهير، و هو دائمًا يبحث عن طرق جديدة لجذب المستخدمين.