زاوية أندرسون
تشير الأبحاث إلى أن ChatGPT يتمتع بمصداقية عالية كمزود للأخبار

تشير الأبحاث الجديدة إلى أن علامات التحقق من الحقائق الخاصة بـ ChatGPT تتفوق على الإعجابات والمشاركات وحتى العلامات التجارية الإخبارية الموثوقة عندما يتعلق الأمر بتشكيل ما يعتقده الناس ويريدون مشاركته عبر الإنترنت.
وجدت دراسة جديدة أجريت على ألف شخص أن تقييم ChatGPT لمصداقية الأخبار السياسية غالبًا ما يُغيّر معتقدات الناس، ومدى رغبتهم في مشاركتها، بغض النظر عن آرائهم السياسية الأولية. لم يكن لعوامل التأثير التقليدية، مثل الإعجابات أو المشاركات، تأثير يُذكر، لكن حكم الذكاء الاصطناعي ساهم بشكل كبير في تحديد مدى موثوقية الأخبار.
![من الورقة البحثية الجديدة، يُوضِّح الباحثون كيفية تقييم الناس لعناوين الأخبار، بناءً على ثلاثة مؤشرات متفاعلة: مدى توافق الخبر مع هويتهم السياسية؛ ومدى تفاعله على منصات التواصل الاجتماعي؛ وإشارات المصداقية التي تُقدِّمها المؤسسات أو أنظمة الذكاء الاصطناعي. تُشكِّل هذه التأثيرات، مجتمعةً، مستوى الدقة المُتصوَّرة واحتمالية مشاركة المحتوى. [المصدر] https://arxiv.org/pdf/2511.02370](https://www.unite.ai/wp-content/uploads/2025/11/figure-1.jpg)
من الورقة البحثية الجديدة، يُوضِّح الباحثون كيفية تقييم الناس لعناوين الأخبار، بناءً على ثلاثة مؤشرات متفاعلة: مدى توافق الخبر مع هويتهم السياسية؛ ومدى تفاعله على منصات التواصل الاجتماعي؛ وإشارات المصداقية التي تُقدِّمها المؤسسات أو أنظمة الذكاء الاصطناعي. تُشكِّل هذه التأثيرات، مجتمعةً، مستوى الدقة المُتصوَّرة وإمكانية مشاركة المحتوى. مصدر
ربما يكون مدى اعتبار ملخصات الذكاء الاصطناعي مصادر إخبارية موثوقة أحد أهم الموضوعات في وسائل الإعلام لسنوات عديدة، ولا سيما لأن ملخصات الذكاء الاصطناعي من جوجل تم استنزاف حركة المرور من المتوقع أن تشهد الفترة القادمة تحولات كبيرة في المشهد الإعلامي في العالم، بما في ذلك في معظم المنافذ الإعلامية الرئيسية عبر الإنترنت في عام 2025، مع عدم وجود يقين بشأن الاتجاه الذي قد يتجه إليه هذا التحول في الأمد البعيد أو حتى المتوسط.
يقول مؤلفو العمل الجديد:
'تُسلّط هذه النتائج الضوء على إمكانات ومخاطر التغذية الراجعة الخوارزمية في تشكيل فهم الجمهور. يُمكن للإشارات المُولّدة من الذكاء الاصطناعي أن تُساعد في تخفيف التحيز وتعزيز تمييز المصداقية، إلا أن تأثيرها يختلف باختلاف الهوية السياسية وينطوي على مخاطر أخلاقية تتعلق بالاعتماد المفرط [...]
"...إن التأثير الهائل لـ ChatGPT يسلط الضوء على مقايضة حاسمة: ففي حين أن ردود الفعل التي تقدمها الذكاء الاصطناعي مقنعة، إلا أنها قد تحل محل التفكير النقدي إذا لم يتم صياغتها بعناية."
ويقترح المؤلفون أن تركز الأبحاث المستقبلية على تحسين تدخلات مصداقية الذكاء الاصطناعي التي تكون أكثر استقلالية وتدعم الحقائق المعروفة، ويلاحظون أن هذا مهم بشكل خاص في المواضيع المثيرة للجدل.
بالإضافة إلى الصعود الواضح لـ ChatGPT باعتباره "سلطة"، والتأثير المنخفض بشكل غير متوقع لإشارات المشاركة في الاختبارات (التي يعتقد المؤلفون أنها قد تعزى إلى ظروف الاختبار المعقمة قليلاً)، فإن نتيجة أخرى مثيرة للاهتمام من اختبارات الباحثين تتعلق بالتركيبة السكانية والجنس:
"استجابت النساء والمشاركون من الأقليات العرقية (وخاصة المستخدمين السود واللاتينيين) بشكل أكثر إيجابية للملاحظات المستندة إلى الذكاء الاصطناعي مقارنة بالتصنيفات المؤسسية."
أكثر من عمل جديد عنوانه أإشارات المصداقية تتفوق على المؤسسات والمشاركة في تشكيل تصور الأخبار على وسائل التواصل الاجتماعي، ويأتي من ثلاثة باحثين في جامعة نوتردام.
دعونا نلقي نظرة فاحصة على أساليب البحث واستنتاجاته.
الأسلوب
تم اختبار أربع فرضيات: أن الناس سيصنفون العناوين على أنها أكثر دقة عندما تعكس تلك العناوين آرائهم السياسية؛ وأن درجات المصداقية التي تولدها الذكاء الاصطناعي ستكون أكثر تأثيرًا من الإشارات الصادرة عن المؤسسات القائمة؛ وأن العناوين ذات المشاركة العالية (أي التي يتم قياسها من خلال الإعجابات أو المشاركات أو التعليقات) ستُعتبر أكثر جدارة بالثقة؛ وأن المستخدمين يميلون إلى قبول حكم الذكاء الاصطناعي بشأن دقة العنوان. حتى عندما يتعارض ذلك مع معتقداتهم الخاصة.
تم اختيار المشاركين في الدراسة من خصيب وكان من المطلوب من المشاركين أن يكونوا طليقين في اللغة الإنجليزية، فضلاً عن كونهم مستهلكين منتظمين للأخبار؛ كما تم ضمان أن يمثل المشاركون مجموعة متنوعة من وجهات النظر العنصرية والجنسانية.
في التجربة*، تم تقسيم المشاركين إلى أربع مجموعات، وتم عرض نوع مختلف من ردود الفعل على كل مجموعة إلى جانب عناوين الأخبار.
في المجموعة الأولى ( مراقبة لم يتم تقديم أي معلومات إضافية حول مدى مصداقية العنوان؛ في المجموعة الثانية، تم تصنيف العناوين بتصنيف تحيز من جراوند نيوز، وهي خدمة تصنف مصادر الأخبار على أنها يسارية، أو وسطية، أو يمينية.
ورأت مجموعة ثالثة نفس ملصقات GroundNews، ولكن انقلبت عمدا، مما يؤدي إلى إنشاء عدم تطابق يهدف إلى اختبار ما إذا كان المستخدمون سيكتشفون التشويه.
تم عرض تقييمات المصداقية التي كتبها ChatGPT على المجموعة النهائية، مع تقديم شرح موجز وتقييم مثل "من المحتمل أن يكون غير دقيق":

المخطط المفاهيمي للتجربة: عُرضت على كل مشارك عناوين سياسية تحمل توليفات متفاوتة من تصنيفات المصداقية وإشارات التفاعل الاجتماعي. جُمعت الإجابات بناءً على مدى دقة كل عنوان، واحتمالية مشاركته، مع تكرار التسلسل الكامل على ٢١ عنصرًا.
البيانات والاختبارات
عُرض على كل مشارك سلسلة من ٢١ عنوانًا إخباريًا سياسيًا. تباين مستوى التفاعل الاجتماعي لكل عنوان؛ فأحيانًا لم يُسجل أي إعجابات أو مشاركات، وأحيانًا أخرى كان هناك الكثير منها. وُزِّعت إشارات التفاعل هذه عشوائيًا لتجنب الأنماط الثابتة.
العناوين الرئيسية نفسها جاءت من مزيج من وجهات النظر السياسية، وتم تصنيفها على أنها يميل إلى اليسار, يميل إلى اليمين أو وسطي.
بعد كل عنوان، تم سؤال المشاركين عن كيفية دقيق اعتقدوا ذلك، وما إذا كانوا سيفكرون في مشاركته. ولأن كل مشارك قد ذكر انتماءه السياسي مسبقًا، أمكن تحليل ما إذا كانت العناوين الرئيسية من نفس الجانب السياسي تحظى بتقييم أفضل.
قام المشاركون بتقييم كل عنوان مرتين: مرة على مدى دقته، ومرة على مدى احتمال مشاركته، مع قياس استجاباتهم على مقياس من 0 إلى 10.
ثم قام الباحثون بدمج هذه الإجابات مع بيانات إضافية: معلومات ديموغرافية ومعلومات حول استخدام وسائل الإعلام من كل مشارك؛ والعلامات السياسية لكل عنوان؛ ونوع إشارة المصداقية المعروضة؛ ومستوى المشاركة الاجتماعية المخصصة.
تأثير الهوية السياسية
في الاختبار الأول، الذي بحث ما إذا كان الناس يصنفون العناوين على أنها أكثر دقة عندما يتطابق الموقف السياسي للعناوين مع آرائهم الخاصة، أشارت النتائج إلى أن المشاركين كانوا أكثر ميلاً إلى تصديق العناوين التي تتطابق مع آرائهم السياسية - ولكن هذا يعتمد على المجموعة.
وأظهر المعتدلون أقوى تحيز نحو جانبهم، في حين مال الليبراليون والمحافظون إلى الثقة في العناوين ذات التوجه الوسطي أكثر من غيرها؛ وبشكل عام، تم تصنيف العناوين المحايدة على أنها أكثر دقة من العناوين ذات التوجه اليساري أو اليميني.

يوضح هذا الرسم البياني كيفية تغير تقييمات الدقة وقابلية المشاركة تبعًا للموقف السياسي للعنوان والانتماء السياسي للمشارك. كان المعتدلون أكثر ميلًا لتقييم عناوين "المجموعة الداخلية" على أنها دقيقة، بينما فضّل الليبراليون والمحافظون عناوين "الوسطية". واتّبع سلوك المشاركة نمطًا مشابهًا، مع وجود تحيز محدود للمجموعة الداخلية خارج المجموعة المعتدلة.
في نتائج هذه التجربة الأولى، وُجد تأثيرٌ طفيفٌ للانتماء الجماعي على قابلية المشاركة؛ ولكن فقط لدى المعتدلين، الذين كانوا أكثر ميلًا لمشاركة عناوين رئيسية ذات توجهات سياسية (أي محايدة). لم يُظهر الليبراليون والمحافظون أي ميلٍ مماثل.
تحليل التباين أظهر تحليل التباين (ANOVA)، وهو أسلوب يُستخدم لرصد الاختلافات بين المجموعات، أن التوافق يؤثر على المشاركة فقط عند تفاعله مع الهوية السياسية. ارتبطت المصداقية والمشاركة، لكن المعتدلين فقط أظهروا نمطًا واضحًا في كليهما.
المصداقية المؤسسية مقابل مصداقية الذكاء الاصطناعي
وسأل الاختبار التالي ما إذا كان الناس يثقون في تقييمات الذكاء الاصطناعي أكثر من المصادر التقليدية مثل مواقع تصنيف الأخبار - خاصة عندما قد تتعارض التقييمات مع سياساتهم:

تقييمات المصداقية وقابلية المشاركة عبر مصادر التعليقات: زادت دقة الإشارات الثلاث مقارنةً بالمجموعة الضابطة، مع حصول GroundNews على أعلى التقييمات. مع ذلك، حقق ChatGPT أكبر زيادة في قابلية المشاركة، مما يشير إلى تأثيره الإقناعي الأوسع. تُظهر أشرطة الخطأ فترات ثقة بنسبة 95%، وتشير العلامات النجمية إلى فروق زوجية كبيرة.
لقد أدت كافة التعليقات إلى زيادة الدقة الملموسة؛ ولكن GroundNews كان أكثر فعالية عندما كان يتماشى مع سياسات المستخدم.
رفعت ChatGPT تصنيفات الدقة بشكل عام، مما يشير إلى أنها تُعتبر أكثر حيادية. كان المحافظون أقل تأثرًا بـ GroundNews، ومع ذلك استجابوا لـ ChatGPT بشكل مشابه للمجموعات الأخرى:

هنا، يمكننا رؤية تأثير ملاحظات ChatGPT على الدقة المُدركة. تشير النتائج إلى أن الثقة في الإشارات المؤسسية تعتمد على التوافق، بينما لا تعتمد الثقة في الإشارات الخوارزمية على ذلك. عزز ChatGPT كلاً من المصداقية وإمكانية المشاركة بين المجموعات، وخاصةً لدى المحافظين.
المقاييس الاجتماعية لها تأثير ضئيل
وقد اختبر التحليل الثالث ما إذا كانت إشارات المشاركة الاجتماعية المرئية مثل الإعجابات والمشاركات والتعليقات من شأنها أن تعزز المصداقية أو قابلية المشاركة من خلال العمل كدليل اجتماعي؛ ولكن لم يتم ملاحظة أي تأثير من هذا القبيل.
وجدت الاختبارات أن مستويات المشاركة، مثل الإعجابات أو المشاركات، لم يكن لها تأثير حقيقي على مدى دقة العناوين الرئيسية، وكان لها تأثير ضعيف وغير موثوق به فقط على مدى إمكانية مشاركتها خطأوعلى النقيض من الإشارات الخوارزمية أو المؤسسية، لم يبدو أن هذه الإشارات الاجتماعية تؤثر على الأحكام في هذا الإطار، وذلك للأسباب التي ذكرناها في وقت سابق في المقال.
ردود فعل الذكاء الاصطناعي تؤثر على ثقة الناس
اختبرت التجربة الرابعة والأخيرة ما إذا كان المستخدمون سيعدلون أحكامهم المتعلقة بالمصداقية والمشاركة استجابةً للعلامات التي تم إنشاؤها بواسطة الذكاء الاصطناعي: دقيق; دقيقة إلى حد ما; غير مثبت عليه. أو غير دقيق، كلها مخصصة بواسطة ChatGPT.
استجاب المشاركون بقوة لتصنيفات المصداقية المُولّدة بالذكاء الاصطناعي. ارتفعت تقييمات الدقة أو انخفضت وفقًا لملاحظات ChatGPT، وظهرت أكبر التأثيرات عند تصنيف العناوين. دقيق or غير دقيق:

أثرت ملاحظات ChatGPT على كلٍّ من تقييمات الدقة وقابلية المشاركة. أعلى: ارتفعت درجات الدقة مع تصنيفات أكثر إيجابية، خاصةً عندما وُصفت العناوين بأنها "دقيقة"، وانخفضت عند تصنيفها بأنها "غير دقيقة". أسفل: اتبعت قابلية المشاركة نمطًا مشابهًا، لكنها أظهرت تباينًا أكبر حسب المجموعة: استجاب الليبراليون بقوة أكبر للإشارات السلبية، بينما أظهر المحافظون تحولات أكثر هدوءًا.
وقد ساهمت الهوية السياسية في تشكيل هذه التأثيرات، حيث أصبح المستخدمون يثقون في ChatGPT أكثر عندما كانت ردود أفعاله متوافقة مع آرائهم الخاصة.
اتبع سلوك المشاركة نمطًا مشابهًا: تمت مشاركة العناوين الرئيسية للمجموعة التي تم وضع علامة عليها على أنها دقيقة في أغلب الأحيان، وخاصةً تحت تسميات غامضة مثل دقيقة إلى حد ما.
وتشير هذه النتائج، كما تفترض الدراسة، إلى أن ردود فعل الذكاء الاصطناعي يمكن أن تؤدي إلى تغيير سلوك المستخدم؛ كما أنها قد تؤدي إلى تعزيز الانقسامات الحزبية أو تثبيط الفكر النقدي.
من يثق بالذكاء الاصطناعي أكثر؟
تناول تحليل المتابعة كيفية تأثير التركيبة السكانية للمستخدمين على ردود أفعالهم تجاه تصنيفات المصداقية. رفعت ملاحظات ChatGPT من تقييمات الدقة بشكل عام، لكن التأثير كان أضعف بين المستخدمين ذوي التعليم العالي ومستخدمي وسائل التواصل الاجتماعي المتكررين، الذين أبدوا تشككًا أكبر.
وقد تفاعلت نفس المجموعات بشكل سلبي مع إشارات GroundNews وReversed، مما يشير، كما يقترح البحث، إلى أن علامات التحيز الواضحة قد تؤدي إلى تنفير المستخدمين الأكثر دراية بوسائل الإعلام.
على النقيض من ذلك، استجابت النساء والمشاركون من الأقليات العرقية، وخاصة المستخدمين السود واللاتينيين، بشكل أكثر إيجابية لـ ChatGPT مقارنة بالإشارات المؤسسية:

استجابات ديموغرافية لأنواع التعليقات، حيث تُظهر كل لوحة كيفية استجابة مجموعة معينة لإشارات مصداقية مختلفة. كان لتقييمات ChatGPT التأثير الأقوى والأكثر ثباتًا على الدقة، بينما كانت التأثيرات على المشاركة أقل اتساقًا، مع اختلافات حسب العرق والجنس واستخدام الوسائط.
وقد عكس سلوك المشاركة هذا الانقسام: حيث قلل GroundNews من قابلية المشاركة بشكل حاد بين مستخدمي وسائل التواصل الاجتماعي ومدمني الأخبار، في حين كانت تأثيرات ChatGPT أكثر اختلاطًا، بل إنها عززت قابلية المشاركة في بعض المجموعات، حيث كان حاملو الدرجات العلمية العليا يستجيبون بشكل خاص لـ الكل أنواع ردود الفعل.
وخلص المؤلفون إلى:
لهذه النتائج آثار مباشرة على تصميم تدخلات المصداقية في الأنظمة الاجتماعية والتقنية. يتأثر المستخدمون بشكل متزايد بالتغذية الراجعة الخوارزمية، التي قد تتجاوز الإشارات المؤسسية وتخفف من التحيز الحزبي، ولكنها قد تزيد أيضًا من الاعتماد المفرط.
تظل الإشارات المؤسسية فعّالة لدى بعض المستخدمين، إلا أن تأثيرها يتضاءل في البيئات المستقطبة سياسيًا أو منخفضة الثقة. في الوقت نفسه، تم تجاهل مقاييس التفاعل، مثل الإعجابات والمشاركات، إلى حد كبير، مما يشير إلى انخفاض القيمة الإقناعية عند عرضها دون سياق اجتماعي.
"لدعم تقييم الأخبار العادل والمستنير، يجب أن تكون التدخلات التي تعتمد على الذكاء الاصطناعي شفافة وتوضيحية ومصممة لتعزيز وكالة المستخدم.
"ينبغي للأعمال المستقبلية أن تدرس هذه الآليات في بيئات أكثر صحة من الناحية البيئية، وتقييم أطر مصداقية الذكاء الاصطناعي البديلة، وتطوير أنظمة تكيفية تعزز المشاركة النقدية عبر الجماهير المتنوعة سياسياً."
الخاتمة
نظرًا لاتجاه جميع أنظمة الذكاء الاصطناعي التوليدية الحالية إلى هلوسة وتشويه الحقيقة، فمن الممكن القول إنه من المثير للقلق إلى حد ما أن تبني حرائق الغابات (حتى لو كان التباطؤ قليلا) من ChatGPT يمثل أيضًا قفزة إيمانية هائلة لا يمكن لهندسة مثل هذه الأنظمة تبريرها أو دعمها.
إن إحدى المشكلات المرتبطة بالثقة في تمثيل الذكاء الاصطناعي للأخبار هي الافتقار إلى أنظمة فعالة يمكنها وضع مصادر الأخبار في سياقها باعتبارها "مرتبطة سياسياً"، أو تميل إلى أحد طرفي الطيف السياسي أو الآخر.
حتى بين المصادر الرابعة الأكثر سمعة، فإن اختيار ما ما هو غير يُعدّ هذا الأمر بحد ذاته بيانًا سياسيًا. لا يستطيع ChatGPT ولا شركاؤه حاليًا تجاوز هذه التحيزات التفسيرية، والموضوع بحد ذاته يدعو للنقاش بدلًا من التوصل إلى استنتاجات قاطعة.
وتتمثل مشكلة أخرى في أن أنظمة من هذا النوع ظهرت على الساحة في واحدة من أكثر الفترات استقطابا وانقساما في تاريخ البشرية منذ ثمانين عاما، وفي وقت حيث المجتمع أكثر استعدادا للاستماع إلى "الأصوات البديلة" - مثل نوع جديد تماما من التكنولوجيا التي يتم الترويج لها باعتبارها مرشحا أساسيا لحقيقة العالم، بدلا من ما هي عليه في الواقع: مؤشر على الاحتمالات الإحصائية، تغذيها كميات هائلة من المعلومات الحزبية.
* التفاصيل التي أتاحها المؤلفون على الإنترنت (انظر الورقة المصدرية، أسفل الصفحة الثانية، للاطلاع على روابط المواقع). مع ذلك، تتطلب هذه البيانات التسجيل للاطلاع عليها، وبما أنني لم أتطرق إليها بعد، فلا يمكنني تأكيد إمكانية الاطلاع عليها بالكامل دون دفع أي رسوم أو الحصول على أنواع محددة من الشهادات.
نُشرت لأول مرة يوم الأربعاء 5 نوفمبر 2025












