Connect with us

كيف اكتشفت أداة الذكاء الاصطناعي للصحة النفسية بشكل غير متعمد كشف الدوبفيكات الدقيق

الذكاء الاصطناعي

كيف اكتشفت أداة الذكاء الاصطناعي للصحة النفسية بشكل غير متعمد كشف الدوبفيكات الدقيق

mm

مع إطلاق شركة التكنولوجيا العملاقة Open AI نظام الفيديو والصوت التوليدي سورا 2 في سبتمبر 2025، غمرت مقاطع الفيديو الدوبفيكات منصات التواصل الاجتماعي، مما جعل الجماهير على دراية متزايدة بالمحتويات الواقعية الخادعة المحتملة.

على الرغم من أن Open AI اعتبرت الإطلاق المسؤول لنظام سورا 2 من الأولويات العليا، زاعمة أنها ستوفر للمستخدمين “الأدوات والخيار لتكون في سيطرة ما يرونه في تغذيتهم” والسيطرة على شبههم من النهاية إلى النهاية، وجدت دراسة في أكتوبر 2025 أن النموذج أنتج مقاطع فيديو كاذبة 80٪ من الوقت.

من مقاطع الفيديو التي تقلدت تقارير الأخبار حول مسؤول انتخابي مولدوفي يدمر الأوراق الانتخابية إلى مشاهد مفبركة لطفل يتم اعتقاله من قبل ضباط الهجرة أو متحدث باسم شركة كوكا كولا يعلن أن الشركة لن ترعى السوبر بول، فإن الرهانات لإنتاج معلومات خاطئة في عالم مترابط لا يمكن أن تكون أعلى.

ما وراء سورا: فيشينج

حتى قبل إطلاق أداة Open AI، كانت إنشاء وتوزيع ملفات الدوبفيكات على الإنترنت في زيادة. وفقًا لتقرير سبتمبر 2025 من شركة الأمن السيبراني DeepStrike، زادت محتويات الدوبفيكات من 500000 في عام 2023 إلى 8 ملايين في عام 2025، وكان معظمها يستخدم لأغراض احتيالية.

لا يظهر الاتجاه أي علامات على التوقف؛ من المتوقع أن يصل الاحتيال بالذكاء الاصطناعي في الولايات المتحدة وحدها إلى 40 مليار دولار أمريكي في عام 2027.

لا تقتصر هذه الزيادة على الكمية. مع أدوات مثل سورا 2 و جوجل Veo 3، أصبحت محتويات الوجوه والصوت والأداء الكامل التي تم إنشاؤها بواسطة الذكاء الاصطناعي أكثر واقعية من أي وقت مضى. كما أشار عالم الحاسوب وباحث الدوبفيكات Siwei Luy، فإن النماذج المعاصرة قادرة على إنتاج وجوه مستقرة دون تشويه أو تشوه، في حين أن تقليد الصوت قد crosseded “عتبة غير قابلة للتمييز”.

الحقيقة هي أن الدوبفيكات تتقدم على الكشف. ما يباعه شركات التكنولوجيا كأدوات ممتعة لإنشاء كل شيء من روتين الجمباز الأولمبي إلى خلفيات صوتية متقدمة، تم استغلالها أيضًا من قبل المجرمين لاستهداف الشركات والأفراد على حد سواء. فقط في النصف الأول من عام 2025، أدت حوادث الدوبفيكات إلى خسائر بقيمة 356 مليون دولار أمريكي للشركات، و 541 مليون دولار أمريكي للأفراد.

الكشف عن الدوبفيكات التقليدية – بما في ذلك تحديد العلامات المائية والوجوه المطبوخة وفحص البيانات الوصفية – فشل. كما أن تقليد الصوت الدوبفيكات يظل الشكل الثاني الأكثر شيوعًا للاحتيال المدعوم بالذكاء الاصطناعي والخداع الصوتي (فيشينج) زاد 442٪ في عام 2025، والنتائج تظهر بالفعل.

“يتمثل الأمر في بضع ثوان من الصوت لإنشاء نسخة مقنعة – كاملة مع النبرة الطبيعية والايقاع والتوكيد والانفعال والفجوات وضجيج التنفس”، كتب Lyu.

علم الاستماع إلى البشر

Kintsugi، شركة صحة بدأت في تطوير تقنية العلامات البيولوجية الصوتية بالذكاء الاصطناعي للكشف عن علامات الاكتئاب والقلق السريري. بدأ عملهم من فرضية بسيطة على ما يبدو: يجب أن نستمع إلى البشر.

“لقد بدأت Kintsugi بسبب مشكلة واجهتها شخصيًا. قمت بالمكالمة مع مزودي لمدة خمسة أشهر تقريبًا فقط لتحديد موعد初ي لجلسة علاج، ولم يرد أحد على مكالماتي أبدًا. واصلت المحاولة – لكنني تذكرت بوضوح أنه لو كان هذا أبي أو أخي، لكانوا قد توقفوا قبل أن أفعل”، قالت الرئيس التنفيذي غريس تشانغ في حديث مع Unite.AI.

تأسست الشركة في كاليفورنيا في عام 2019 كحل لمشكلة وصفها تشانغ بأنها “حاجز التriage”. اعتقدت أن الكشف عن الحدة في وقت مبكر وبدون قصد يمكن أن يساعد في الحصول على الناس على مستوى الرعاية الصحيحة بشكل أسرع. ومن خلال Kintsugi Voice، تعرف العلامات البيولوجية الصوتية الاكتئاب والقلق.

توجد أبحاث كثيرة تثبت استخدام النجاح للتحليل الصوتي والكلام المدعوم بالذكاء الاصطناعي كعامل بيولوجي لاضطرابات الصحة النفسية. على سبيل المثال، وجدت ورقة في مايو 2025 أن العلامات البيولوجية الصوتية يمكن أن تكتشف علامات الصحة النفسية والتنوع العصبي في وقت مبكر، وادعت دمج تحليلات الغناء في الإعدادات السريرية لتقييم انخفاض إدراك المرضى المحتمل.

تملك مقاييس الصوت معدل دقة يصل إلى 78٪ إلى 96٪ في تحديد الأشخاص الذين يعانون من الاكتئاب مقارنة بالذين لا يعانون منه، وفقًا للجمعية الأمريكية للأطباء النفسيين. وجدت دراسة أخرى استخدمت اختبار لفظي لمدة دقيقة واحدة حيث أسمى الفرد尽可能 الكثير من الكلمات في فئة معينة – ووجدت دقة 70٪ إلى 83٪ في الكشف عن وجود الاكتئاب والقلق.

为了 تقييم صحة مستخدميها النفسية، تطلب Kintsugi مقطع صوتي قصير، وبعد ذلك تقوم تقنية العلامات البيولوجية الصوتية بتحليل النبرة والتنغيم والصوت والفجوات – علامات وجدت أنها ترتبط بالحالات مثل الاكتئاب والقلق واضطراب ثنائي القطب والخرف.

ما لم تدركه تشانج في البداية، هو أن التكنولوجيا قد فككت واحدة من التحديات الحالية الأكثر إلحاحًا في صناعة الأمن: تحديد ما يجعل الأصوات الإنسانية إنسانية.

من رعاية الصحة النفسية إلى الأمن السيبراني

في حين كانت تشانغ تحضر قمة في نيويورك في أواخر عام 2025، ذكرت لصديق في مجال الأمن السيبراني أن تجربة فريقه مع الأصوات الاصطناعية كانت مخيبة للآمال.

“كنا نستكشف البيانات الاصطناعية لتكميل التدريب لنموذجنا الصحي النفسي، لكن الأصوات المولدة كانت مختلفة جدًا عن الكلام البشري الحقيقي لدرجة أننا كنا نستطيع أن ن告诉 تقريبًا 100٪ من الوقت”، قالت.

“توقف عني وقال:‘غريس – هذه ليست مشكلة محلولة في الأمن’. تلك كانت اللحظة التي كل شيء فيها انسجام. منذ ذلك الحين، أكدت محادثات مع شركات الأمن والخدمات المالية والاتصالات على مدى سرعة نمو هجمات الصوت الدوبفيكات – ومدى الحاجة الحقيقية إلى التمييز بين الأصوات الإنسانية والاصطناعية في المكالمات الحية”، أضافت الرئيس التنفيذي.

في أبريل من العام الماضي، حذر الفيدي من حملة رسائل نصية وصوتية خبيثة تتنكر في صورة اتصالات من مسؤولين أمريكيين كبار وتستهدف موظفي الحكومة السابقين وأصدقائهم. كما استهدفت البنوك الوطنية الكبيرة في الولايات المتحدة بمعدل 5.5 محاولات احتيال يومية لتحوير الصوت، كما أبلغ موظفو المستشفى في مركز جامعة فاندربيلت الطبي الهجمات بالخداع من المزيفين الذين يتنكرون في صورة أصدقاء وأشرف وموظفين.

على الرغم من أن الدوبفيكات لم تدخل في البداية في عمل Kintsugi، إلا أن فريق الشركة كان يستخدم نماذج جاهزة مثل Cartesia و Sesame و ElevenLabs لاستخدام الأصوات الاصطناعية لموظفي مركز الاتصال الإداري والعمليات الخارجية، إلا أن احتيال الدوبفيكات لم يكن محور تركيزهم في سوق مزدحم ومتاح يضم نماذج مثل Sora.

然而، الإشارات الإنسانية التي تشير إلى صحة الصوت هي نفس العلامات البيولوجية التي تجعل شخصًا إنسانًا في المقام الأول. بغض النظر عن اللغة أو الدلالات، تعمل Kintsugi Voice مع معالجة الإشارات والطابع الزمني للكلام، وتحديد التوقيت الدقيق والتنوع البروسودي والتحميل المعرفي وال علامات الفسيولوجية التي تعكس كيفية إنتاج الكلام … وليس ما قيل.

“الأصوات الاصطناعية يمكن أن تظهر متدفقة، لكنها لا تحمل نفس الآثار البيولوجية وال认知ية”، قالت تشانغ. نموذج الشركة هو دائمًا أداء عالي الدقة في الكشف، باستخدام ما يصل إلى 3 إلى 5 ثوان من الصوت.

يمكن أن تكون Kintsugi ثورية لأولئك الذين يصارعون مع الصحة النفسية، خاصة في المناطق حيث يأخذ الحصول على علاج مع المحترفين وقتًا وموارد. بنفس القدر، تقدم تقنيتهم ثورة في الكشف عن الدوبفيكات والأمن السيبراني بشكل عام: الكشف عن الصحة بدلاً من الكشف عن الدوبفيكات.

المستقبل يكمن في التكنولوجيا المتمركزة حول الإنسان

لقد ركز الأمن السيبراني لفترة طويلة على استخدام التكنولوجيا الخبيثة أو الجناة أنفسهم.然而، اكتشاف Kintsugi العرضي يركن إلى الإنسانية نفسها.

“نحن نعمل على سطح مختلف تمامًا: الصحة الإنسانية نفسها. لا يمكن للنماذج اللغة الكبيرة الكشف عن محتوى النماذج اللغة الكبيرة بشكل موثوق، والأساليب القائمة على الآثار هشة. 捕获 مجموعات بيانات كبيرة وموسومة سريريًا التي تشفر تغيرات إنسانية حقيقية مكلفة، وبطيئة، وخارج خبرة معظم شركات الأمن – مما يجعل هذا النهج صعبًا للتكرار”، أوضحت تشانغ.

يقترح نهج الشركة أيضًا تحولًا أوسع: الابتكار عبر المجالات. قد يقود رواد الميدان في الرعاية الصحية حملة الكشف عن فيشينج المدعوم بالذكاء الاصطناعي، كما قد تدعم المبتكرون في تكنولوجيا الفضاء آليات الاستجابة للطوارئ الجديدة، أو قد يدعم مصممو الألعاب هندسة وتخطيط المدن.

فيما يتعلق تشانغ، تخطط لتكون معيارًا لتحديد البشر الحقيقيين والنية الحقيقية في النهاية من خلال التفاعلات الصوتية.

“مثل HTTPS أصبحت طبقة ثقة افتراضية للويب، نعتقد أن ‘إثبات الإنسان’ ستصبح طبقة أساسية لأنظمة الصوت”، قالت.

مع استمرار تسارع الذكاء الاصطناعي، قد تأتي الحماية الأكثر فعالية من فهم ما يجعل البشر… خلاصة القول، إنسانًا.

سالومي هي صحفية من مدينة ميديلين، ومراسلة أولى في Espacio Media Incubator. مع خلفية في التاريخ والسياسة، يركز عمل سالومي على الأهمية الاجتماعية للتكنولوجيات الناشئة. وقد تم عرضها في قناة الجزيرة، وتقارير أمريكا اللاتينية، وThe Sociable، من بين آخرين