Connect with us

منع الذكاء الاصطناعي من رواية القصص: دليل لمنع الهلوسة

قادة الفكر

منع الذكاء الاصطناعي من رواية القصص: دليل لمنع الهلوسة

mm

يُغيّر الذكاء الاصطناعي الطريقة التي تعمل بها معظم الصناعات. إنه يجعلنا أكثر كفاءة، أكثر إنتاجية، وأفضل في عملنا بشكل عام – عندما يتم تطبيقه بشكل صحيح. ولكن مع زيادة اعتمادنا على هذه التكنولوجيا الجديدة بسرعة، يجب أن نذكر أنفسنا بحقيقة بسيطة: الذكاء الاصطناعي ليس معصومًا. يجب ألا يتم أخذ مخرجاته على أنها حقيقية لأنها، مثل البشر، يمكن أن تخطئ.

نسمي هذه الأخطاء “هلوسات الذكاء الاصطناعي”. وتتراوح هذه الحوادث بين الإجابة على مسألة رياضية بشكل غير صحيح إلى تقديم معلومات غير دقيقة حول السياسات الحكومية. في الصناعات الخاضعة للتنظيم بشكل كبير، يمكن أن تؤدي الهلوسات إلى غرامات باهظة ومشاكل قانونية، بالإضافة إلى عملاء غير راضين.

يجب أن تكون وتيرة هلوسات الذكاء الاصطناعي سببًا للقلق: من المقدر أن النماذج اللغوية الكبيرة الحديثة (LLMs) تخطئ بين 1% و 30% من الوقت. وهذا يؤدي إلى مئات من الإجابات الخاطئة التي يتم توليدها يوميًا، مما يعني أن الشركات التي تسعى إلى الاستفادة من هذه التكنولوجيا يجب أن تكون حازمة عند اختيار الأدوات التي سيتم تطبيقها.

دعونا نستكشف لماذا تحدث هلوسات الذكاء الاصطناعي، ما هي المخاطر، وكيف يمكننا تحديدها وتصحيحها.

القمامة داخل، القمامة خارج

هل تتذكر لعب لعبة “التليفون” عندما كنت طفلاً؟ كيف كانت الجملة الأولى تتغير عندما تمر من لاعب إلى آخر، مما يؤدي إلى بيان مختلف تمامًا عندما يصل إلى نهاية الدائرة؟

طريقة تعلم الذكاء الاصطناعي من مدخلاته مشابهة. الإجابات التي تولدها النماذج اللغوية الكبيرة ليست أفضل من المعلومات التي يتم تغذيتها بها، مما يعني أن السياق الخاطئ يمكن أن يؤدي إلى توليد ونشر معلومات خاطئة. إذا تم بناء نظام الذكاء الاصطناعي على بيانات غير دقيقة أو متجاوزة أو متحيزة، فإن مخرجاته سوف تعكس ذلك.

نظرًا لذلك، فإن نموذج اللغة الكبيرة ليس أفضل من مدخلاته، خاصةً عندما يفتقر إلى التدخل البشري أو الإشراف. مع انتشار حلول الذكاء الاصطناعي الأوتوماتيكية، من المهم أن نقدم للأدوات السياق الصحيح للبيانات لمنع حدوث هلوسات. نحن بحاجة إلى تدريب صارم على هذه البيانات، و/أو القدرة على توجيه النماذج اللغوية الكبيرة بحيث تستجيب فقط من السياق الذي يتم توفيره، بدلاً من سحب المعلومات من أي مكان على الإنترنت.

لماذا تهمنا الهلوسات؟

对于 الشركات التي تواجه العملاء، الدقة هي كل شيء. إذا كان الموظفون يعتمدون على الذكاء الاصطناعي لأداء مهام مثل تحليل بيانات العملاء أو الإجابة على استفسارات العملاء، فيجب أن يثقوا في أن الإجابات التي تولدها هذه الأدوات دقيقة.

خلاف ذلك، تخاطر الشركات بضرر سمعتها وولاء العملاء. إذا تم تغذية العملاء بإجابات غير كافية أو خاطئة بواسطة روبوت محادثة، أو إذا تم تركهم في انتظار بينما يقوم الموظفون بفحص مخرجات الروبوت، قد ينتقلون إلى مكان آخر. لا يجب على العملاء القلق بشأن ما إذا كانت الشركات التي يتعاملون معها تغذيهم معلومات خاطئة – يريدون دعمًا سريعًا وموثوقًا، مما يعني أن الحصول على هذه التفاعلات بشكل صحيح هو من أهم الأشياء.

يجب على قادة الأعمال القيام بعملهم الواجب عند اختيار الأداة الصحيحة لموظفيهم. يُفترض أن الذكاء الاصطناعي يحرر الوقت والطاقة للموظفين للتركيز على المهام ذات القيمة الأعلى؛ الاستثمار في روبوت محادثة يتطلب مراقبة بشرية دائمة يخالف الغرض من تبني التكنولوجيا. ولكن هل وجود هلوسات في الواقع بارز جدًا أم أن المصطلح يستخدم بشكل مبالغ فيه لتحديد أي رد نعتقد أنه غير صحيح؟

مكافحة هلوسات الذكاء الاصطناعي

نظرًا إلى: نظرية المعنى الديناميكي (DMT)، مفهوم أن هناك فهمًا مشتركًا بين شخصين – في هذه الحالة المستخدم والذكاء الاصطناعي – يتم تبادله. ولكن، قيود اللغة ومعارف الموضوع تؤدي إلى انحراف في تفسير الرد.

في حالة الإجابات التي يولدها الذكاء الاصطناعي، من الممكن أن الخوارزميات الأساسية ليست مجهزة بشكل كافٍ لتحليل أو توليد النص بطريقة تتماشى مع التوقعات التي لدينا كبشر. هذا الاختلاف يمكن أن يؤدي إلى ردود قد تبدو دقيقة على السطح ولكنها تفتقر في النهاية إلى العمق أو الدقة المطلوبة للفهم الحقيقي.

علاوة على ذلك، النماذج اللغوية الكبيرة العامة تسحب المعلومات فقط من المحتوى المتاح على الإنترنت. تؤدي تطبيقات الذكاء الاصطناعي في الشركات بشكل أفضل عندما يتم إعلامها بالبيانات والسياسات الخاصة بالصناعات والشركات الفردية. يمكن تحسين النماذج مع反馈 بشري مباشر – خاصةً الحلول الوكيلية المصممة للرد على النبرة والتركيب.

يجب أن يتم اختبار هذه الأدوات بشكل صارم قبل أن تصبح واجهة للعملاء. هذا هو جزء حاسم من منع هلوسات الذكاء الاصطناعي. يجب اختبار التدفق بأكمله باستخدام محادثات دورية مع النموذج اللغوي الكبير يلعب دور الشخصية. هذا يسمح للشركات بالافتراض بشكل أفضل لنجاح المحادثات مع نموذج الذكاء الاصطناعي قبل إطلاقه في العالم.

من المهم لكل من مطوري ومستخدمي تكنولوجيا الذكاء الاصطناعي أن يبقوا على دراية بنظرية المعنى الديناميكي في الردود التي يتلقونها، بالإضافة إلى ديناميكيات اللغة المستخدمة في المدخلات. تذكر، السياق هو المفتاح. وكبشر، معظم سياقنا يفهم من خلال وسائل غير ملموسة، سواء كانت لغة الجسد أو الاتجاهات الاجتماعية – حتى نبرتنا. كما البشر، لدينا القدرة على الهلوسة في الاستجابة للأسئلة. ولكن في إصدارنا الحالي من الذكاء الاصطناعي، فهمنا البشري-البشري ليس سهل التفسير، لذلك يجب أن نكون أكثر انتقادًا للسياق الذي نقدمه في الكتابة.

ليس كل نماذج الذكاء الاصطناعي متساوية. مع تطور التكنولوجيا لإكمال مهام أكثر تعقيدًا، من المهم للشركات التي تهدف إلى التنفيذ تحديد الأدوات التي ستحسن تفاعلات العملاء وتجاربهم بدلاً من الإضرار بها.

الonus ليس فقط على مقدمي الحلول لضمان القيام بكل ما في وسعهم لتحديد الحد الأدنى لفرصة حدوث هلوسات. للمشترين دورهم أيضًا. من خلال الأولوية للأدوات التي تم تدريبها واختبارها بدقة ويمكنها التعلم من البيانات المملوكة (بدلاً من أي شيء على الإنترنت)، يمكن للشركات الاستفادة بشكل أفضل من استثماراتها في الذكاء الاصطناعي لضمان نجاح الموظفين والعملاء.

دان بالاشيانو، رئيس قسم المنتج في DRUID AI، لديه خبرة في إدارة أقسام التطوير والعمليات داخل المنظمات التجارية. وهو مهندس حلول ومدير مشروع تقني محترف للغاية مع أكثر من 15 عامًا في قيادة مشاريع التطوير والتنفيذ متوسطة الحجم، مع جمع متطلبات العملاء وتحليل الأنظمة وتطوير التطبيقات واختبارها، في فرق تركز على العملاء.