Connect with us

الحقيقة حول البيانات الاصطناعية: لماذا يعتبر الخبرة البشرية حاسمة لنجاح LLM

قادة الفكر

الحقيقة حول البيانات الاصطناعية: لماذا يعتبر الخبرة البشرية حاسمة لنجاح LLM

mm

يعتمد مطورو LLM بشكل متزايد على البيانات الاصطناعية لتسريع التطوير وتقليل التكاليف. ذكر الباحثون وراء عدة نماذج من الطراز الأعلى، مثل LLama 3 و Qwen 2 و DeepSeek R1، استخدام البيانات الاصطناعية لتدريب نماذجهم في أوراق البحث. من الخارج، يبدو أن هذا الحل هو الحل المثالي: بئر لا نهاية له من المعلومات لتسريع التطوير وتقليل التكاليف. لكن هذا الحل يأتي مع تكلفة مخفية لا يمكن لمديري الأعمال تجاهلها.

بمعنى بسيط، البيانات الاصطناعية يتم توليدها بواسطة نماذج الذكاء الاصطناعي لإنشاء مجموعات بيانات اصطناعية لتدريب وضبط وتقييم LLM ووكلاء الذكاء الاصطناعي. بالمقارنة مع التعليق البشري التقليدية، يسمح خط أنابيب البيانات بالتوسع بسرعة، وهو أمر ضروري في المناظر المتحركة والتنافسية لتطوير الذكاء الاصطناعي.

قد يكون للشركات أسباب أخرى لاستخدام “بيانات وهمية”، مثل حماية المعلومات الحساسة أو السرية في إعدادات التمويل أو الرعاية الصحية من خلال إنشاء نسخ مجهولة. البيانات الاصطناعية也是 بديل جيد عندما لا تتوفر البيانات المملوكة، مثل قبل إطلاق المنتج أو عندما تنتمي البيانات إلى عملاء خارجيين.

لكن هل البيانات الاصطناعية تحول تطوير الذكاء الاصطناعي؟ الجواب القصير هو نعم مؤهل: لديها إمكانات كبيرة، ولكنها يمكن أن تعرّض LLM ووكلاء الذكاء الاصطناعي للضعف الحرج بدون إشراف بشري صارم. قد يجد منتجو LLM ومطورو وكلاء الذكاء الاصطناعي أن نماذج الذكاء الاصطناعي المدربة على بيانات اصطناعية غير مدققة بشكل كاف يمكن أن تنتج مخرجات غير دقيقة أو متحيزة، وتخلق أزمات سمعة، وتؤدي إلى عدم امتثال للمعايير الصناعية والاخلاقية. الاستثمار في الإشراف البشري لتحسين البيانات الاصطناعية هو استثمار مباشر في حماية الحد الأدنى، والحفاظ على ثقة أصحاب المصلحة، وضمان تبني الذكاء الاصطناعي المسؤول.

مع الإدخال البشري، يمكن تحويل البيانات الاصطناعية إلى بيانات تدريب عالية الجودة. هناك ثلاثة أسباب حرجة لتحسين البيانات المولدة قبل استخدامها لتدريب الذكاء الاصطناعي: لملء الفجوات في معرفة النموذج المصدر، لتحسين جودة البيانات وتقليل حجم العينة، والتوافق مع القيم البشرية.

نحن بحاجة إلى التقاط المعرفة الفريدة

البيانات الاصطناعية يتم توليدها في الغالب بواسطة LLM المدربة على مصادر الإنترنت المتاحة للجمهور، مما يخلق تحديًا متأصلًا. النصوص العامة نادرًا ما تصل إلى المعرفة العملية واليدوية المستخدمة في العمل الحقيقي. الأنشطة مثل تصميم حملة تسويقية، أو إعداد توقعات مالية، أو إجراء تحليل سوقي عادة ما تكون خاصة ولا يتم توثيقها على الإنترنت. بالإضافة إلى ذلك، تميل المصادر إلى反映 اللغة والثقافة المتمركزة في الولايات المتحدة، مما يحد من التمثيل العالمي.

للتغلب على هذه القيود، يمكننا إشراك الخبراء لإنشاء عينات بيانات في المجالات التي نشك في أن نموذج توليد البيانات الاصطناعية لا يمكنه تغطيتها. العودة إلى المثال الشركاتي، إذا كنا نريد أن يتعامل نموذجنا النهائي مع توقعات مالية وتحليل سوقي بشكل فعال، فإن بيانات التدريب تحتاج إلى أن تتضمن مهام واقعية من هذه المجالات. من المهم تحديد هذه الفجوات وتكملة البيانات الاصطناعية مع عينات تم إنشاؤها بواسطة الخبراء.

الخبراء غالبًا ما يتم إشراكهم في البداية لتحديد نطاق العمل. هذا يشمل إنشاء تصنيف، والذي يحدد المجالات المحددة للمعرفة التي يحتاج النموذج إلى الأداء فيها. على سبيل المثال، في مجال الرعاية الصحية، يمكن تقسيم الطب العام إلى مواضيع فرعية مثل التغذية، والصحة القلبية، والحساسية، وغيرها. نموذج يركز على الصحة يجب أن يتم تدريبه على جميع المجالات الفرعية التي من المتوقع أن يغطيها. بعد تحديد التصنيف بواسطة خبراء الرعاية الصحية، يمكن استخدام LLM لإنشاء نقاط بيانات مع أسئلة وأجوبة نمطية بسرعة وبتسلسل. لا يزال الخبراء البشر ضروريون لمراجعة وتصحيح وتحسين هذا المحتوى لضمان دقته وسلامته وملاءمته السياقية. هذه عملية ضمان الجودة ضرورية في التطبيقات عالية المخاطر، مثل الرعاية الصحية، لضمان دقة البيانات وتقليل الضرر المحتمل.

الجودة على الكمية: دفع كفاءة النموذج بأسamples أفضل

عندما يخلق خبراء المجال بيانات لتدريب LLM ووكلاء الذكاء الاصطناعي، فإنهم يخلقون تصنيفات لمجموعات البيانات، ويكتبون التحفيزات، وينشئون الإجابات المثالية، أو ي模ّون مهمة محددة. جميع الخطوات مصممة بعناية لتناسب غرض النموذج، ويتأكد من الجودة بواسطة خبراء الموضوع في المجالات المقابلة.

توليد البيانات الاصطناعية لا يكرر هذا العملية بشكل كامل. يعتمد على نقاط قوة النموذج الأساسي المستخدم لإنشاء البيانات، وغالبًا ما لا يكون الجودة على نفس المستوى مع البيانات المعدة من قبل البشر. هذا يعني أن البيانات الاصطناعية غالبًا ما تتطلب حجمًا أكبر لتحقيق نتائج مرضية، مما يزيد من التكاليف الحاسوبية ووقت التطوير.

في المجالات المعقدة، هناك دقة لا يمكن للخبراء البشر فقط ملاحظتها، خاصة مع حالات الشذوذ أو الحالات الحدية. البيانات المعدة من قبل البشر توفر أداء نموذج أفضل باستمرار، حتى مع مجموعات بيانات أصغر بكثير. من خلال دمج الخبرة البشرية بشكل استراتيجي في عملية إنشاء البيانات، يمكننا تقليل عدد العينات اللازمة للنموذج لأداء فعال.

من خبرتنا، أفضل طريقة لمواجهة هذا التحدي هي إشراك خبراء الموضوع في بناء مجموعات البيانات الاصطناعية. عندما يصمم الخبراء قواعد توليد البيانات، ويعرفون تصنيفات البيانات، ويراجعون أو يصححون البيانات المولدة، يكون الجودة النهائية للبيانات أعلى بكثير. سمح هذا النهج لعملائنا بالحصول على نتائج قوية باستخدام عينات بيانات أقل، مما أدى إلى طريق أسرع وأكثر كفاءة إلى الإنتاج.

بناء الثقة: الدور غير القابل للاستبدال للبشر في سلامة الذكاء الاصطناعي والتنظيم

الأنظمة الآلية لا يمكنها توقع جميع نقاط الضعف أو ضمان التوجيه مع القيم البشرية، خاصة في الحالات الحدية والسيناريوهات الغامضة. يلعب المراجعون البشر دورًا حاسمًا في تحديد المخاطر الناشئة وضمان النتائج الأخلاقية قبل النشر. هذا هو طبقة حماية لا يمكن للذكاء الاصطناعي، على الأقل الآن، تقديمها بشكل كامل بمفرده.

لذلك، لبناء مجموعة بيانات قوية للتحقق، لن تكون البيانات الاصطناعية كافية بمفردها. من المهم إشراك خبراء الأمن في البداية. يمكنهم مساعدة في رسم أنواع الهجمات المحتملة وتوجيه هيكل مجموعة البيانات. يمكن بعد ذلك استخدام LLM لإنشاء كمية كبيرة من الأمثلة. بعد ذلك، يحتاج الخبراء إلى التحقق من البيانات وتنقيحها لضمان أنها واقعية وذات جودة عالية ومفيدة لاختبار أنظمة الذكاء الاصطناعي. على سبيل المثال، يمكن لـ LLM توليد الآلاف من التحفيزات القياسية للتحقق، ولكن يمكن لخبير أمني بشري إنشاء هجمات جديدة من نوع “الهندسة الاجتماعية” التي تستغل التحيزات النفسية الدقيقة – تهديد إبداعي يصعب على الأنظمة الآلية اختراعه بمفردها.

هناك تقدم كبير في توجيه LLM باستخدام التغذية الراجعة الآلية. في الورقة RLAIF vs. RLHF: Scaling Reinforcement Learning from Human Feedback with AI Feedback، يظهر الباحثون أن التوجيه القائم على الآلة يمكن أن يؤدي أداءً مشابهًا لتغذية الراجعة البشرية في nhiều حالات. ومع ذلك، بينما تحسن التغذية الراجعة الآلية مع تحسين النماذج، تظهر خبرتنا أن RLAIF لا يزال يضطر إلى التعامل مع المجالات المعقدة والحالات الحدية أو الشاذة، المجالات التي يمكن أن تكون الأداء فيها حاسمة اعتمادًا على التطبيق. الخبراء البشر أكثر فعالية في التعامل مع دقة المهمة والسياق، مما يجعلهم أكثر موثوقية للتوجيه.

يستفيد وكلاء الذكاء الاصطناعي أيضًا من الاختبار الآلي لمواجهة مجموعة واسعة من مخاطر السلامة. تستخدم البيئات الاختبارية الافتراضية بيانات مولدة لتمثيل سلوكيات الوكيل مثل التفاعل مع أدوات على الإنترنت وتنفيذ إجراءات على المواقع. لتحقيق أقصى تغطية اختبارية في السيناريوهات الواقعية، يكون الخبراء البشر ضروريين لتصميم الحالات الاختبارية، ومراجعة نتائج التقييمات الآلية، وتقديم تقارير حول نقاط الضعف.

مستقبل البيانات الاصطناعية

البيانات الاصطناعية هي تقنية قيمة جدًا لتطوير نماذج اللغة الكبيرة، خاصة عندما يكون التوسع والتنفيذ السريع حاسمين في المناظر السريعة التغيير اليوم. بينما لا توجد عيوب أساسية في البيانات الاصطناعية نفسها، فإنها تتطلب تحسينًا لتحقيق إمكاناتها الكاملة وتقديم القيمة الأكبر. نهج هجين يجمع بين توليد البيانات الآلي والخبرة البشرية هو طريقة فعالة جدًا لتطوير نماذج قادرة وموثوقة، حيث يعتمد أداء النموذج النهائي أكثر على جودة البيانات منها على الحجم الإجمالي. هذا العملية المتكاملة، باستخدام الذكاء الاصطناعي للمقياس والخبراء البشر للتحقق، ينتج نماذج أكثر قدرة مع تحسين السلامة والتوجيه، وهو أمر ضروري لبناء ثقة المستخدم وضمان التبني المسؤول.

إيليا كوتشيك هو نائب الرئيس لتطوير الأعمال في Toloka، وهو شريك بيانات بشري لمعامل البحث الرائدة في GenAI، حيث يختص في مهام متقدمة لنمذجة الحدود وأنظمة الوكالة. ويقع مقره في لندن، ويتضمن خلفيته مناصب قيادية وتقنية في Google وQuantumBlack (AI by McKinsey) وBain & Company.