الذكاء الاصطناعي
لاما 2: غوص عميق في المنافس مفتوح المصدر لتشات جبت

النماذج اللغوية الكبيرة (LLMs) القادرة على مهام التفكير المعقدة أظهرت وعدا في المجالات المتخصصة مثل البرمجة والكتابة الإبداعية. ومع ذلك ، فإن عالم النماذج اللغوية الكبيرة ليس مجرد جنة من النوع “اللصق والتشغيل” ؛ هناك تحديات في سهولة الاستخدام والأمان والمتطلبات الحاسوبية. في هذا المقال ، سنقوم بالغوص عميقًا في قدرات لاما 2 ، مع تقديم دليل مفصل لتعيين هذا النموذج اللغوي الكبير الأداء العالي عبر Hugging Face و T4 GPUs على Google Colab.
تم تطوير لاما 2 من قبل ميتا مع شراكة مع مايكروسوفت ، ويهدف هذا النموذج اللغوي الكبير مفتوح المصدر إلى إعادة تعريف مجالات الذكاء الاصطناعي والفهم اللغوي الطبيعي. لاما 2 ليس مجرد نموذج إحصائي تم تدريبه على تيرابايت من البيانات ؛ إنه تجسيد لفلسفة. واحدة التي تؤكد على 접근 مفتوح المصدر كالعصب الأساسي لتطوير الذكاء الاصطناعي ، خاصة في مجال الذكاء الاصطناعي التوليدي.
يأتي لاما 2 ونموذجه البديل المُحسَّن للحوار ، لاما 2-تشات ، مع ما يصل إلى 70 مليار معامل. يخضعون لعملية تحسين دقيقة مصممة لجعلها متوافقة بشكل وثيق مع تفضيلات البشر ، مما يجعلها أكثر أمانًا وفعالية من العديد من النماذج الأخرى المتاحة للجمهور. هذا المستوى من الدقة في التحسين الدقيق غالبًا ما يتم حجزها لنماذج LLM “المغلقة” مثل تشات جبت و BARD ، والتي لا يتم توفيرها بشكل عام للاختبار العام أو التخصيص.
غوص تقني عميق في لاما 2
لتدريب نموذج لاما 2 ؛ مثل سلافه ، يستخدم هيكلًا تحويليًا تلقائيًا معماريًا ، تم تدريبه مسبقًا على مجموعة بيانات شاسعة من البيانات ذات الإشراف الذاتي. ومع ذلك ، إنه يضيف طبقة إضافية من التعقيد باستخدام تعلم التعزيز مع反












