Connect with us

لاما 2: غوص عميق في المنافس مفتوح المصدر لتشات جبت

الذكاء الاصطناعي

لاما 2: غوص عميق في المنافس مفتوح المصدر لتشات جبت

mm
META LLAMA 2 LLM

النماذج اللغوية الكبيرة (LLMs) القادرة على مهام التفكير المعقدة أظهرت وعدا في المجالات المتخصصة مثل البرمجة والكتابة الإبداعية. ومع ذلك ، فإن عالم النماذج اللغوية الكبيرة ليس مجرد جنة من النوع “اللصق والتشغيل” ؛ هناك تحديات في سهولة الاستخدام والأمان والمتطلبات الحاسوبية. في هذا المقال ، سنقوم بالغوص عميقًا في قدرات لاما 2 ، مع تقديم دليل مفصل لتعيين هذا النموذج اللغوي الكبير الأداء العالي عبر Hugging Face و T4 GPUs على Google Colab.

تم تطوير لاما 2 من قبل ميتا مع شراكة مع مايكروسوفت ، ويهدف هذا النموذج اللغوي الكبير مفتوح المصدر إلى إعادة تعريف مجالات الذكاء الاصطناعي والفهم اللغوي الطبيعي. لاما 2 ليس مجرد نموذج إحصائي تم تدريبه على تيرابايت من البيانات ؛ إنه تجسيد لفلسفة. واحدة التي تؤكد على 접근 مفتوح المصدر كالعصب الأساسي لتطوير الذكاء الاصطناعي ، خاصة في مجال الذكاء الاصطناعي التوليدي.

يأتي لاما 2 ونموذجه البديل المُحسَّن للحوار ، لاما 2-تشات ، مع ما يصل إلى 70 مليار معامل. يخضعون لعملية تحسين دقيقة مصممة لجعلها متوافقة بشكل وثيق مع تفضيلات البشر ، مما يجعلها أكثر أمانًا وفعالية من العديد من النماذج الأخرى المتاحة للجمهور. هذا المستوى من الدقة في التحسين الدقيق غالبًا ما يتم حجزها لنماذج LLM “المغلقة” مثل تشات جبت و BARD ، والتي لا يتم توفيرها بشكل عام للاختبار العام أو التخصيص.

غوص تقني عميق في لاما 2

لتدريب نموذج لاما 2 ؛ مثل سلافه ، يستخدم هيكلًا تحويليًا تلقائيًا معماريًا ، تم تدريبه مسبقًا على مجموعة بيانات شاسعة من البيانات ذات الإشراف الذاتي. ومع ذلك ، إنه يضيف طبقة إضافية من التعقيد باستخدام تعلم التعزيز مع反

لقد قمت بإنفاق الخمس سنوات الماضية في غمرة العالم المثير للاهتمام من تعلم الآلة والتعلم العميق. وقد أدت شغفي وخبرتي إلى المساهمة في أكثر من 50 مشروعًا للهندسة البرمجية متنوعًا، مع التركيز بشكل خاص على الذكاء الاصطناعي / تعلم الآلة. كما أدت فضولي المستمر إلى جذبي نحو معالجة اللغة الطبيعية، وهو مجال أنا حريص على استكشافه بشكل أكبر.