Connect with us

حزمة قوية بحجم الجيب: كشف النقاب عن Phi-3 من مايكروسوفت، نموذج اللغة الذي يناسب هاتفك

الذكاء الاصطناعي

حزمة قوية بحجم الجيب: كشف النقاب عن Phi-3 من مايكروسوفت، نموذج اللغة الذي يناسب هاتفك

mm

في مجال الذكاء الاصطناعي السريع التطور، بينما كانت العادة تميل إلى نماذج أكبر وأكثر تعقيداً، تتخذ مايكروسوفت نهجاً مختلفاً مع Phi-3 Mini. هذا نموذج لغة صغير (SLM)، الآن في جيله الثالث، يحتوي على قدرات قوية لنماذج أكبر في إطار يتناسب مع قيود الموارد الصارمة للهواتف الذكية. مع 3.8 مليار معامل، يطابق Phi-3 Mini أداء نماذج اللغة الكبيرة (LLMs) عبر مهام مختلفة بما في ذلك معالجة اللغة والاستدلال والبرمجة والرياضيات، ومصمم للتشغيل الكفء على الأجهزة المحمولة من خلال الكم.

تحديات نماذج اللغة الكبيرة

تطوير نماذج Phi SLMs من مايكروسوفت يأتي استجابة للتحديات الكبيرة التي تطرحها نماذج LLMs، والتي تتطلب قدرة حسابية أكبر من تلك المتاحة عادة على الأجهزة الاستهلاكية. هذا الطلب العالي يُ复ّع استخدامها على أجهزة الكمبيوتر والأجهزة المحمولة، ويزيد من المخاوف البيئية بسبب استهلاكها للطاقة أثناء التدريب والتشغيل، ويتسبب في تعزيز الانحيازات بفضل مجموعات بيانات التدريب الكبيرة والمعقدة. هذه العوامل يمكن أن تعيق استجابة النماذج في التطبيقات الفورية وتجعل التحديثات أكثر صعوبة.

Phi-3 Mini:简化 الذكاء الاصطناعي على الأجهزة الشخصية لتحسين الخصوصية والكفاءة

تم تصميم Phi-3 Mini استراتيجياً لتقديم بديل كفء واقتصادي لتكامل الذكاء الاصطناعي المتقدم مباشرة على الأجهزة الشخصية مثل الهواتف والأجهزة اللابتوب. هذا التصميم يسهل الاستجابات السريعة والمباشرة، مما يعزز التفاعل المستخدم مع التكنولوجيا في السيناريوهات اليومية.

Phi-3 Mini يسمح بوظائف الذكاء الاصطناعي المتقدمة المعالجة مباشرة على الأجهزة المحمولة، مما يقلل من الاعتماد على خدمات السحابة ويعزز معالجة البيانات في الوقت الفعلي. هذه القدرة هي حاسمة للتطبيقات التي تتطلب معالجة البيانات الفورية، مثل الرعاية الصحية المحمولة وترجمة اللغة في الوقت الفعلي والتعليم الشخصي، مما يسهل التقدم في هذه المجالات. كفاءة التكلفة للنموذج لا تقلل فقط من التكاليف التشغيلية ولكن توسع أيضًا إمكانية دمج الذكاء الاصطناعي عبر مختلف الصناعات، بما في ذلك الأسواق الناشئة مثل تكنولوجيا الارتداء وتحكم المنزل. Phi-3 Mini يسمح بمعالجة البيانات مباشرة على الأجهزة المحلية مما يعزز خصوصية المستخدم. يمكن أن يكون هذا حاسماً لإدارة المعلومات الحساسة في مجالات مثل الصحة الشخصية والخدمات المالية. بالإضافة إلى ذلك، فإن متطلبات الطاقة المنخفضة للنموذج تساهم في عمليات الذكاء الاصطناعي المستدامة بيئياً، مما يتوافق مع الجهود العالمية لتحقيق الاستدامة.

فلسفة التصميم وتطور Phi

تستند فلسفة تصميم Phi على مفهوم التعلم المنظم، الذي يستمد الإلهام من النهج التعليمي حيث يتعلم الأطفال من خلال أمثلة متزايدة الصعوبة. الفكرة الرئيسية هي بدء تدريب الذكاء الاصطناعي مع أمثلة أسهل وزيادة تعقيد بيانات التدريب تدريجياً مع تقدم عملية التعلم. قامت مايكروسوفت بتنفيذ هذه الاستراتيجية التعليمية من خلال بناء مجموعة بيانات من الكتب الدراسية، كما هو موضح في دراستهم “الكتب الدراسية كل ما تحتاجه.” تم إطلاق سلسلة Phi في يونيو 2023، بدءاً من Phi-1، نموذج مضغوط يضم 1.3 مليار معامل. أظهر هذا النموذج فعالية سريعة، خاصة في مهام برمجة بايثون، حيث تفوق على نماذج أكبر وأكثر تعقيداً. بناءً على هذا النجاح، طور لاحقاً مايكروسوفت Phi-1.5، الذي حافظ على نفس عدد المعاملات ولكنه وسع قدراته في مجالات مثل التفكير السليم وفهم اللغة. برزت السلسلة مع إصدار Phi-2 في ديسمبر 2023. مع 2.7 مليار معامل، أظهر Phi-2 مهارات مثيرة في التفكير وفهم اللغة، مما جعله منافساً قوياً ضد نماذج أكبر بكثير.

Phi-3 مقابل نماذج اللغة الصغيرة الأخرى

بناءً على سلاسلها السابقة، يوسع Phi-3 Mini التقدم الذي أحرزه Phi-2 من خلال تفوقه على نماذج SLMs الأخرى، مثل Gemma من جوجل، Mistral من Mistral، Llama3-Instruct من Meta، وGPT 3.5، في مجموعة متنوعة من التطبيقات الصناعية. تشمل هذه التطبيقات فهم اللغة والاستدلال والمعرفة العامة والتفكير السليم ومشكلات الرياضيات الكلامية في المدرسة الابتدائية والإجابة على الأسئلة الطبية، مما يظهر أداء متفوقاً مقارنة بهذه النماذج. تم اختبار Phi-3 Mini أيضاً بدون اتصال بشبكة الإنترنت على iPhone 14 لعدة مهام، بما في ذلك إنشاء المحتوى وتقديم اقتراحات النشاط المخصصة لمواقع محددة. لهذا الغرض، تم ضغط Phi-3 Mini إلى 1.8GB باستخدام عملية تسمى الكم، التي تحسن النموذج لتناسب أجهزة الموارد المحدودة عن طريق تحويل بيانات النموذج الرقمية من أرقام النقطة العائمة 32 بت إلى صيغ أكثر ضغطاً مثل الأعداد الصحيحة 4 بت. هذا لا يقلل فقط من بصمة الذاكرة للنموذج ولكن ي cải thiện أيضاً سرعة المعالجة والكفاءة في استهلاك الطاقة، مما هو حاسم للأجهزة المحمولة. عادة ما يستخدم المطورون إطارات مثل TensorFlow Lite أو PyTorch Mobile، التي تدمج أدوات الكم لتحسين وتحسين هذه العملية تلقائياً.

مقارنة الميزات: Phi-3 Mini مقابل Phi-2 Mini

فيما يلي، نقارن بعض ميزات Phi-3 مع سلفه Phi-2.

  • هيكل النموذج: يعمل Phi-2 على هيكل قائم على Transformer مصمم للتنبؤ بالكلمة التالية. يعمل Phi-3 Mini أيضاً على هيكل محول للفك لكنه يتوافق أكثر مع هيكل نموذج Llama-2، مستخدماً نفس المُحَوِّل مع حجم مفردات يبلغ 320,641. يضمن هذا التوافق أن الأدوات التي تم تطويرها ل Llama-2 يمكن تعديلها بسهولة لاستخدامها مع Phi-3 Mini.
  • طول السياق: يدعم Phi-3 Mini طول سياق يبلغ 8,000 رمز، وهو أكبر بكثير من 2,048 رمز ل Phi-2. يسمح هذا الزيادة ل Phi-3 Mini بإدارة تفاعلات أكثر تفصيلاً ومعالجة مقاطع نصية أطول.
  • تشغيل محلي على الأجهزة المحمولة: يمكن ضغط Phi-3 Mini إلى 4 بت، يشغل حوالي 1.8GB من الذاكرة، مشابه ل Phi-2. تم اختباره لتشغيله بدون اتصال بشبكة الإنترنت على iPhone 14 مع شريحة A16 Bionic، حيث حقق سرعة معالجة تزيد على 12 رمز في الثانية، مطابقة لأداء Phi-2 في ظل نفس الظروف.
  • حجم النموذج: مع 3.8 مليار معامل، يمتلك Phi-3 Mini حجمًا أكبر من Phi-2، الذي يحتوي على 2.7 مليار معامل. يعكس هذا الزيادة في قدراته.
  • بيانات التدريب: على عكس Phi-2، الذي تم تدريبه على 1.4 تريليون رمز، تم تدريب Phi-3 Mini على مجموعة بيانات أكبر بكثير تبلغ 3.3 تريليون رمز، مما يسمح له بتحقيق فهم أفضل لأنماط اللغة المعقدة.

معالجة قيود Phi-3 Mini

في حين يظهر Phi-3 Mini تقدمًا كبيرًا في مجال نماذج اللغة الصغيرة، إلا أنه ليس خاليًا من القيود. أحد القيود الرئيسية ل Phi-3 Mini، نظرًا لحجمه الصغير مقارنة بنماذج اللغة الكبيرة، هو قدرته المحدودة على تخزين المعرفة الواقعية الشاملة. يمكن أن يؤثر هذا على قدرته على التعامل بشكل مستقل مع الاستفسارات التي تتطلب عمقًا من البيانات الواقعية أو المعرفة المتخصصة. ومع ذلك، يمكن تعزيز هذا من خلال دمج Phi-3 Mini مع محرك بحث. بهذه الطريقة، يمكن للنموذج الوصول إلى نطاق أوسع من المعلومات في الوقت الفعلي، مما يعوض بشكل فعال عن قيوده المعرفية. يسمح هذا التكامل ل Phi-3 Mini بالعمل مثل متحدث محادثات قوي، الذي尽管 لديه فهم شاملاً للغة والسياق، قد يحتاج في بعض الأحيان إلى “البحث” عن المعلومات لتوفير استجابات دقيقة ومحدثة.

التوافر

Phi-3 متاح الآن على منصات متعددة، بما في ذلك Microsoft Azure AI Studio وHugging Face وOllama. على Azure AI، يدمج النموذج تدفق عمل التوزيع والتقييم والتعدين الدقيق، وعلى Ollama، يمكن تشغيله محليًا على الأجهزة اللابتوب. تم تخصيص النموذج ل ONNX Runtime ويدعم Windows DirectML، مما يضمن عمله بشكل جيد عبر أنواع مختلفة من الأجهزة مثل وحدات معالجة الرسومات ووحدات المعالجة المركزية والأجهزة المحمولة. بالإضافة إلى ذلك، يتم تقديم Phi-3 كخدمة دقيقة عبر NVIDIA NIM، مجهزة بواجهة برمجة تطبيقات قياسية لتوزيعها بسهولة عبر بيئات مختلفة ومُحسّنة خصيصاً لأجهزة NVIDIA GPUs. تخطط مايكروسوفت لتوسيع سلسلة Phi-3 في المستقبل القريب من خلال إضافة نماذج Phi-3-small (7B) و Phi-3-medium (14B)، مما يوفر للمستخدمين خيارات إضافية للتوازن بين الجودة والتكلفة.

الخلاصة

Phi-3 Mini من مايكروسوفت يحقق خطوات كبيرة في مجال الذكاء الاصطناعي من خلال تعديل قوة نماذج اللغة الكبيرة للاستخدام المحمول. هذا النموذج يحسن التفاعل المستخدم مع الأجهزة من خلال المعالجة الفورية وأداء الخصوصية المحسّن. يقلل من الحاجة إلى خدمات السحابة، مما يقلل من التكاليف التشغيلية ويعزز نطاق تطبيقات الذكاء الاصطناعي في مجالات مثل الرعاية الصحية وتحكم المنزل. مع التركيز على تقليل الانحياز من خلال التعلم المنظم والحفاظ على الأداء التنافسي، يتحول Phi-3 Mini إلى أداة رئيسية للذكاء الاصطناعي المحمول الكفء والمستدام، مما يغير ببطء كيفية تفاعلنا مع التكنولوجيا يومياً.

الدكتور تيهسين زيا هو أستاذ مساعد دائم في جامعة كومساتس إسلام آباد، وحاصل على دكتوراه في الذكاء الاصطناعي من جامعة التكنولوجيا في فيينا، النمسا. يتخصص في الذكاء الاصطناعي وتعلم الآلة وعلوم البيانات ورؤية الكمبيوتر، وقدم مساهمات كبيرة من خلال منشورات في مجلات علمية مشهورة. كما قاد الدكتور تيهسين مشاريع صناعية مختلفة كمستслед رئيسي وقدم خدماته كمستشار في الذكاء الاصطناعي.