الذكاء الاصطناعي
ChatGPT يلتقي بنظيره: صعود نموذج لغة كلود الأنثروبي

على مدار العام الماضي، اكتسبت الذكاء الاصطناعي التوليدي شعبية كبيرة، ويرجع ذلك إلى حد كبير إلى إصدار OpenAI لبرنامج ChatGPT في نوفمبر 2022. ChatGPT هو نظام ذكاء اصطناعي محادثة قادر بشكل مثير للإعجاب يمكنه فهم مطالبات اللغة الطبيعية وتوليد استجابات مدروسة تشبه ردود الفعل البشرية حول مجموعة واسعة من الموضوعات.
مع ذلك، لا يخلو ChatGPT من المنافسة. يُعد Claude، الذي طورته شركة أبحاث الذكاء الاصطناعي Anthropic، أحد أبرز المنافسين الجدد الواعدين الذين يسعون للتفوق على ChatGPT. طُرح Claude لاختبار محدود في ديسمبر 2022، بعد أسابيع قليلة من ChatGPT. على الرغم من أن Claude لم يشهد انتشارًا واسعًا مثل ChatGPT، إلا أنه يُظهر بعض المزايا الرئيسية التي قد تجعله أكبر تهديد لهيمنة ChatGPT في مجال الذكاء الاصطناعي التوليدي.
خلفية عن الأنثروبي
قبل الغوص في تفاصيل كلود، من المفيد أن نفهم شركة Anthropic، الشركة التي تقف وراء نظام الذكاء الاصطناعي هذا. تأسست شركة Anthropic في عام 2021 على يد باحثين سابقين في OpenAI، داريو أمودي ودانييلا أمودي، وهي شركة ناشئة تركز على تطوير الذكاء العام الاصطناعي الآمن (AGI).
تتبع الشركة نهجًا بحثيًا، وتهدف إلى ابتكار ذكاء اصطناعي آمن وصادق ومفيد. وتستفيد أنثروبيك من تقنيات الذكاء الاصطناعي الدستورية، التي تتضمن وضع قيود واضحة على أهداف وقدرات نظام الذكاء الاصطناعي أثناء التطوير. وهذا يتناقض مع تفضيل OpenAI لتوسيع نطاق الأنظمة بسرعة والتعامل مع مشكلات السلامة بشكل تفاعلي.
جمعت Anthropic تمويلًا بقيمة 300 مليون دولار في عام 2022. ومن بين الداعمين قادة التكنولوجيا البارزين مثل داستن موسكوفيتز، المؤسس المشارك لـ Facebook و Asana. بفضل هذا المدرج المالي وفريق من كبار الباحثين في مجال سلامة الذكاء الاصطناعي، تتمتع Anthropic بمكانة جيدة للتنافس مباشرة مع المنظمات الكبيرة مثل OpenAI.
نظرة عامة على كلود
Claude مدعوم من طراز Claude 2 & Claude 2.1، وهو عبارة عن روبوت دردشة يعمل بالذكاء الاصطناعي مصمم للتعاون والكتابة والإجابة على الأسئلة، تمامًا مثل ChatGPT وGoogle Bard.
يتميز كلود بميزاته التقنية المتقدمة. وبينما يحاكي هيكل المحولات الشائع في النماذج الأخرى، فإن عملية التدريب هي ما يميز كلود، إذ يستخدم منهجيات تُولي الأولوية للمبادئ الأخلاقية والفهم السياقي. وقد أدى هذا النهج إلى أداء كلود الرائع في الاختبارات المعيارية، متجاوزًا حتى العديد من نماذج الذكاء الاصطناعي.
يُظهر كلود قدرة رائعة على فهم السياق، والحفاظ على شخصيات متسقة، والاعتراف بالأخطاء. وفي كثير من الحالات، تكون استجاباتها واضحة ودقيقة وشبيهة بالإنسان. تنسب الأنثروبيك الفضل إلى أساليب الذكاء الاصطناعي الدستورية في السماح لكلود بإجراء المحادثات بأمان، دون محتوى ضار أو غير أخلاقي.
تتضمن بعض القدرات الأساسية الموضحة في اختبارات كلود الأولية ما يلي:
- الذكاء الحواري - يستمع كلود إلى مطالبات المستخدم ويطرح أسئلة توضيحية. فهو يضبط الاستجابات بناءً على السياق المتطور.
- منطق - يستطيع كلود تطبيق المنطق للإجابة على الأسئلة بشكل مدروس دون قراءة المعلومات المحفوظة.
- الإبداع - يستطيع كلود إنشاء محتوى جديد مثل القصائد والقصص ووجهات النظر الفكرية عند الطلب.
- تجنب ضرر – يمتنع كلود عن نشر محتوى ضار أو غير أخلاقي أو خطير أو غير قانوني، بما يتماشى مع تصميم الذكاء الاصطناعي الدستوري الخاص به.
- تصحيح الأخطاء - إذا أدرك كلود أنه ارتكب خطأً واقعيًا، فسوف يتراجع عن الخطأ بلطف عندما يشير المستخدمون إليه.
كلود 2.1
In نوفمبر 2023أصدرت Anthropic نسخة مطورة تسمى Claude 2.1. إحدى الميزات الرئيسية هي توسيع نافذة السياق الخاصة بها إلى 200,000 رمز، مما يتيح حوالي 150,000 كلمة أو أكثر من 500 صفحة من النص.
تسمح هذه القدرة السياقية الهائلة لكلود 2.1 بالتعامل مع مجموعات أكبر بكثير من البيانات. يمكن للمستخدمين تقديم قواعد تعليمات برمجية معقدة، أو تقارير مالية مفصلة، أو أعمال أدبية واسعة النطاق كمطالبات. يستطيع كلود بعد ذلك تلخيص النصوص الطويلة بشكل متماسك، وإجراء أسئلة وأجوبة شاملة بناءً على المستندات، واستقراء الاتجاهات من مجموعات البيانات الضخمة. يعد هذا الفهم السياقي الضخم تقدمًا كبيرًا، حيث يعمل على تمكين التفكير الأكثر تطورًا وفهم المستندات مقارنة بالإصدارات السابقة.
تعزيز الصدق والدقة
انخفاض كبير في الهلوسة النموذجية
أحد التحسينات الرئيسية في كلود 2.1 هو تعزيز الصدق، والذي يتضح من خلال انخفاض ملحوظ بنسبة 50٪ في معدلات البيانات الكاذبة مقارنة بالنموذج السابق، كلود 2.0. يضمن هذا التحسين أن يوفر Claude 2.1 معلومات أكثر موثوقية ودقة، وهو أمر ضروري للمؤسسات التي تتطلع إلى دمج الذكاء الاصطناعي في عملياتها الحيوية.
تحسين الفهم والتلخيص
يُظهر كلود 2.1 تطورات كبيرة في فهم وتلخيص المستندات المعقدة والطويلة. تعتبر هذه التحسينات ضرورية للمهام التي تتطلب دقة عالية، مثل تحليل المستندات القانونية والتقارير المالية والمواصفات الفنية. وقد أظهر النموذج انخفاضًا بنسبة 30% في الإجابات غير الصحيحة ومعدلًا أقل بكثير في سوء تفسير المستندات، مما يؤكد موثوقيته في التفكير النقدي والتحليل.
الوصول والتسعير
يمكن الآن الوصول إلى Claude 2.1 عبر واجهة برمجة تطبيقات الأنثروبي ويعمل على تشغيل واجهة الدردشة على claude.ai لكل من المستخدمين المجانيين والمحترفين. إن استخدام نافذة سياق الرمز المميز 200K، وهي ميزة مفيدة بشكل خاص للتعامل مع البيانات واسعة النطاق، محجوز لمستخدمي Pro. يضمن هذا الوصول المتدرج أن مجموعات المستخدمين المختلفة يمكنها الاستفادة من إمكانيات Claude 2.1 وفقًا لاحتياجاتهم الخاصة.
مع تقديم Claude 2.1 مؤخرًا، قامت Anthropic بتحديث نموذج التسعير الخاص بها لتعزيز كفاءة التكلفة عبر قطاعات المستخدمين المختلفة. تم تصميم هيكل التسعير الجديد لتلبية حالات الاستخدام المختلفة، بدءًا من زمن الوصول المنخفض وسيناريوهات الإنتاجية العالية إلى المهام التي تتطلب تفكيرًا معقدًا وتخفيضًا كبيرًا في معدلات الهلوسة النموذجية.
سلامة الذكاء الاصطناعي والاعتبارات الأخلاقية
يرتكز تطوير كلود على تركيز صارم على سلامة وأخلاقيات الذكاء الاصطناعي. تعتمد أنثروبيك نموذجًا "دستوريًا للذكاء الاصطناعي"، يجمع بين مبادئ إعلان الأمم المتحدة لحقوق الإنسان وشروط خدمة آبل، إلى جانب قواعد فريدة لردع الاستجابات المتحيزة أو غير الأخلاقية. ويتكامل هذا النهج المبتكر مع جهود مكثفة لـ"التنسيق الأمني" لتحديد مشاكل السلامة المحتملة والحد منها.
يُظهر دمج كلود في منصات مثل Notion AI، وPoe من Quora، وDuckAssist من DuckDuckGo تنوعه وجاذبيته السوقية. يتوفر كلود الآن في نسخة تجريبية مفتوحة في الولايات المتحدة والمملكة المتحدة، مع خطط للتوسع عالميًا، مما يجعله متاحًا بشكل متزايد لجمهور أوسع.
مزايا كلود على ChatGPT
بينما تم إطلاق ChatGPT أولاً واكتسب شعبية هائلة على الفور، يوضح كلود بعض المزايا الرئيسية:
- معلومات أكثر دقة
إحدى الشكاوى الشائعة حول ChatGPT هي أنه يُنشئ أحيانًا معلومات تبدو معقولة ولكنها غير صحيحة أو لا معنى لها. وذلك لأنه تم تدريبه في المقام الأول ليبدو مثل الإنسان، وليس ليكون صحيحًا في الواقع. في المقابل، يعطي كلود أولوية عالية للصدق. على الرغم من أنها ليست مثالية، إلا أنها تتجنب مناقضة نفسها منطقيًا أو إنشاء محتوى كاذب بشكل صارخ.
- وزيادة السلامة
في ظل غياب أي قيود، ستنتج نماذج اللغة الكبيرة، مثل ChatGPT، محتوى ضارًا أو متحيزًا أو غير أخلاقي في بعض الحالات. ومع ذلك، فإن بنية الذكاء الاصطناعي الدستورية لـ Claude تُلزمها بالامتناع عن الاستجابات الخطيرة. هذا يحمي المستخدمين ويحد من الضرر المجتمعي الناجم عن الاستخدام الواسع النطاق لـ Claude.
- يمكن أن نعترف بالجهل
في حين أن ChatGPT يهدف دائمًا إلى تقديم رد على مطالبات المستخدم، فإن Claude سيرفض بأدب الإجابة على الأسئلة عندما لا يكون لديه المعرفة الكافية. تساعد هذه الصدق في بناء ثقة المستخدم ومنع انتشار المعلومات الخاطئة.
- ردود الفعل والتصحيحات المستمرة
يأخذ فريق كلود ملاحظات المستخدمين على محمل الجد لتحسين أداء كلود باستمرار. عندما يرتكب كلود خطأً، يمكن للمستخدمين الإشارة إليه لإعادة معايرة استجاباته. تتيح هذه الدورة التدريبية من الملاحظات والتصحيحات تحسينًا سريعًا.
- التركيز على التماسك
يُظهر ChatGPT أحيانًا تناقضات أو تناقضات منطقية، خاصةً عندما يحاول المستخدمون خداعه. تُظهر ردود كلود تماسكًا أكبر، إذ إنها تتبّع السياق وتُحسّن الأجيال لتتوافق مع البيانات السابقة.
الاستثمار والنظرة المستقبلية
تؤكد الاستثمارات الأخيرة في أنثروبيك، بما في ذلك جولات تمويلية كبيرة بقيادة مينلو فينتشرز ومساهمات من جهات فاعلة رئيسية مثل جوجل وأمازون، ثقة القطاع بإمكانيات كلود. ومن المتوقع أن تدفع هذه الاستثمارات عجلة تطوير كلود قدمًا، مما يعزز مكانتها كمنافس رئيسي في سوق الذكاء الاصطناعي.
خاتمة
يُعدّ نموذج كلود من أنثروبيك أكثر من مجرد نموذج ذكاء اصطناعي آخر؛ فهو رمزٌ لاتجاه جديد في تطوير الذكاء الاصطناعي. بفضل تركيزه على السلامة والأخلاقيات وتجربة المستخدم، يُمثّل كلود منافسًا قويًا لـ ChatGPT من OpenAI، مُبشّرًا بعصر جديد في الذكاء الاصطناعي، حيث لا تُصبح السلامة والأخلاقيات مجرد أمور ثانوية، بل جزءًا لا يتجزأ من تصميم أنظمة الذكاء الاصطناعي ووظائفها.













