اتصل بنا للحصول على مزيد من المعلومات

أفضل 5 برامج ماجستير في القانون مفتوحة المصدر (فبراير 2026)

أفضل من

أفضل 5 برامج ماجستير في القانون مفتوحة المصدر (فبراير 2026)

mm mm
LLM مفتوحة المصدر

لقد لحقت أنظمة الذكاء الاصطناعي مفتوحة المصدر بالأنظمة مغلقة المصدر. هذه الأنظمة الخمسة نماذج اللغات الكبيرة (LLMs) تقديم أداء مؤسسي متميز دون تكاليف متكررة لواجهات برمجة التطبيقات أو الالتزام بمورد واحد. كلٌّ منها يتعامل مع حالات استخدام مختلفة، بدءًا من التحليل على الجهاز ووصولًا إلى الدعم متعدد اللغات على نطاق واسع.

يقوم هذا الدليل بتحليل GPT-OSS-120B، وDeepSeek-R1، وQwen3-235B، وLLaMA 4، وMixtral-8x22B مع تفاصيل محددة حول القدرات والتكاليف ومتطلبات النشر.

مقارنة سريعة

أداة أفضل ل سعر البدء ميزة رئيسية
GPT-OSS-120B نشر وحدة معالجة رسومية واحدة مجاني (أباتشي 2.0) يعمل على وحدة معالجة رسومية بسعة 80 جيجابايت مع معلمات 120B
ديب سيك-R1 مهام التفكير المعقدة مجاني (معهد ماساتشوستس للتكنولوجيا) 671B معلمات مع التفكير الشفاف
Qwen3-235B تطبيقات متعددة اللغات مجاني (أباتشي 2.0) يدعم أكثر من 119 لغة مع التفكير الهجين
لاما 4 المعالجة متعددة الوسائط مجاني (ترخيص مخصص) نافذة سياق الرمز المميز 10 ملايين
ميكسترال-8x22B إنتاج فعال من حيث التكلفة مجاني (أباتشي 2.0) توفير 75% في الحوسبة مقارنة بالنماذج الكثيفة

1. GPT-OSS-120B

أصدرت OpenAI أول نماذجها ذات الوزن المفتوح منذ GPT-2 في أغسطس 2025. يستخدم GPT-OSS-120B مزيج من الخبراء بنيةٌ تحتوي على ١١٧ مليار مُعاملٍ إجمالي، ولكن ٥.١ مليار مُعاملٍ نشطٍ فقط لكل رمز. هذا التصميم المُقتصد يعني إمكانية تشغيله على وحدة معالجة رسوميات واحدة بسعة ٨٠ جيجابايت بدلاً من الحاجة إلى مجموعات وحدات معالجة رسوميات متعددة.

يُطابق النموذج أداء o4-mini في معايير الأداء الأساسية. تصل دقته إلى 90% في اختبارات MMLU وحوالي 80% في مهام الاستدلال GPQA. تبلغ نسبة نجاح توليد الشيفرة 62% عند نقطة واحدة، وهي نسبة تنافس البدائل مغلقة المصدر. تُجري نافذة السياق، التي تحتوي على 128,000 رمز، تحليلًا شاملًا للمستندات دون الحاجة إلى تقسيمها.

قامت OpenAI بتدريب هذه النماذج باستخدام تقنيات من o3 وأنظمة رائدة أخرى. ركزت على النشر العملي على نطاق واسع. وفرت OpenAI مُرمِّز o200k_harmony إلى جانب النماذج، مما وحد طريقة معالجة المدخلات عبر التطبيقات.

إيجابيات وسلبيات

  • يؤدي نشر وحدة معالجة رسومية واحدة بسعة 80 جيجابايت إلى التخلص من تكاليف البنية الأساسية لوحدات معالجة الرسوميات المتعددة
  • تعالج نافذة السياق الأصلية بحجم 128 كيلو بايت قواعد التعليمات البرمجية بالكامل أو المستندات الطويلة
  • يسمح ترخيص Apache 2.0 بالاستخدام التجاري والتعديل غير المقيد
  • تُبسط التنفيذات المرجعية في PyTorch وTriton وMetal التكامل
  • تطابق دقة MMLU بنسبة 90% النماذج الملكية في معايير الاستدلال
  • إن التدريب الذي يركز على اللغة الإنجليزية يحد من القدرات المتعددة اللغات مقارنة بالبدائل
  • 5.1 ب - قد تؤدي المعلمات النشطة إلى ضعف أداء النماذج الكثيفة في المهام المتخصصة
  • يتطلب الحد الأدنى من ذاكرة الوصول العشوائي للفيديو (VRAM) 80 جيجابايت باستثناء نشر وحدة معالجة الرسومات (GPU) المخصصة للمستهلك
  • لا توجد إصدارات مقطرة متاحة حتى الآن للبيئات ذات الموارد المحدودة
  • التخصص المحدود في المجال مقارنة بالبدائل الدقيقة

التسعير: يعمل GPT-OSS-120B بموجب ترخيص Apache 2.0 بدون أي تكاليف متكررة. ستحتاج إلى أجهزة قادرة على تشغيل طُرز بسعة 80 جيجابايت (وحدات معالجة الرسومات NVIDIA A100 أو H100). تبلغ تكلفة النشر السحابي على AWS أو Azure أو GCP حوالي 3-5 دولارات أمريكية للساعة لأنواع المثيلات المناسبة. يتطلب النشر المُستضاف ذاتيًا شراء وحدة معالجة رسومات لمرة واحدة (حوالي 10,000-15,000 دولار أمريكي لوحدات معالجة الرسومات A100 المُستعملة).

لا رسوم اشتراك. لا حدود لواجهة برمجة التطبيقات. لا قيود على البائعين.

قم بزيارة GPT-OSS-120B →

2. ديب سيك-R1

طوّر فريق DeepSeek-R1 نموذجه خصيصًا للاستدلال الشفاف. يستخدم هذا الهيكل 671 مليار معلمة إجمالية، مع تفعيل 37 مليار منها لكل تمريرة أمامية. ركّز التدريب على التعلم التعزيزي دون الضبط الدقيق التقليدي المُشرف عليه أولًا، مما يسمح بظهور أنماط الاستدلال بشكل طبيعي من عملية التعلم التعزيزي.

يحقق النموذج دقةً تصل إلى 97% في تقييمات MATH-500، ويطابق مستوى O1 الخاص بـ OpenAI في مهام التفكير المعقدة. ما يميز DeepSeek-R1 هو إمكانية ملاحظة عملية تفكيره. يعرض النموذج منطقًا خطوة بخطوة بدلًا من مجرد إجابات نهائية. هذه الشفافية مهمة للتطبيقات التي تتطلب التحقق من صحة المنطق، مثل التحليل المالي أو التحقق الهندسي.

أصدرت DeepSeek ستة إصدارات مُحسّنة إلى جانب النموذج الرئيسي. تتراوح هذه الإصدارات بين 1.5 مليار و70 مليار معلمة، وتعمل على أجهزة متنوعة، من وحدات معالجة الرسومات الاستهلاكية المتطورة إلى أجهزة الحافة. ​​يتفوق مُحسّن Qwen-32B على o1-mini في اختبارات الأداء، مع استهلاكه لجزء بسيط من طاقة الحوسبة.

إيجابيات وسلبيات

  • دقة 97% في MATH-500 تقود نماذج مفتوحة المصدر في التفكير الرياضي
  • تتيح عملية التفكير الشفافة التحقق والتصحيح
  • يوفر مقياس المعلمات 671B قدرات تحليلية عميقة
  • ستة إصدارات مُقطرة تُمكّن من النشر عبر تكوينات الأجهزة
  • يسمح ترخيص معهد ماساتشوستس للتكنولوجيا بالاستخدام التجاري غير المقيد
  • تتطلب معلمات 671B بنية تحتية كبيرة لنشر النموذج بالكامل
  • يؤدي وضع الاستدلال إلى زيادة زمن الوصول مقارنةً بإنشاء الإجابة المباشرة
  • التدريب المُحسَّن باللغة الإنجليزية يحد من الأداء في اللغات الأخرى
  • يمكن أن ينتج نهج التعلم التعزيزي تفسيرات مطولة
  • أدوات المجتمع لا تزال في مرحلة النضج مقارنة بالنماذج الأكثر رسوخًا

التسعير: إصدار DeepSeek-R1 مُرخص من معهد ماساتشوستس للتكنولوجيا (MIT) بدون رسوم استخدام. يتطلب طراز 671B الكامل ثماني وحدات معالجة رسومية A100 كحد أدنى (تكلفة السحابة: حوالي 25-30 دولارًا أمريكيًا/ساعة). أما الطُرز المُحسّنة، فتُباع بسعر أقل بكثير: يتطلب طراز 32B وحدة معالجة رسومية A100 واحدة (حوالي 3-5 دولارات أمريكية/ساعة، وشراء الأجهزة حوالي 10,000 دولار أمريكي). يعمل إصدار 7B على وحدات معالجة رسومية RTX 4090 للمستهلكين.

يوفر DeepSeek وصولاً مجانيًا إلى واجهة برمجة التطبيقات (API) مع قيود على معدلات الاختبار. يتطلب النشر الإنتاجي استضافة ذاتية أو بنية تحتية سحابية.

قم بزيارة DeepSeek R1 →

3. Qwen3-235B

يُدخل Qwen3-235B من علي بابا التفكير الهجين إلى نماذج مفتوحة المصدر. يتحكم المستخدمون بمستويات جهد التفكير (منخفض، متوسط، مرتفع) بناءً على تعقيد المهمة. هل تحتاج إلى استجابات سريعة لخدمة العملاء؟ يُقدم وضع التفكير المنخفض إجابات سريعة. هل تُجري تحليلات بيانات معقدة؟ يُطبق وضع التفكير العالي التفكير المنهجي.

تستخدم هذه البنية ٢٣٥ مليار معلمة إجمالية، منها ٢٢ مليار مُفعّلة عبر ٩٤ طبقة. تحتوي كل طبقة على ١٢٨ خبيرًا، ثمانية منهم مُفعّلون لكل رمز. يُمكّن هذا الاختيار من الخبراء من معالجة فعّالة مع الحفاظ على الكفاءة. تم تدريب النموذج على أكثر من مليار رمز عبر ١١٩ لغة، ما يُمثّل بيانات متعددة اللغات أكثر بعشر مرات من إصدارات Qwen السابقة.

يبلغ الأداء دقة MMLU بنسبة 87-88% مع معايير قوية متعددة اللغات. يتفوق النموذج في تقييمات C-Eval والتقييمات الخاصة بالمناطق في آسيا وأوروبا وأسواق أخرى. تصل نسبة توليد الشيفرة إلى 37% من الصفر، ولكنها تتحسن بشكل ملحوظ عند تفعيل وضع التفكير لمهام البرمجة المعقدة.

إيجابيات وسلبيات

  • يتيح دعم أكثر من 119 لغة النشر العالمي دون حواجز لغوية
  • يعمل التحكم في التفكير الهجين على تحسين التوازن بين التكلفة والأداء لكل طلب
  • يتعامل سياق الرمز المميز 128K مع تحليل المستندات المكثف
  • يسمح ترخيص Apache 2.0 بالتعديل التجاري
  • 87% من أداء MMLU يتنافس مع الأنظمة الملكية الرائدة
  • تتطلب معلمات 235B إعداد وحدات معالجة رسومية متعددة للنشر في الإنتاج
  • 37% من خط الأساس لتوليد الكود يتتبع نماذج الترميز المتخصصة
  • يؤدي اختيار نمط التفكير إلى إضافة تعقيد إلى منطق التطبيق
  • يُظهر تحيز اللغة الصينية أداءً أقوى في اللغة الصينية مقارنةً باللغات الأخرى
  • أدوات مجتمعية محدودة مقارنة بنظام LLaMA البيئي

التسعير: يستخدم Qwen3-235B ترخيص Apache 2.0 بدون رسوم. يتطلب النموذج الكامل من 4 إلى 8 وحدات معالجة رسومية A100 حسب التكميم (السحابة: حوالي 15-30 دولارًا أمريكيًا/ساعة). تقدم Alibaba Cloud نقاط نهاية مُدارة بأسعار تبدأ من 0.002 دولار أمريكي لكل ألف رمز مميز في وضع التفكير، و0.0003 دولار أمريكي لكل ألف رمز مميز في الوضع القياسي.

تعمل إصدارات Qwen3 الأصغر حجمًا (7B، 14B، 72B) على أجهزة استهلاكية. يعمل طراز 7B على وحدات معالجة رسومية استهلاكية بسعة 24 جيجابايت.

قم بزيارة Qwen3 →

4. لاما 4

يُقدّم LLaMA 4 من Meta إمكانياتٍ متعددة الوسائط أصليةً للنصوص والصور ومقاطع الفيديو القصيرة. يضمّ إصدار Scout 109 مليارات مُعامل إجمالي، منها 17 مليار مُعامل نشط، بينما يستخدم Maverick مجموعةً أكبر من الخبراء للمهام المُتخصصة. يُعالج كلا الإصدارين أنواعًا مُتعددة من المحتوى من خلال تقنيات دمج مُبكرة تُدمج الوسائط في تمثيلات مُوحّدة.

وصلت معالجة السياق إلى مستويات جديدة. يدعم LLaMA 4 Scout ما يصل إلى 10 ملايين رمز لتطبيقات تحليل المستندات الشاملة. يبلغ حجم السياق القياسي 128 ألف رمز، وهو عدد كبير بالفعل لمعظم حالات الاستخدام. تم تدريب النماذج مسبقًا على أكثر من 30 تريليون رمز، أي ضعف مزيج تدريب LLaMA 3.

تُظهر معايير الأداء تفوق LLaMA 4 على GPT-4o وGemini 2.0 Flash في اختبارات البرمجة والاستدلال واللغات المتعددة. طوّرت Meta تقنية MetaP لتعيين المعلمات الفائقة بشكل موثوق عبر مقاييس النماذج. يُتيح هذا أداءً ثابتًا عند نقل المعلمات المُكتسبة إلى تكوينات مختلفة.

إيجابيات وسلبيات

  • تتيح نافذة سياق الرمز المميز 10M معالجة قواعد البيانات أو مجموعات البيانات بالكامل
  • تتعامل المعالجة المتعددة الوسائط الأصلية مع مدخلات النصوص والصور والفيديو
  • يوفر تدريب رمز 30T تغطية معرفية شاملة
  • متغيرات متعددة الحجم من النشر على الحافة إلى نطاق مركز البيانات
  • يتفوق على GPT-4o في معايير الترميز والاستدلال
  • يتطلب الترخيص التجاري المخصص مراجعة للنشر على نطاق واسع
  • يضيف الاندماج المتعدد الوسائط تعقيدًا إلى خطوط أنابيب النشر
  • يتطلب سياق 10M ذاكرة كبيرة حتى مع التحسينات
  • تؤدي الاختلافات في حجم النموذج إلى حدوث ارتباك حول المتغير الذي يجب استخدامه
  • لا تزال الوثائق تظهر للميزات الأحدث

التسعير: يستخدم LLaMA 4 ترخيص Meta التجاري المُخصّص (مجاني لمعظم الاستخدامات، مع قيود على الخدمات التي تضم أكثر من 700 مليون مستخدم). يتطلب إصدار Scout من 2 إلى 4 وحدات معالجة رسومية H100 (التكلفة السحابية: حوالي 10-20 دولارًا أمريكيًا/الساعة). يحتاج Maverick من 4 إلى 8 وحدات معالجة رسومية H100 (حوالي 20-40 دولارًا أمريكيًا/الساعة). يوفر Meta وصولاً مجانيًا إلى واجهة برمجة التطبيقات (API) من خلال منصته مع قيود على الأسعار.

تعمل إصدارات LLaMA الأصغر على أجهزة المستهلك. يعمل طراز 8B على وحدات معالجة رسومية بسعة 16 جيجابايت. يمكن لشركات النشر المؤسسي التفاوض على الترخيص المباشر مع Meta.

قم بزيارة اللاما 4 →

5. ميكسترال-8x22B

 

يحقق نموذج Mixtral-8x22B من Mistral AI توفيرًا حسابيًا بنسبة 75% مقارنةً بالنماذج كثيفة الكثافة المكافئة. يحتوي تصميم مزيج الخبراء على ثمانية خبراء، كل خبير لديه 22 مليار معلمة، بإجمالي 141 مليار معلمة، ولكن 39 مليار معلمة فقط تُفعّل أثناء الاستدلال. يوفر هذا التنشيط المتناثر أداءً فائقًا مع تشغيل أسرع من نماذج 70B كثيفة الكثافة.

يدعم النموذج استدعاء الوظائف الأصلية لتطوير تطبيقات متطورة. يمكنك ربط واجهات اللغة الطبيعية مباشرةً بواجهات برمجة التطبيقات وأنظمة البرامج دون الحاجة إلى طبقات تكامل مخصصة. تتيح نافذة السياق، التي تحتوي على 64,000 رمز مميز، إجراء محادثات موسعة وتحليل شامل للمستندات.

يتميز أداء تعدد اللغات في اللغات الإنجليزية والفرنسية والإيطالية والألمانية والإسبانية. تدربت ميسترال خصيصًا على اللغات الأوروبية، مما أدى إلى أداء أقوى من النماذج ذات التغطية اللغوية الأوسع ولكن الأقل عمقًا. بلغ معدل التفكير الرياضي 90.8% على GSM8K، وحقق الترميز نتائج ممتازة في معايير HumanEval وMBPP.

إيجابيات وسلبيات

  • يؤدي تقليل الحوسبة بنسبة 75% مقارنة بالنماذج الكثيفة إلى خفض تكاليف البنية التحتية
  • يُبسط استدعاء الوظيفة الأصلية تكامل واجهة برمجة التطبيقات (API)
  • دعم قوي للغة الأوروبية للتطبيقات متعددة اللغات
  • دقة 90.8% GSM8K توفر منطقًا رياضيًا قويًا
  • يسمح ترخيص Apache 2.0 بالاستخدام التجاري غير المقيد
  • سياق أقصر بمقدار 64 كيلو بايت من المنافسين الذين يقدمون نوافذ تزيد عن 128 كيلو بايت
  • التركيز على اللغة الأوروبية يعني أداءً أضعف في اللغات الآسيوية
  • قد تحد المعلمات النشطة 39B من القدرة على أداء مهام التفكير المعقدة
  • يضيف منطق التوجيه الخبير تعقيدًا إلى عملية النشر
  • مجتمع أصغر مقارنة بنظام LLaMA البيئي

التسعير: يعمل Mixtral-8x22B بموجب ترخيص Apache 2.0 بدون رسوم. يتطلب من وحدتي معالجة رسوميات A100 إلى أربع وحدات معالجة رسومية (السحابة: حوالي 10-15 دولارًا أمريكيًا/ساعة). يوفر Mistral وصولاً مُدارًا إلى واجهة برمجة التطبيقات (API) بسعر دولارين أمريكيين لكل مليون رمز للمدخلات، و6 دولارات أمريكية لكل مليون رمز للمخرجات. تُلغي الاستضافة الذاتية تكاليف كل رمز بعد الاستثمار الأولي في الأجهزة.

تعمل الإصدارات المُكمّمة على وحدة A100 واحدة مع انخفاض مقبول في الأداء. كفاءة هذا النموذج تجعله فعالاً من حيث التكلفة لأحمال الإنتاج عالية الحجم.

زيارة Mixtral-8x22B →

أي نموذج يجب عليك اختياره؟

تُملي أجهزتك خيارات فورية. يتوافق GPT-OSS-120B مع وحدات معالجة رسومية واحدة بسعة 80 جيجابايت، مما يجعله متاحًا إذا كنت تستخدم بالفعل بنية A100. تُعالج إصدارات DeepSeek-R1 المُحسّنة قيود الموارد - يعمل طراز 7B على أجهزة المستهلك مع الحفاظ على أداء قوي.

تشير متطلبات تعدد اللغات إلى استخدام Qwen3-235B لتغطية لغات واسعة، أو Mixtral-8x22B للغات الأوروبية تحديدًا. يُعدّ LLaMA 4 خيارًا مثاليًا عند الحاجة إلى إمكانيات متعددة الوسائط أو نوافذ سياقية ممتدة تتجاوز 128 ألف رمز.

تُفضّل عمليات النشر المُراعية للتكلفة استخدام Mixtral-8x22B لأحمال العمل الإنتاجية. تتضاعف وفورات الحوسبة بنسبة 75% بسرعة مع التوسع. يستفيد البحث والتطوير من المنطق الشفاف لـ DeepSeek-R1، خاصةً عند الحاجة إلى التحقق من منطق القرار.

جميع النماذج الخمسة تعمل بموجب تراخيص متساهلة. لا تكاليف متكررة لواجهات برمجة التطبيقات (API). لا توجد تبعيات للموردين. أنت تتحكم في النشر وخصوصية البيانات وتعديلات النماذج. لقد حقق مجال الذكاء الاصطناعي مفتوح المصدر تكافؤًا مع الأنظمة المغلقة. توفر هذه الأدوات إمكانيات مؤسسية دون قيود مؤسسية.

الأسئلة الشائعة

ما هي الأجهزة التي أحتاجها لتشغيل برامج LLM مفتوحة المصدر هذه؟

تختلف المتطلبات الدنيا باختلاف الطراز. يتطلب GPT-OSS-120B وحدة معالجة رسومية واحدة (A100 أو H100) بسعة 80 جيجابايت. يتطلب الإصدار الكامل من DeepSeek-R1 ثماني وحدات معالجة رسومية من نوع A100، بينما تعمل الإصدارات المُحسّنة على بطاقات RTX 4090 للمستهلكين. يتطلب Qwen3-235B وLLaMA 4 من 2 إلى 8 وحدات معالجة رسومية حسب التكميم. يعمل Mixtral-8x22B بكفاءة على من 2 إلى 4 وحدات معالجة رسومية من نوع A100. تتكلف عملية النشر السحابي من 3 إلى 40 دولارًا أمريكيًا في الساعة حسب حجم الطراز.

هل يمكن لهذه النماذج أن تطابق أداء GPT-4 أو Claude؟

نعم، في معايير محددة. يُضاهي DeepSeek-R1 معيار OpenAI o1 في مهام الاستدلال بدقة 97% في MATH-500. يتفوق LLaMA 4 على GPT-4o في معايير الترميز. يحقق GPT-OSS-120B دقة 90% في MMLU، وهي دقة تُضاهي الأنظمة الاحتكارية. مع ذلك، قد تتفوق النماذج مغلقة المصدر في مجالات متخصصة مثل الكتابة الإبداعية أو المحادثات الدقيقة.

ما هو النموذج الذي يتعامل مع اللغات المتعددة بشكل أفضل؟

يدعم Qwen3-235B أكثر من 119 لغة، مع بيانات تدريب متعددة اللغات تفوق بعشرة أضعاف بيانات منافسيه. يتفوق في معايير اللغات الآسيوية واختبارات المعرفة الثقافية. يُعد Mixtral-8x22B رائدًا في اللغات الأوروبية (الفرنسية، الألمانية، الإسبانية، والإيطالية) مع تدريب متخصص. توفر الطُرز الأخرى دعمًا متعدد اللغات متنوعًا، ولكنها مُحسّنة بشكل أساسي للغة الإنجليزية.

هل هناك تكاليف استخدام تتجاوز تكلفة الأجهزة؟

لا توجد رسوم متكررة لعمليات النشر ذاتية الاستضافة بموجب تراخيص Apache 2.0 أو MIT. يستخدم LLaMA 4 ترخيصًا تجاريًا مخصصًا مجانيًا لمعظم الاستخدامات (تُطبق قيود على الخدمات التي تضم أكثر من 700 مليون مستخدم). تختلف تكاليف الاستضافة السحابية باختلاف المزود ونوع المثيل. يبدأ سعر الوصول المُدار إلى واجهة برمجة التطبيقات (API) من مزودين مثل Mistral من دولارين أمريكيين لكل مليون رمز إدخال.

ما هو الفرق بين مزيج الخبراء والنماذج الكثيفة؟

تُفعّل بنى مزيج الخبراء مجموعةً فرعيةً فقط من المعلمات لكل مُدخل، مما يُحقق الكفاءة دون المساس بالقدرة. يستخدم GPT-OSS-120B 5.1 مليار من أصل 117 مليار معلمة لكل رمز. تُفعّل النماذج الكثيفة جميع المعلمات لكل مُدخل. تُوفر نماذج MoE وفوراتٍ في الحوسبة تتراوح بين 70% و75%، مع مُطابقة أداء النماذج الكثيفة أو تجاوزها على مقاييس مُماثلة.

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.

أنطوان هو قائد صاحب رؤية وشريك مؤسس لشركة Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. وهو رجل أعمال متسلسل، ويعتقد أن الذكاء الاصطناعي سيكون له نفس التأثير على المجتمع مثل الكهرباء، وغالبًا ما يتم ضبطه وهو يهذي عن إمكانات التقنيات المبتكرة والذكاء الاصطناعي العام.

ك المستقبليوهو مكرس لاستكشاف كيف ستشكل هذه الابتكارات عالمنا. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التقنيات المتطورة التي تعمل على إعادة تعريف المستقبل وإعادة تشكيل قطاعات بأكملها.