ืืืืขืืช
MiniMax ืืฉืืจืจืื M2.7, ืืืื ืกืืื ืืช ืขืฆืืืช ืืืชืคืชื

חברת ה- AI הסינית MiniMax הוציאה את המשקלות ל- MiniMax M2.7, מודל Mixture-of-Experts בן 229 מיליארד פרמטרים שהשתתף במחזור הפיתוח שלו – מה שמסמן את הצעד הראשון לעבר אוטונומיה של AI עצמית.
במקור הוכרז ב-18 במרץ, MiniMax M2.7 כעת זמין בחינם ב- Hugging Face עם תמיכה ב- SGLang, vLLM, Transformers ו- NVIDIA NIM. המודל מקבל ציון 56.22% ב- SWE-Pro ו- 57.0% ב- Terminal Bench 2, מה שממקם אותו בין ה- LLMs הפתוחים החזקים ביותר למשימות הנדסת תוכנה מעשיות.
כיצד המודל עזר לבנות את עצמו
הטענה הבולטת ביותר על M2.7 היא תפקידו באיטרציה שלו. MiniMax הטילה גרסה פנימית של המודל לאופטימיזציה של שידרית תכנות, ריצה אוטונומית במשך יותר מ-100 סיבובים. במהלך תהליך זה, M2.7 ניתח מסלולי כישלון, שינה קוד שידרית, רץ הערכות והחליט האם לשמור או לבטל כל שינוי.
המודל גילה אופטימיזציות בעצמו: חיפוש שיטתי אחר פרמטרים של דגימה אופטימליים כגון טמפרטורה ועונש תדירות, תכנון הנחיות זרימת עבודה כגון בדיקה אוטומטית לדפוסי באגים זהים בקבצים לאחר תיקון, והוספת גילוי לולאה ללולאת הסוכן של השידרית. MiniMax דיווחה על שיפור ביצועים של 30% בסטים הפנימיים של הערכות מתהליך אוטונומי זה.
בתוך צוות הלמידה החיזוקית של MiniMax, M2.7 כעת מנהל 30% עד 50% מזרימות העבודה היומיומיות מקצה לקצה. החוקרים מתערבים רק בהחלטות קריטיות, בעוד המודל מנהל סקירת ספרות, עקיבה אחר ניסויים, צינורות נתונים, ניפוי שגיאות ובקשות מיזוג.
MiniMax גם בדקה את M2.7 על MLE Bench Lite, סוויט של 22 תחרויות למידת מכונה שרצה על A30 GPU בודד. במשך שלושה ניסויים של 24 שעות, הריצה הטובה ביותר של המודל הפיקה 9 מדליות זהב, 5 מדליות כסף ו-1 מדליית ארד. שיעור המדליה הממוצע של 66.6% היה שווה ל- Gemini 3.1 ו- Opus 4.6 (75.7%) ו- GPT-5.4 (71.2%).
ביצועים בבנצ’מרקים להנדסה ועבודת משרד
על בנצ’מרקים של הנדסת תוכנה, M2.7 מתאים או מתקרב למודלים סגורים. הוא מקבל ציון 56.22% ב- SWE-Pro – בנצ’מרק המכסה ניתוח לוג, טרובלשוטינג באג, ביקורת אבטחת קוד ו- ML workflow debugging במספר שפות תכנות – מה שמתאים ל- GPT-5.3-Codex. ב- VIBE-Pro, בנצ’מרק יצירת קוד ברמת רפו, הוא קיבל 55.6%, ו- 76.5 ב- SWE Multilingual ו- 52.7 ב- Multi SWE Bench.
מעבר ל- מחוללי קוד AI, MiniMax הציב M2.7 למשימות משרד מקצועיות. ב- GDPval-AA, המעריך את המומחיות התחומית ב-45 מודלים, M2.7 השיג ציון ELO של 1495 – הגבוה ביותר בין המודלים הפתוחים, ו- Opus 4.6, Sonnet 4.6 ו- GPT-5.4. ב- Toolathon, הוא הגיע ל- 46.3% דיוק, ו- 97% שיעור ציות מיומנות ב-40 מיומנויות מורכבות (כל אחת עולה על 2,000 טוקנים) ב- MM Claw.
המודל תומך בשיתוף פעולה רב-סוכנים ילידי דרך מה ש- MiniMax קורא ל- Agent Teams, שבו מספר רב של מודלים מנהלים זהויות תפקיד נפרדות ועובדים יחד על משימות. יכולת זו מיועדת ל- סוכנויות AI לאוטומציה עסקית שבהן נדרשות גבולות תפקיד יציבים והיגיון אדוורסרי בין סוכנים.
MiniMax בנתה M2.7 על ארכיטקטורה של Mixture-of-Experts, מה שאומר שרק תת-קבוצה של 229 מיליארד הפרמטרים הכוללים מופעלת במהלך כל מעבר אינפרנסיה. זה הופך את המודל לזול ומהיר יותר לשרת מאשר מודל צפוף עם איכות פלט דומה – היבט חשוב למפתחים שרוצים לרוץ מודלים במקום או על תשתית מוגבלת.
MiniMax גם הוציאה OpenRoom, הדגמה אינטראקטיבית שנבנתה בעיקר על ידי AI, המציבה אינטראקציות סוכנות בתוך ממשק משתמש וеб עם משוב חזותי בזמן אמת, מסמנת את העניין שלה בהרחבת מודלי שפה גדולים מעבר לפרודוקטיביות לבידור אינטראקטיבי.
השחרור מוסיף עוד אפשרות תחרותית לנוף מיומנויות סוכנות פתוחות, שבהן מודלים מ- Meta, Alibaba ו- DeepSeek דוחפים את הגבולות של מה שזמין בחינם. הזווית של האבולוציה העצמית – שבה מודל תורם משמעותית לשיפור היורש שלו – עדיין בשלבים מוקדמים, אך M2.7 מציע את הנקודות המוחשיות הראשונות על מה זה נראה בפועל: גידול ביצועים פנימי של 30% מ-100+ סיבובי אופטימיזציה אוטונומיים, ללא התערבות אנושית בלולאה.












