Ανακοινώσεις
MiniMax Δημοσιοποιεί το M2.7, Ένα Αυτο-Εξελισσόμενο Μοντέλο Πρακτόρων

Η κινεζική εταιρεία AI MiniMax έχει δημοσιοποιήσει τα βάρη για το MiniMax M2.7, ένα μοντέλο Mixture-of-Experts με 229 δισεκατομμύρια παραμέτρους που συμμετείχε στον δικό του κύκλο ανάπτυξης – σηματοδοτώντας το πρώτο βήμα προς την αυτο-εξέλιξη του AI.
Αρχικά ανακοινωμένο στις 18 Μαρτίου, το MiniMax M2.7 είναι τώρα διαθέσιμο δωρεάν στο Hugging Face με υποστήριξη για SGLang, vLLM, Transformers και NVIDIA NIM. Το μοντέλο σημειώνει 56,22% στο SWE-Pro και 57,0% στο Terminal Bench 2, τοποθετώντας το μεταξύ των ισχυρότερων ανοιχτών πηγών LLMs για πραγματικές εργασίες λογισμικού.
Πώς το Μοντέλο Βοήθησε να Χτιστεί ο Ίδιος
Η πιο αξιοσημείωτη αξίωση για το M2.7 είναι ο ρόλος του στη δική του επανάληψη. Η MiniMax ανάθεσε σε μια εσωτερική έκδοση του μοντέλου να βελτιστοποιήσει ένα σκελετό προγραμματισμού, εκτελώντας το αυτόνομα για πάνω από 100 γύρους. Κατά τη διάρκεια αυτής της διαδικασίας, το M2.7 ανέλυσε τις τροχιές αποτυχίας, τροποποίησε τον κώδικα του σκελετού, εκτέλεσε αξιολογήσεις και αποφάσισε αν θα διατηρήσει ή θα αναστρέψει κάθε αλλαγή.
Το μοντέλο ανακάλυψε βελτιστοποιήσεις από μόνο του: συστηματικά αναζητώντας βελτιστοποιημένα παραμέτρους δειγματοληψίας όπως η θερμοκρασία και η ποινή συχνότητας, σχεδιάζοντας οδηγίες εργασίας όπως η αυτόματη ελέγχου για πανομοιότυπους musteracross αρχεία μετά από μια επιδιόρθωση, και προσθέτοντας ανίχνευση βρόχου στο σκελετό του πράκτορα. Η MiniMax αναφέρει μια βελτίωση από 30% στις εσωτερικές συνόλους αξιολόγησης από αυτή τη διαδικασία αυτονομίας.
Εντός της ομάδας ενίσχυσης μάθησης της MiniMax, το M2.7 χειρίζεται τώρα το 30% έως 50% των ημερήσιων ροών εργασίας από άκρο σε άκρο. Οι ερευνητές αλληλεπιδρούν μόνο για κρίσιες αποφάσεις, ενώ το μοντέλο διαχειρίζεται την ανασκόπηση βιβλιογραφίας, την παρακολούθηση πειραμάτων, τις πipelines δεδομένων, την αντιμετώπιση σφαλμάτων και τις αιτήσεις συγχώνευσης.
Η MiniMax επίσης ελέγξαν το M2.7 στο MLE Bench Lite, ένα σύνολο 22 ανταγωνισμών μηχανικής μάθησης που τρέχουν σε ένα μόνο A30 GPU. Σε τρεις δοκιμές 24 ωρών, η καλύτερη εκτέλεση του μοντέλου παρήγαγε 9 χρυσά μετάλλια, 5 αργυρά μετάλλια και 1 χάλκινο μετάλλιο. Ο μέσος όρος ποσοστού μεταλλίων 66,6% ισοδυναμούσε με το Gemini 3.1 και ακολουθούσε μόνο το Opus 4.6 (75,7%) και το GPT-5.4 (71,2%).
Παραμετρική Απόδοση σε Μηχανική και Γραφειακή Εργασία
Στις παραμετρικές δοκιμές λογισμικού, το M2.7 αντιστοιχεί ή προσεγγίζει τα μοντέλα κλειστού κώδικα. Το 56,22% στο SWE-Pro – μια δοκιμή που καλύπτει την ανάλυση καταγραφής, την αντιμετώπιση σφαλμάτων, την ανασκόπηση ασφάλειας κώδικα και την αντιμετώπιση ροών ML σε πολλαπλά προγραμματιστικά γλωσσικά – αντιστοιχεί στο GPT-5.3-Codex. Στο VIBE-Pro, μια δοκιμή γεννήτριας κώδικα σε επίπεδο αποθετηρίου, σημείωσε 55,6%, και κατέγραψε 76,5 στο SWE Multilingual και 52,7 στο Multi SWE Bench.
Πέρα από γεννήτορες κώδικα AI, η MiniMax τοποθέτησε το M2.7 για επαγγελματικές γραφειακές εργασίες. Στο GDPval-AA, που αξιολογεί την εξειδίκευση τομέα σε 45 μοντέλα, το M2.7 πέτυχε ένα σκορ ELO 1495 – το υψηλότερο μεταξύ των ανοιχτών πηγών μοντέλων, ακολουθώντας μόνο το Opus 4.6, το Sonnet 4.6 και το GPT-5.4. Στο Toolathon, έφτασε στο 46,3% ακρίβεια, και διατήρησε ποσοστό συμμόρφωσης δεξιοτήτων 97% σε 40 σύνθετες δεξιότητες (καθεμία υπερβαίνοντας τα 2.000 token) στην αξιολόγηση MM Claw της MiniMax.
Το μοντέλο υποστηρίζει εγγενή συνεργασία πολλαπλών πρακτόρων μέσω της Agent Teams, όπου πολλαπλά μοντέλα διατηρούν διακριτές ταυτότητες ρόλων και εργάζονται μαζί σε εργασίες. Αυτή η ικανότητα στοχεύει σε πράκτορες AI για αυτοματοποίηση επιχειρήσεων σε σενάρια όπου απαιτούνται σταθερά όρια ρόλων και αντιπαλική σκέψη μεταξύ των πρακτόρων.
Η MiniMax κατασκεύασε το M2.7 με αρχιτεκτονική Mixture-of-Experts, που σημαίνει ότι μόνο ένα υποσύνολο των 229 δισεκατομμυρίων συνολικών παραμέτρων ενεργοποιείται κατά τη διάρκεια κάθε μεμονωμένης διαδικασίας συλλογής. Αυτό καθιστά το μοντέλο φθηνότερο και ταχύτερο να εξυπηρετεί παρά ένα πυκνό μοντέλο συγκρίσιμης ποιότητας εξόδου – μια σημαντική σκέψη για τους développers που θέλουν να τρέξουν μοντέλα τοπικά ή σε περιορισμένη υποδομή.
Η MiniMax επίσης δημοσιοποίησε το OpenRoom, μια διαδραστική επίδειξη που χτίστηκε κυρίως από το AI, το οποίο τοποθετεί τις αλληλεπιδράσεις των πρακτόρων σε ένα web GUI με πραγματική αντίστροφη σύνδεση, σηματοδοτώντας το ενδιαφέρον της για την επέκταση των μεγάλων γλωσσικών μοντέλων πέρα από την παραγωγικότητα σε διαδραστική ψυχαγωγία.
Η κυκλοφορία προσθέτει μια άλλη ανταγωνιστική επιλογή στο τοπίο των ανοιχτών βαρών δεξιοτήτων πρακτόρων, όπου μοντέλα από Meta, Alibaba και DeepSeek έχουν ωθήσει τα όρια του τι είναι διαθέσιμο δωρεάν. Η γωνία της αυτο-εξέλιξης – όπου ένα μοντέλο συμβάλλει σημαντικά στην βελτίωση του δικού του διαδόχου – παραμένει σε πρώιμο στάδιο, αλλά το M2.7 προσφέρει τα πρώτα συγκεκριμένα δεδομένα για το τι αυτό μοιάζει στην πράξη: μια εσωτερική βελτίωση 30% από 100+ αυτονομίες βελτιστοποίησης, χωρίς ανθρώπινη παρέμβαση στη διαδικασία.












