AI资讯

MiniMax M2.1震撼开源!100亿激活参数编码模型登顶SOTA,多语言编程全面超越Gemini3Pro与Claude 4.5

2025-12-24

国产大模型再攀高峰。MiniMax今日正式开源其最新编码与智能体专用大模型——M2.1,以100亿激活参数的稀疏架构,在多语言编程、真实代码生成与工具调用等核心场景实现全面突破。在权威基准SWE-Multilingual与VIBE-Bench上,M2.1不仅大幅领先同类开源模型,更超越谷歌Gemini3Pro、Anthropic Claude4.5Sonnet等闭源旗舰,标志着开源编码模型正式进入“性能碾压闭源”新阶段。

image.png

真实编程场景全面领先,多语言SOTA

M2.1专为开发者日常编码需求与原生AI智能体(Agent)打造,其核心优势体现在:

- 多语言编程SOTA:在Python、JavaScript、Java、Go、Rust、C++等主流语言中均达到当前开源模型最高水平,尤其在跨语言迁移能力与复杂项目上下文理解上表现突出;

- 真实工程任务更强:在SWE-Multilingual(软件工程多语言基准)中,M2.1的代码修复准确率与端到端任务完成率显著优于Gemini3Pro与Claude4.5Sonnet;

- 智能体协作优化:针对工具调用、API集成、错误诊断等Agent核心能力,在VIBE-Bench(Visual-Agent & Interactive Behavior Evaluation)中表现优异,为构建高可靠AI开发者代理提供强大基座。

稀疏激活架构,高性能低推理成本

M2.1采用混合专家(MoE)稀疏激活机制,在推理时仅激活约100亿参数(总参数量更大),在保证性能的同时显著降低算力消耗,使开发者能在消费级GPU或云实例上高效运行,推动高性能编码模型“平民化”。

开源生态加速爆发,国产模型迎头赶上

值得注意的是,就在M2.1发布前一日,智谱AI开源GLM系列新模型,在SWE-Bench单语言测试中与M2.1表现接近,共同彰显中国开源大模型在专业领域的爆发力。MiniMax团队在发布中特别感谢早期测试合作伙伴的反馈,强调M2.1是“为真实开发者而生”的工程化产物,而非单纯刷榜模型。

AIbase认为,M2.1的发布不仅是技术里程碑,更释放关键信号:在垂直专业领域,开源模型已具备全面挑战甚至超越闭源巨头的实力。当开发者无需依赖API、可自由部署、微调并审计代码模型,AI编程的真正民主化时代才真正开启——而这场由MiniMax引领的开源革命,正重塑全球开发者工具链的未来格局。

官方文档:https://www.minimax.io/news/minimax-m21

# 国产大模型 # M2.1 # 开源编码模型 # AI智能体