月之暗面公司正式发布了其最新力作——Kimi K2模型,并同步宣布开源。这款基于MoE架构的基础模型,凭借其强大的代码能力、卓越的通用Agent任务处理能力,一经发布便在AI领域引起了广泛关注。
Kimi K2模型总参数高达1T,激活参数为32B,在SWE Bench Verified、Tau2、AceBench等一系列基准性能测试中,均取得了开源模型中的顶尖成绩,充分展现了其在代码编写、Agent任务执行以及数学推理等方面的领先实力。
在预训练阶段,Kimi K2采用了创新的MuonClip优化器,这一优化器有效解决了大规模训练中的attention logits偏大问题,将训练稳定性与token使用效率提升至新高度。月之暗面团队成功完成了15.5T token的平稳训练,全程无loss spike,为万亿参数模型的稳定高效训练提供了新思路。
除了基准性能测试中的优异表现,Kimi K2在实际应用场景中也展现出了强大的能力泛化和实用性。在代码能力方面,Kimi K2不仅能够生成设计感与视觉表现力兼备的前端代码,支持粒子系统、可视化和3D场景等复杂表现形式,还能在无具体指令的情况下,自动搭建完整的期货交易界面,展现了其强大的自主编程能力。

在Agent工具调用方面,Kimi K2同样表现出色。它能够稳定解析复杂指令,将需求自动拆解为一系列格式规范、可直接执行的ToolCall结构,无缝接入各类Agent/Coding框架,完成复杂任务或自动化编码。无论是分析远程办公比例对薪资的影响,还是为Coldplay粉丝制定追星计划并完成相关规划,Kimi K2都能轻松应对,展现出强大的Agent能力。
此外,Kimi K2在风格化写作方面也取得了显著提升。无论是改写科研文本为初中生语气,还是模仿苹果广告文案,Kimi K2都能准确控制输出风格,同时保留原意与表达风格。在虚构写作任务中,Kimi K2生成的文字更加关注细节与情感,不再是抽象泛泛而谈,为用户提供了更加丰富的创作体验。
月之暗面公司此次不仅发布了Kimi K2模型,还同步开源了Kimi-K2-Base和Kimi-K2-Instruct两个模型版本。其中,Kimi-K2-Base为未经过指令微调的基础预训练模型,适合科研与自定义场景;而Kimi-K2-Instruct则为通用指令微调版本,在大多数问答与Agent任务中表现卓越。模型及fp8权重文件已开源至HuggingFace平台,供广大开发者自由使用。
为了方便开发者部署和使用,vLLM、SGLang、ktransformers等推理引擎也已经同步支持Kimi K2模型。开发者可以用自己的服务器部署,获得与Kimi开放平台API相同的体验。
在API服务方面,Kimi K2也提供了全面的支持。其API服务现已全面上线,支持最长128K上下文,具备更强的通用性与工具调用能力。计费方案灵活合理,每百万输入tokens仅需4元,每百万输出tokens为16元,同时兼容OpenAI和Anthropic两种API格式,方便开发者无缝切换。