
小米今日正式发布了最新一代的MoE架构大模型——MiMo-V2-Flash。这款模型总参数规模达3090亿,激活参数150亿,展现出在推理、编码及智能体应用场景中的显著优势。作为小米在人工智能领域的重要布局,MiMo-V2-Flash的发布不仅是技术的突破,也是市场竞争的加剧。
MiMo-V2-Flash支持混合思维模式,用户可以根据需求自由切换深度思考与即时响应模式。这种灵活性使得模型在实际应用中能够更好地满足用户需求,提升工作效率。此外,该模型还具备一键生成完整HTML网页的能力,并能够与ClaudeCode、Cursor等主流编码框架无缝协作,进一步增强了其在软件开发领域的应用潜力。
在性能测试中,MiMo-V2-Flash与DeepSeek-V3.2形成直接竞争关系。根据基准数据显示,该模型在数学竞赛AIME2025和科学知识GPQA-Diamond测试中均位列开源模型前二。在软件工程能力SWE验证及多语言测试中,更是超越了所有开源竞品,性能表现与全球顶尖闭源模型相持平。这一系列数据无疑为小米在AI领域的实力提供了有力证明。
特别值得一提的是,MiMo-V2-Flash在长上下文处理方面的表现已超越K2Thinking模型。在SWE-BenchVerified测试中,其解决率达71.7%,而在BrowseComp搜索评估中得分45.4,经过上下文管理后提升至58.3。这些成绩显示出MiMo-V2-Flash在处理复杂信息时的强大能力,适合更多高需求场景的应用。
在技术架构上,MiMo-V2-Flash采用了全局注意力(GA)与滑动窗口注意力(SWA)的1:5混合结构,这一创新设计既保持了线性注意力的计算效率,又显著提升了长文本处理能力。此外,模型引入的多词元预测(MTP)训练技术,通过同步生成多个候选token并并行验证的方式,使解码吞吐量提升了2-2.6倍。这一技术的应用,无疑为模型的整体性能提供了支持。
在后训练阶段,MiMo-V2-Flash采用了多教师在线策略蒸馏(MOPD)方法,计算资源的需求仅为传统方法的1/50,却能达到同等的优化效果。这种高效的训练方式形成了“教学-学习”的闭环迭代机制,为模型的持续优化奠定了基础。
实际场景测试中,MiMo-V2-Flash展现了其多样化的能力。在网页开发任务中,它能够生成包含商品轮播、规格选择等功能的电商页面,同时也支持手势交互的3D应用;在创意生成方面,模型能够创作忧郁爱情故事和非虚构社会观察作品。此外,在智能体交互测试中,MiMo-V2-Flash不仅可以解答哲学问题,还能编写科幻悬疑剧本,显示出其在多领域应用的潜力。
然而,实测中也发现,部分复杂交互场景(如教育类太阳系探索器)存在稳定性问题,需要多次生成才能达到预期效果。尽管如此,MiMo-V2-Flash的全面开源及推理代码的贡献至开发者社区SGLang,标志着小米在AI领域的开放态度与技术共享精神。
在API服务方面,小米为用户开启了限时免费体验,吸引更多开发者参与到这一技术生态中。根据技术文档,在Prefill单机吞吐50000toks/s条件下,16K上下文长度的解码吞吐量可达5000-15000toks/s,单请求吞吐量达到151-115toks/s。
在价格策略方面,MiMo-V2-Flash的输入token单价为0.7元/百万,输出token单价为2.1元/百万,显著低于行业平均水平。这一价格策略不仅有助于提升用户的使用体验,也进一步推动了小米AI业务的市场竞争力。
小米在AI领域的持续投入和突破,标志着其研发进入快车道。近期,小米集团宣布将AI与现实世界深度结合列为未来十年核心战略,AI业务投入连续四个季度环比增长超50%。为加速技术突破,小米同步启动了全球人才招募计划,设立千万元级岗位薪酬,力求引进大模型领域的顶尖人才。
在过去的三个月内,小米技术团队已密集发布多篇学术论文,并陆续开源多个预训练模型,构建起完整的技术生态体系。随着小米在AI领域的不断发力,未来的科技趋势无疑值得我们期待。
(本网转发此文章,旨在为读者提供更多的信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。)