您的位置:首页 > 科技

MiniMax开源新模型M1:价格与豆包1.6持平,低于R1

2025年06月18日 23:06:09 来源:新京报 作者:罗亦丹

北京时间6月17日,“AI六小龙”之一的上海AI独角兽企业MiniMax发布了其自主研发的MiniMax-M1系列模型,除去性能上的升级,贝壳财经记者注意到,其同类模型的价格低于DeepSeek-R1,和5天前首先降价的豆包1.6持平。

M1被定义为“全球首个开源的大规模混合架构推理模型”。技术报告显示,M1模型在处理百万级Token的长文本上实现了重大突破,成为上下文最长的推理模型;其RL(强化训练)成本下降一个量级,成本53万美金,推理效率则数倍于同类模型;在工具使用场景(TAU-bench)中MiniMax-M1-40k领跑所有开源权重模型,超过Gemini-2.5 Pro。

MiniMax-M1开源技术报告截图

定价方面,在输入区间0-32K范围内,M1模型的价格为输入0.8元/百万Tokens,输出8元/百万Tokens;32k-128k范围内,M1模型的价格为输入1.2元/百万Tokens,输出16元/百万Tokens。低于DeepSeek-R1模型,与6月12日火山引擎推出的豆包1.6价格持平。

值得注意的是,M1模型还推出了输入区间为128k-1M范围的模型价格,这一超长文本档位是DeepSeek-R1目前尚未覆盖的领域,豆包1.6上周公布价格的区间也截止到128K-256K范围。

根据MiniMaxg公布的技术报告,实现100万上下文输入这一突破的关键,在于其独创的Lightning Attention混合构架。传统Transformer模型在处理长序列时,注意力机制的计算量会随序列长度呈平方级增长,成为制约性能和成本的主要瓶颈。M1的混合架构,特别是注意力机制,能够显著优化上下文输入的计算效率。

报告提到,在进行8万Token的深度推理时,M1所需的算力仅为DeepSeek-R1的约30%;生成10万tokens时,推理算力只需要DeepSeek-R1的25%。这种极致的效率提升,直接转化为训练和推理阶段巨大的成本优势。

此外,在降本方面,MiniMax此次提出CISPO算法,另辟蹊径,通过裁剪重要性采样权重,而非传统算法中调整Token的更新方式,来提升强化学习的效率和稳定性。MiniMaxc称,实验数据显示,在AIME(AI-powered Moral Evaluator)等测试中,CISPO的收敛性能比字节跳动近期提出的DAPO算法快一倍,也显著优于DeepSeek早期使用的GRPO算法。

更快的收敛意味着更少的训练时间和资源消耗。得益于CISPO的高效,M1模型的整个强化学习阶段仅使用了512块英伟达H800 GPU,耗时三周,成本仅为53.5万美元。MiniMax官方表示,这一成本“比最初的预期少了一个数量级”。

MiniMax宣布,在其自有的App和Web端,M1模型将保持不限量免费使用,且M1的发布仅仅是MiniMax“开源周”的序幕,在接下来的四个工作日里,MiniMax计划每天发布一项新的技术或产品更新。

责任编辑:张阿嫱
  • 大模型
欢迎关注中国城市报微信号
分享到: 

关于我们

城市服务

报社业务


网站备案号:京ICP备15005404号-4 京公网安备 11010502043907号
互联网新闻信息服务许可证10120190005 举报邮箱: jubao@people.cn  违法和不良信息举报电话: 010-65367114  010-65363263 地址:北京市金台西路2号人民日报社 邮编 100733

《中国城市报》社有限公司版权所有,未经书面授权禁止使用

Copyright © 2015-2025 by www.zgcsb.com. all rights reserved