美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源


快科技1月22日消息,在AI竞赛上领先的主要是中美两国,其中美国AI有着得天独厚的优势,不缺钱不缺算力,但中国公司的AI往往面临算力限制,学不了美国AI的财大气粗玩法。

但这不代表国产AI做不出来成绩,研发出Kimi的月之暗面公司总裁张予彤日前在达沃斯论坛上也谈到了这个问题,表示从创业第一天起就意识到中国公司没有随意堆砌算力的条件,迫使他们通过大量基础研究的创新来换取极致的效率。

张予彤提到,Kimi仅使用美国顶尖AI实验室约1%的计算资源,便成功推出Kimi K2、Kimi K2 Thinking等全球领先的开源大模型,并在部分关键性能指标上超越美国主流闭源模型。

张予彤还提到Kimi最新一代大模型即将发布,此前我们也报道过此事,该公司已经开启招募人员内测,名字可能是K2.1,也有可能叫做K2.5。

尽管月之暗面没有透露这个新模型到底有多强,但多模态及智能体Agent预计成为重点,在商业化前景最为明确的AI编程领域很有可能带来惊喜,毕竟万亿参数的规模比智谱的GLM 4.7及Minimax的MiniMax 2.1模型规模就要大不少,能力应该会更强。

事实上,算力紧缺不只是Kimi大模型遇到的,此前DeepSeek也在论文中提到他们的大模型面临着算力及世界知识的限制,毕竟这方面国内公司天然地就面临着不利,顶级AI芯片既不能买也暂时没有台积电敢给代工。

好消息是国产AI芯片突破的也很快,新一代AI芯片也会全面支持FP8、FP4算子标准,性能也会跟上,尽管还不能超越NVIDIA芯片,但通过集群设计还是可以实现性能领先的,今年应该就能看到具体的突破。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:宪瑞

]article_adlist–>

            <!-- 非定向300*250按钮    17/09  wenjing  begin -->
            <!-- 非定向300*250按钮  end -->
        </div>



Source link

未经允许不得转载:紫竹林-程序员中文网 » 美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的