首个线性注意力架构的大模型来了,MiniMax 400 万超长上下文大模型重磅开源!

最近一个月,大模型领域热闹非凡,各大科技公司纷纷加码。阿里推出了 QwQ 模型,OpenAI 发布了 o1 Pro,Google 带来了 Gemini-2.0-Flash-Exp,而 DeepSeek 则凭借 V3 模型成功出圈。然而,也有

首个线性注意力架构的大模型来了,MiniMax 400 万超长上下文大模型重磅开源!

最近一个月,大模型领域热闹非凡,各大科技公司纷纷加码。阿里推出了 QwQ 模型,OpenAI 发布了 o1 Pro,Google 带来了 Gemini-2.0-Flash-Exp,而 DeepSeek 则凭借 V3 模型成功出圈。然而,也有零一万物卖身阿里,令人唏嘘。但令人欣喜的是,又一家国内大模型公司 MiniMax(也就是视频生成领域广为熟知的海螺)加入了战局。他们开源了两个重量级模型:

  • MiniMax-Text-01[1]:456B 参数的基础语言模型。
  • MiniMax-VL-01[2]:视觉多模态模型。

MiniMax 的优势何在?它凭借什么在竞争中脱颖而出?我们先来看看它的主要特点:

发布者:admin,转转请注明出处:http://www.yc00.com/web/1748221023a4749961.html

相关推荐

  • 首个线性注意力架构的大模型来了,MiniMax 400 万超长上下文大模型重磅开源!

    最近一个月,大模型领域热闹非凡,各大科技公司纷纷加码。阿里推出了 QwQ 模型,OpenAI 发布了 o1 Pro,Google 带来了 Gemini-2.0-Flash-Exp,而 DeepSeek 则凭借 V3 模型成功出圈。然而,也有

    1天前
    50

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信