深圳元象信息科技有限公司宣布成功推出中国最大的Mixture of Experts(MoE)开源大模型——XVERSE-MoE-A36B。该模型拥有255B总参数和36B激活参数,性能直逼超百亿参数大模型,实现性能跨级跃升。其训练时间缩短30%,推理性能翻倍,显著降低每token成本,助力AI应用低成本部署。

元象科技发布中国最大MoE开源大模型XVERSE-MoE-A36B

元象科技将XVERSE“高性能全家桶”系列模型全面开源,并免费提供给商业使用,惠及中小企业、研究者和开发者。MoE架构通过集成多领域专家模型,突破扩展定律限制,扩大规模同时保持高性能,并降低计算成本。

元象科技发布中国最大MoE开源大模型XVERSE-MoE-A36B

在评测中,XVERSE-MoE-A36B表现优异,超越Skywork-MoE、Mixtral-8x22B及Grok-1-A86B等国内外知名MoE模型,彰显中国AI技术的领先地位。

免费下载大模型

  • Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B
  • 魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
  • Github:https://github.com/xverse-ai/XVERSE-MoE-A36B
  • 问询:opensource@xverse.cn
  • 官网:chat.xverse.cn