深圳元象信息科技有限公司宣布成功推出中国最大的Mixture of Experts(MoE)开源大模型——XVERSE-MoE-A36B。该模型拥有255B总参数和36B激活参数,性能直逼超百亿参数大模型,实现性能跨级跃升。其训练时间缩短30%,推理性能翻倍,显著降低每token成本,助力AI应用低成本部署。
元象科技将XVERSE“高性能全家桶”系列模型全面开源,并免费提供给商业使用,惠及中小企业、研究者和开发者。MoE架构通过集成多领域专家模型,突破扩展定律限制,扩大规模同时保持高性能,并降低计算成本。
在评测中,XVERSE-MoE-A36B表现优异,超越Skywork-MoE、Mixtral-8x22B及Grok-1-A86B等国内外知名MoE模型,彰显中国AI技术的领先地位。
免费下载大模型
- Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B
- 魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
- Github:https://github.com/xverse-ai/XVERSE-MoE-A36B
- 问询:opensource@xverse.cn
- 官网:chat.xverse.cn