网站推广三步走:十秒注册 -> 提交网站 -> 快速审核 -> 带来无限流量和外链 -> 点入及点出一次即可排名第一位

当前位置:66网站目录 » 站长资讯 » 科技资讯 » 文章详细

阿里通义千问开源Qwen1.5-MoE-A2.7B模型(阿里通义千问开启限量邀请体验)

来源:网络 浏览:29次 时间:2024-05-21

简介:通义千问团队推出了Qwen系列的首个MoE模型,命名为Qwen1.5-MoE-A2.7B。这个模型只有27亿个激活参数,但性能却与当前最先进的70亿参数模型相媲美。Qwen1.5-MoE模型在性能、效

3月29日 消息:通义千问团队推出了 Qwen 系列的首个 MoE 模型,命名为 Qwen1.5-MoE-A2.7B。这个模型只有27亿个激活参数,但性能却与当前最先进的70亿参数模型相媲美。与 Qwen1.5-7B 相比,Qwen1.5-MoE-A2.7B 只有20亿个非嵌入参数,大约是原模型大小的三分之一。此外,相较于 Qwen1.5-7B,Qwen1.5-MoE-A2.7B 的训练成本降低了75%,推理速度提升了1.74倍。

阿里云、通义千问

Qwen1.5-MoE 模型采用了特别设计的 MoE 架构。与传统 MoE 方法不同的是,Qwen1.5-MoE 使用了64个 finegrained experts,并引入了新的 routing 机制 DeepSeek-MoE 和 DBRX。这种 finegrained experts 设计的目的是在不增加参数数量的情况下生成更多 expert。Qwen1.5-MoE 模型在训练成本和推理效率方面表现出色,性能接近最先进的7B 模型。

Qwen1.5-MoE-A2.7B 模型拥有14.3亿激活参数和2亿非嵌入参数,训练成本降低了75%。在实验中,使用单个 NVIDIA A100-80G GPU 测试时,Qwen1.5-MoE-A2.7B 的推理速度提高了约1.74倍。Qwen1.5-MoE 模型已在 ModelScope 社区开源,可直接下载使用。

除了性能和效率,Qwen1.5-MoE 模型还将持续更新对第三方框架的支持,包括 llama.cpp、MLX 等。

总体来说,Qwen1.5-MoE 模型在性能、效率和推理速度方面取得了显著的优势,是推理训练的最佳实践之一。

Qwen1.5-MoE体验链接:

https://modelscope.cn/studios/qwen/qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4-demo

推荐站点

  • 聚站网聚站网

    聚站网,免费提供网站目录分类检索,收集正规的中文网站,用户自主的网站提交,为各行业分类目录收藏,聚站网努力打造优质丰富的网站收录平台。

    www.565865.com
  • YY分类目录YY分类目录

    YY分类目录全人工编辑的开放式网站分类目录,收录国内外、各行业优秀网站,旨在为用户提供网站分类目录检索、优秀网站参考、网站推广服务。

    www.yydir.com
  • 66网站目录66网站目录

    66网站目录是免费收录各行业优秀网站,提供网站分类目录检索,关键字搜索,提交网站即可免费推广,增加外链,提升网站流量。

    www.66dir.com
  • 25分类目录25分类目录

    25分类目录专业提供网站网址免费提交收录,25分类目录是采用开放导航式的网站大全,收录国内外各行业优秀的网站网址,让网站在各大搜索引擎收录快排名靠前。

    www.25dir.com
  • 和讯科技和讯科技

    和讯科技是和讯网核心资讯频道,以报道科技中国,分享全球智慧为目标,为高端财经网络用户提供有关TMT产业领域及时、快速、全面的资讯报道。

    tech.hexun.com
  • 百度搜索百度搜索

    百度,全球最大的中文搜索引擎、最大的中文网站。

    www.baidu.com