通义千问开源320亿参数模型,已实现7款大语言模型全开源

Rita ora 2025-08-05 11:20:35

4月7日消息,通义阿里云通义千问开源320亿参数模型Qwen1.5-32B,千问全开可最大限度兼顾性能、开源款效率和内存占用的亿参语言源平衡,为企业和开发者提供更高性价比的数模实现模型选择。目前,型已通义千问共开源了7款大语言模型,模型在海内外开源社区累计下载量突破300万。通义

通义千问此前已开源5亿、千问全开18亿、开源款40亿、亿参语言源70亿、数模实现140亿和720亿参数的型已6款大语言模型并均已升级至1.5版本,其中,模型几款小尺寸模型可便捷地在端侧部署,通义720亿参数模型则拥有业界领先的性能,多次登上HuggingFace等模型榜单。此次开源的320亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡,例如,相比14B模型,32B在智能体场景下能力更强;相比72B,32B的推理成本更低。通义千问团队希望32B开源模型能为下游应用提供更好的解决方案。

通义千问开源320亿参数模型,已实现7款大语言模型全开源

基础能力方面,通义千问320亿参数模型在MMLU、GSM8K、HumanEval、BBH等多个测评中表现优异,性能接近通义千问720亿参数模型,远超其他300亿级参数模型。

通义千问开源320亿参数模型,已实现7款大语言模型全开源

Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench评测得分超过8分,与Qwen1.5-72B-Chat之间的差距相对较小。

通义千问开源320亿参数模型,已实现7款大语言模型全开源

多语言能力方面,通义千问团队选取了包括阿拉伯语、西班牙语、法语、日语、韩语等在内的12种语言,在考试、理解、数学及翻译等多个领域做了测评。Qwen1.5-32B的多语言能力只略逊于通义千问720亿参数模型。

通义千问开源320亿参数模型,已实现7款大语言模型全开源

 雷峰网(公众号:雷峰网)

本站声明:以上部分图文来自网络,如涉及侵权请联系平台删除

推荐阅读 更多
最新文章 更多
热门标签
“代”服务盛行 消协提醒要甄别异常“低价” 霍山县佛子岭镇中心学校:多措并举,扎实开展防溺水宣传教育活动 中国建筑材料流通协会会长秦占学:培育壮大具有国内、国际竞争力的现代化企业 加快构建“双循环”新发展格局 【万人共创文明城】温州召开全国文明城市建设督查第七次周研判会 优抚对象医疗补助“一站式”结算服务率先在汉阴县人民医院实施 “在鸿感知与控制系列”产品以鸿蒙+AIoT技术底座破解产业智能化难题 抢抢抢!爆爆爆!汤臣牧场椰子水全面爆量,打赢营销战! iPhone 17 Pro系列苹果相机升级 8倍光学变焦 【新时代 新气象 新作为】河南开封打通扶贫政策落地的最后“一米” 汪慧平督查暗访我区安全生产工作