阿里Qwen发布320亿参数QwQ-32B大模型

无常 发表于 2025-3-20 22:06:37 | 显示全部楼层 [复制链接]
1 9852

ChMkK2fI_XuIV1m2AAGTG9pu8AsAAprSAJ8ckwAAZMz918.png

ChMkK2fI_XuIV1m2AAGTG9pu8AsAAprSAJ8ckwAAZMz918.png

3月6日,阿里Qwen团队正式对外发布了其最新的研究成果——QwQ-32B大语言模型。这款模型拥有320亿参数,在性能上能够与参数量高达6710亿的DeepSeek-R1(其中370亿参数被激活)相媲美。
尽管QwQ-32B的参数量仅为DeepSeek-R1的大约1/21,但通过强化学习技术,该模型成功实现了性能上的显著提升。此外,阿里在这款推理模型中还集成了与Agent相关的能力,使其不仅能够使用工具,还能进行批判性思考,并根据环境反馈动态调整推理过程。
QwQ-32B在多项基准测试中接受了全面评估,涉及数学推理、编程能力和通用能力等多个领域。在数学能力测试AIME24评测集中,以及用于评估代码能力的LiveCodeBench测试中,QwQ-32B的表现与DeepSeek-R1相当,并且大幅优于o1-mini和相同规模的R1蒸馏模型。
同时,在由多位知名研究者主导的多个权威评测榜单中,QwQ-32B也取得了优异成绩。例如,在被称为“最难LLMs评测榜”的LiveBench、用于评估指令遵循能力的IFEval评测集,以及针对函数或工具调用准确性测试的BFCL中,QwQ-32B的得分均超过了DeepSeek-R1。
目前,QwQ-32B已经在Hugging Face和ModelScope平台开源,用户还可以通过Qwen Chat直接体验这一先进模型。
回复

使用道具 举报

发表于 2025-3-20 22:06:37 | 显示全部楼层
楼主真是才华横溢,佩服佩服。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

加入我们,

发现科技可以让生活更美好...

立即注册

如果您已拥有本站账户,则可

推荐阅读

© 2001-2024 Comsenz Inc.

返回顶部 返回列表