皇上,还记得我吗?我就是1999年那个Linux伊甸园啊-----24小时滚动更新开源资讯,全年无休!

阿里推出全新推理模型:仅1/21参数媲美DeepSeek R1

快科技3月6日消息,阿里Qwen团队正式发布他们最新的研究成果——QwQ-32B大语言模型。

这是一款拥有320亿参数的模型,其性能可与具备6710亿参数(其中370亿被激活)的DeepSeek-R1媲美。

QwQ-32B在仅有DeepSeek-R1约1/21参数量的情况下,用强化学习实现了性能上的跨越。

此外,阿里还在推理模型中集成了与Agent相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。

阿里推出全新推理模型:仅1/21参数媲美DeepSeek R1

QwQ-32B 在一系列基准测试中进行了评估,测试了数学推理、编程能力和通用能力。

其中,在测试数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,千问QwQ-32B表现与DeepSeek-R1相当,远胜于o1-mini及相同尺寸的R1 蒸馏模型。

同时,在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜”LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问QwQ-32B的得分均超越了DeepSeek- R1。

目前,QwQ-32B已在Hugging FaceModelScope开源,大家也可通过Qwen Chat直接进行体验!

【本文结束】如需转载请务必注明出处:快科技

责任编辑:随心

转自 阿里推出全新推理模型:仅1/21参数媲美DeepSeek R1–快科技–科技改变未来

已有 0 条评论
  1. 这个方法根本没用。

    2013年12月9日 12:09 回复
  2. x

    最后一步,驱动不匹配,没有任何用处

    2013年12月5日 16:02 回复
已有 0 条评论
  1. 这个方法根本没用。

    2013年12月9日 12:09 回复
  2. x

    最后一步,驱动不匹配,没有任何用处

    2013年12月5日 16:02 回复
-->