
阿里发布开源推理模型 QwQ-32B,支持消费级显卡本地部署,有哪些 …
32B的模型(DeepSeek R1的激活参数是37B,QwQ是dense模型,所以两者推理激活参数差不多)能达到这个效果,我称之为逆天了,而且32B模型经过量化后,可以直接跑在本地消费级显卡上,这意味 …
通义新模型QwQ-32B你用了吗,对比Deepseek怎么样? - 知乎
通义千问推出新思考模型QwQ-32B模型,对标Deepseek-R1,他的能力如何?在日常使用中是否要比Deepseek好用?
如何评价阿里 Qwen 新发布的推理模型 QwQ-Max-Preview,以及后续 …
Feb 25, 2025 · 只是QwQ Max预览版,目前没有太大的感觉。 不过,没想到他们把Qwen 2.5-Max直接开源了。 挺迷的,过几天,就要放正式版了,现在突然放个预览版。 这是属于Google Experimental行 …
为什么QwQ-32B比DeepSeek-R1-Distill-Qwen-32B效果好那么多? - 知乎
DeepSeek-R1-Distill-Qwen-32B只做了SFT,而QwQ-32B不但做了SFT,还做了强化学习。 我们可以问自己一个问题,强化学习到底对神经网络产生了什么影响。 一个神经网络靠SFT蒸馏和强化学习蒸 …
如何看阿里最新开源的推理大模型QwQ-32B效果接近DeepSeek R1满血 …
简单测试下来,QwQ-32B的强势性能表现,让我对他充满期待 后续我们也会在生产环境开启盲测,来对比QwQ和Deepseek-r1的实际能力。
Qwen 的 QvQ-72B-Preview 能媲美 GPT4o吗? - 知乎
Dec 24, 2024 · 昨晚,Qwen发布了多模态的推理模型QVQ-72B-Preview [1]。QVQ应该是Qwen之前推出的纯文本推理模型QwQ [2] 在多模态模型上的拓展,这次QVQ的底座模型换成了Qwen之前开源的最 …
如何评价阿里云刚刚发布的Qwen3系列大型语言模型? - 知乎
整体上看,与之前的QwQ相比,第一题性能下降,第二题性能上升。 其他几题未观察到明显的性能改善。 实际直观感觉也不太聪明,Qwen3大体上仍然是R1同代模型。 我这里的五道题谷歌的模型已经能 …
阿里云通义开源首个多模态推理模型 QVQ,QVQ 模型的主要功能和特 …
12月25日,阿里云通义千问发布业界首个开源多模态推理模型QVQ-72B-Preview。QVQ展现出超预期的视觉理解和…
请教大佬Deepseek和Qwq32B模型本地部署硬件配置问题。? - 知乎
对于QwQ-32B模型: 根据《2000元整机流畅运行QwQ和deepseek 32B大模型》这篇文章的内容来看,作者提到他使用的是一块AMD Radeon Instinct MI50显卡,并配备了16GB HBM2显存。
为什么QwQ-32B比DeepSeek-R1-Distill-Qwen-32B效果好那么多?
从参数规模看,Qwen3-32B对标 DeepSeek-R1-Distill-Qwen-32B (同为32B蒸馏版),但实际性能更接近 DeepSeek-R1-671B(满血版)。若需在参数相近的模型中选型,Qwen3-32B的综合性价比更 …