昨天deepseek v4发布,我们自己的服务器在停机近一年后,也开机联网了。
ollama升级费了不少周折,但随后下载qwen3.6的35B以及gemma4的26B模型速度非常快。
运行模型后照例询问了一个京剧问答,让其对某剧目的人物进行评价。qwen依然拉胯,令人意外的是,随后老外gemma的回答,没有像qwen那样东扯西扯言多露怯,反而从“哲学”高度进行分析、评价,反而找不出大毛病。
然后登录deepseek的官网,询问同一个问题。在这么多国内外大模型中,deepseek v3是唯一一个回答完美的,这让我不得不怀疑其知识库的来源。
不过让人失望的是,v4版本的知识库虽然更新到25年下半年,但回答的问题内容单薄,且存在误差,可以说是不进反退,不知是否因为官网默认使用的是flash版本而非Pro。
此外,v4的回答同gemma4一样,回答中重侧逻辑而淡化知识,这估计也是开源大模型的趋势吧。