从DeepSeek团队发表的论文看,最近一段时间它的研发似乎聚焦于两个方向:一个是编程,一个是多模态。前者非常自然,因为AI编程是发展最快、成熟度最高的大模型应用,今年以来发布的Claude Code with Opus 4.6以及ChatGPT-5.3-Codex再次刷新了AI编程的上限。这是一条已经被证实的坦途,DeepSeek的前几个小版本在这方面进步也很大,V4再次取得巨大进展是可以理解的。
后者则是在补齐软肋——DeepSeek迄今最大的弱点就是没有多模态功能,这一点不但限制了它的C端应用,而且限制了它的B端应用。因为B端收入的来源是客户对Token的消耗,多模态的Token消耗比传统的文本生成高了一个、甚至好几个数量级。不久前Seedance 2.0的发布,再次证明了优秀的多模态大模型具备多高的用户基础和商业潜力。从已发表的论文看,DeepSeek肯定不满足做一个“文生文”大模型,已经在多模态方面下了不少工夫。
现在全村人都在等着DeepSeek V4上桌吃饭了,究竟什么时候才能真正开饭呢?我认为,这里有一个非常重要的因素:V3/R1是当时全世界最出色的开源大模型,尤其在推理成本控制方面取得了巨大进展,所以震惊了世界;此时此刻,V4必须也成为全世界最出色的开源大模型(至少是之一),才能再次震惊世界。这是成功者必须面临的问题:成功的标杆越抬越高,每一次的挑战都更大。
还有一个重要因素:当初震惊世界的主要是R1,也就是深度推理大模型。如果没有深度推理功能,至少对于一般用户而言,DeepSeek不会显得那么特殊。假设DeepSeek先推出“普通版本”的V4,过一段时间再推出“深度推理”的R2,市场是否会觉得解渴?当然,有一种更稳妥的方式,就是同时推出V4和R2,不过这需要更多的资源,对于一家仍处于创业级别的公司而言,未必合适。我相信,在决定新版本大模型上线节奏的时候,DeepSeek团队肯定考虑到了上述全部因素。