在当今科技领域,那些饥渴的大厂们正面临着大模型带来的巨大挑战与机遇。它们如同饥饿的巨兽,渴望在这一领域占据一席之地。然而,面对大模型的迅速崛起,传统的策略已显不足。它们需要新的招数,比如更加精准的研发投入,以挖掘大模型的更深层次潜力;或是构建独特的生态系统,吸引更多开发者和用户加入;亦或是通过跨界合作,整合各方资源,形成强大的合力。只有不断创新和突破,这些大厂才能在大模型的浪潮中脱颖而出,实现可持续的发展。
昨天晚上,跟朋友聊起大模型。
他说现在各家都“卷”到一个新阶段,模型之间差距已经很小,只能用“遥遥领先”或者“吊打同行”这种词来形容。
从基准测试和数据来看,很多模型都远超 DeepSeek R1、GPT-4o,但继续往下比的空间已经不大了,真正的差异更多在使用方式上。
这让我开始思考:大模型竞争,是不是已经进入存量博弈阶段?
一
说到“存量”,就绕不开一个字:“卷”。不卷,哪来的存量?那问题来了:这个卷,到底在卷什么?
我觉得,表面看到的就三点:算力成本、数据质量和场景渗透。
以前大模型拼参数多,现在开始拼谁的成本低。
阿里家的 Qwen3,用“混合推理”的技术,简单问题用低算力能快速回答,复杂问题再慢慢思考,这样部署成本直接降到了 DeepSeek-R1 的 1/3 到 1/4。
腾讯混元 T1,3890 亿参数的模型,通过稀疏激活机制,算力利用率比传统模型提升了 30% 以上。
百度的文心大模型,虽然没公开具体成本,但它的推理速度在工业级场景里比竞品快 20%,也算是有自己的优势。
字节跳动没直接在公开场合提到过算力优化,但它通过抖音、今日头条的场景化落地,间接降低了通用大模型的部署压力。
所以,算力成本上,大家是看能不能在不牺牲性能的前提下,把成本降下来。
降下来之后呢?
关键还不能影响数据质量,卷谁的训练数据更硬核。
阿里家 Qwen3 训练数据量达到了 36 万亿 token,支持 119 种语言和方言,数据质量更有普适性。百度文心一言依托搜索、地图等产品,积累了海量的真实用户行为数据。
腾讯的混元则通过开源生态积累开发者数据,在游戏和内容生成领域有独特优势;字节跳动则利用抖音、今日头条的庞大流量池,捕捉用户偏好数据,让内容生成模型更接地气。
所以,数据质量的卷,是从“广度”到“深度”的升级,不仅要数据多,还要精准、垂直。
技术再强,不能解决实际问题,也只是“空中楼阁”,再看看场景渗透,谁更狠一些。
Qwen3 深耕电商、金融、医疗等垂直领域,通过定制化微调提供行业解决方案;百度文心一言是嵌入搜索、地图、智能音箱等产品,形成了“技术-场景-用户”的闭环。
腾讯的混元聚焦游戏和内容生产,通过混元3D等工具抢占多模态赛道;字节跳动是把大模型融入抖音和今日头条的内容生产流程,甚至用 AI 生成短视频脚本,直接打通了“技术-内容-流量”的链条。
看到了吗?场景渗透的卷,是从“技术堆叠”到“价值创造”的转型,谁能在细分场景里跑通商业模式,谁就能突围。
因此,我认为这个“卷”是:卷技术、成本、场景的三角博弈;算力成本决定了谁能撑到最后,数据质量决定了谁能跑得更稳,场景渗透决定了谁能活出差异化。
二
但这种“卷”,背后隐藏着一个更深层的矛盾:
当技术突破趋缓时,大家一个劲地开源、吊打同行,是不是意味着用这些手段,在掩盖真正的技术瓶颈?
我认为:是的。但不是完全没进步,而是技术方向有点小调整。
为什么这么说?
先说数据。阿里家的 Qwen3-235B-A22B,虽然总参数量有 2350 亿,但每次实际用到的参数只有 220 亿,激活效率才 9.4%。
什么概念,说白了,“轻量化”策略确实降低了成本,这是对原来那种“参数越多越好”模式的一种妥协。现在单纯堆参数已经没有太大的效果了。
再看看腾讯的混元 T1:
总参数量 3890 亿,激活参数量 520 亿,上下文长度也很长,但它的稀疏激活机制,本质上还是在想方设法在不牺牲性能的前提下,把参数规模压一压。
文心大模型就更不用说了。4.5 Turbo 总参数量 1970 亿,但每次推理最多用到 28 亿参数。这说明什么?
参数量已经不是唯一的衡量标准了,激活效率才是新的竞争点。这种调整不是在掩盖瓶颈,而是把技术突破的方向从“规模扩张”转向了“效率优化”。
然后,再看看技术优化路线,阿里直接赶在五一前,推出“快慢思考”混合推理。本质是什么?
想通过架构创新来缓解技术瓶颈。Qwen3 的“快思考”是用低算力处理简单任务,“慢思考”用高算力处理复杂任务,这是在对原来的 Transformer 架构进行适应和改造。
腾讯混元的 T1 也一样,官方说模型内存占用减少了 40%,性能提升了两倍;这种优化还是依赖 MoE 架构的稀疏激活机制,但也受限于硬件兼容性和算法复杂度。
所以,技术优化的核心目标是延长现有架构的生命周期;说白了,更像「技术瓶颈下的权宜之计」,而不是真正的突破。
结论很明显:
短期来看,参数激活效率、混合推理、MoE 架构这些优化确实缓解了算力成本压力,但改进只是对现有技术框架的修补。
长期来看,技术瓶颈没消失,变成了“效率瓶颈”、“场景适配瓶颈”。开源生态的普及为技术迭代提供了数据和场景基础,但真正的突破还得靠底层架构的创新。
所以,这波“卷”不是在掩盖技术瓶颈,而是在重新定义瓶颈的形态。技术进步的速度是慢了,但方向更明确了:聚焦在效率、成本和场景落地。
三
既然这样,问题就来了:
大厂在“模型卷”的浪潮里,到底该怎么找到“看家本事”?是继续在技术细节上抠来抠去,还是把精力放在怎么把技术用到实际场景里,或者去构建一个更大的生态呢?
我觉得,技术细节优化(比如调整激活参数、搞混合推理)确实能减轻算力的压力。
但说到底,优化的核心价值是让现有的架构能多撑一会儿。不过,这里面有个风险:技术带来的好处会比我们想象的更快地消失。
为什么这么说?举个简单的例子:
你买了一款新手机,一开始觉得电池续航特别厉害,比旧手机好很多,这就是技术红利。但用了一段时间后,你发现电池老化得很快,续航优势很快就没了,甚至比你预期的更早。这就是红利衰减速度超出预期。
换句话说,技术带来的优势不会一直持续下去,会逐渐减弱,减弱的速度比我们预想的更快。
有个研究,来自 DeepMind 的 Chinchilla 模型,提到通过参数补偿来降低剪枝带来的性能损失,可以在不依赖大规模后训练的情况下低成本压缩模型,提升推理速度,同时最大程度保留性能。
什么意思呢?
大模型的性能提升和算力投入之间的关系已经到了一个瓶颈阶段,有点像“帕累托最优”(Pareto Optimality)——再怎么努力,提升的空间也越来越小了。
说白了,现在大家都在过度依赖参数规模和稀疏激活机制,可能会陷入一种“技术幻觉”:以为解决了成本问题,其实并没有真正解决通用大模型的深层瓶颈。
换句话说,技术越来越同质化,竞争也越来越内耗。
文心一言的多模态能力虽在行业里领先,但核心还是依赖 Transformer 架构,没办法突破通用大模型的扩展性限制,这就是算法优化的天花板。
再比如,Qwen 系列虽然全球下载量突破 3 亿次,看起来很厉害,但实际上模型的功能差异很小。
那怎么办呢?各家短期直接把架构推倒,重新来过吗?肯定不可能。真正的路线是从“技术堆叠”到“价值创造”。
我觉得,对于大厂来说,价值锚点的核心在于能不能真正解决实际问题,而不是单纯追求技术指标的极致;很明显,技术细节优化只是手段,场景落地和生态协同才是根基。
就像艾媒咨询在 2024-2025 年中国 AI 大模型市场研究报告里提到的:谁能找到自己的“价值锚点”,谁就能在“下半场”突围。
四
所以,大家到底怎么才能突围呢?
现在看来,真正能落地到企业实际场景里的,是一个“三重共振”:云厂商 + 行业应用 + MCP 协议。
为什么说 MCP 是关键?因为它本质上是重新定义了企业与 AI 怎么合作的规则。
以前企业用大模型,就像给厨师一把刀,但没告诉他菜在哪、锅在哪、调料在哪——他只能靠猜。
现在有了 MCP,相当于给 AI 装了一个“导航系统”,它能自动找到企业的数据库、API、业务流程,甚至还能跨系统操作。
高德地图是阿里云的客户,如果接入 MCP,以后导航建议就不是简单的“绕开拥堵”,而是能结合用户的消费记录推荐周边餐厅,甚至直接跳转到外卖 App 下单。
这背后是 MCP 把高德的数据和阿里云的 AI 能力打通了。
那MCP到底怎么驱动ToB的范式变化?我认为,有两点:
1. 从“模型为中心”变成“数据为中心”;以前企业做 AI,总盯着模型参数、推理速度这些技术细节。但 MCP 让重点转向数据流通 。
2. 从“孤岛”变成“协同”;企业内部的系统通常互不联通,比如:财务系统、供应链系统、客户管理系统。一个公司用了谁家的云,云厂商就可以基于 MCP 把这些系统全打通。
打通之后,MCP 就从一个简单的工具变成了生产力基础设施。所以,这才是新范式。
它让AI不再局限于“参数规模”或“推理速度”,而是通过数据协同和场景嵌入,成为企业运营的“操作系统”。这才是企业的刚需。
这也是我为啥说,在大模型和 AI 的推动下,自下而上看,未来可能会出现新的飞书、钉钉这样的平台。它们不像飞书、钉钉那样有通讯、协同功能,但至少能把企业的各种业务流程整合起来。
叙事还在继续,到底会不会这样呢?deepseek R2出来后,就见分晓了。
本文来自微信公众号:王智远,作者:王智远