找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 56|回复: 1

[科技新闻] 杀死“无效”龙虾

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-4-5 14:45 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
 该图片可能由AI生成
1.webp


作者 | 张弛
编辑 | 方堃
   
2026,全球AI行业正式进入Token工业时代。
4月2日,火山引擎在武汉AI创新巡展上披露:豆包大模型日均调用量突破120万亿Tokens,3个月内翻了一倍。
120万亿的规模让豆包冲上世界前三,但火山引擎总裁谭待却很清醒。他给媒体算了另一笔账:行业里大多数龙虾智能体,有超过一半的Token消耗在了"无谓的探索"上。
这并非夸张。自OpenClaw爆火,很多养过龙虾的用户收获的却是糟糕回忆:漫长的配置、随时崩溃的BUG、 无效的产出、还有烧钱如流水的Token账户。
低效龙虾的泛滥不是技术进步,而是对社会资源的巨大浪费。


01
 一只“无效龙虾”的诞生
2.png




一位直播电商创业者向《创智记》分享了公司的最新养虾案例:
该公司业务部门部署了一套智能体系统来处理月度的经营业绩分析:智能体A负责抓取数据,智能体B负责指标分析,智能体C负责撰写报告。
听起来各司其职、分工明确,但结果呢?A误读了表格里的单位(把"万元"当成"元"),B遗漏了关键的现金流指标,C在整合时发现数据"不对劲",就"善意"地修正了错误——最终生成了一份看起来专业、实则完全失真的报告。
这是当下智能体应用的常态,而并非个案。
子智能体在隔离环境中运行,一个出错不会污染整个系统——OpenClaw的子会话就是这样设计的,即使子智能体搞砸了,父会话可以丢弃那个上下文,重新派一个。
但实际风险在哪?A智能体的输出被B当作前提,但A的错误B检测不出来,每一步的小偏差在多轮传递后放大。
火山引擎总裁谭待告诉《创智记》:“OpenClaw的实现,大部分还没有用到多智能体协同,它本身是一个智能体,只是搭配了Skill,底层可能会划分几个sub agent,但都在一套agent loop的环境中运行,所以准确率衰减的问题并不突出。智能体协作目前还处于早期阶段,真正落地的案例并不多。”
3.webp


火山引擎总裁谭待

即便是OpenClaw,也尚在技术发展早期,一旦智能体真正实现协同串联后准确率还会大幅衰减。
而龙虾最大的风险,其实是基座大模型的认知盲区,作为协调者,父智能体可能意识不到子智能体在胡说八道。
当父智能体对复杂问题的理解出现偏差,所有子任务从根上就错了方向。一旦出错,你甚至难以定位责任:是规划者的锅?执行者的?还是整合环节出了问题?多智能体系统在错误传导后,往往彻底失去了回溯和纠错的能力。
这就凸显了底座模型能力在多智能体应用落地中的重要性。
智谱CEO张鹏认为,智能上界的提升,是大模型AGI时代唯一的"第一性"。
大模型的智能水平决定了智能体的准确率,还有更隐性的一种情况是,如果底层模型的能力不够,就会消耗大量不必要的Token来处理任务。
除了大模型能力,稳定性和安全也是导致“一只无效龙虾诞生”的重要原因。
行业普遍采取本地部署,最大痛点在于"断网即中断"。无论是电脑设备问题还是系统问题,一个节点掉线就可能导致全链条崩溃;而龙虾对本地系统文件数据的强制删除等误操作,也是用户对OpenClaw常见的一个诟病。
以上种种弊端,火山引擎云基础产品负责人田涛涛总结为:不敢用、用不起、不好用、修不好。
正因有如此多的不确定性,很多龙虾用户不再活跃也就不足为怪了。


02
 市场选择了MaaS
4.png




与本地部署的OpenClaw等龙虾产品不同,火山引擎推出的ArkClaw选择了一条"云端托管"的路径。
ArkClaw的方案是:依托火山引擎的基础设施,将子智能体运行在隔离的云端环境中,单点故障可随时重启替换;父会话作为"协调中枢"持续监控,任务状态实时同步,实现7×24小时不间断托管。
"企业用好Agent,有三个关键词——模型、安全与Skills",火山引擎总裁谭待向《创智记》等媒体总结了龙虾的三个关键要点:“第一,模型是核心,决定了智能体能力的上限和下限;第二,安全是重点,也是用户关注的核心;第三,技能的开放很重要,很多中国开发者访问ClowHub延迟很高,开发很困难,企业客户则困惑龙虾推出后原有工作该如何开展。”
5.webp


谭待表示,龙虾对Token的无谓消耗,是因为完成任务时有很多无效尝试;豆包坚持回归第一性原理,看产品本身创造的价值,同时在同等级模型中,通过工程和调度优化,做到成本最低。
从底层模型本身来看,豆包大模型持续迭代。春节前发布的豆包2.0,在LMArena榜单上已经超越了很多主流模型,跻身全球第一梯队,国内第一。好的模型是Agent能力的基础。数据显示,其在复杂逻辑推理场景的准确率已突破95%,在Agent与工具调用维度评测中处于领先地位。
市场的反应验证了火山引擎MaaS(模型即服务)模式的战略判断。过去两年,火山引擎MaaS业务增长1000倍,已有140家万亿级Token消费企业客户。自推出MaaS以来,火山引擎是全球唯一一家持续公布Token公有云调用量的云厂商。
MaaS模式的另一个优势是订阅制。多智能体的高频调用,让用户在使用本地方案时"每发一条指令都在心里默算成本"。ArkClaw的固定月费模式,消除"计费焦虑",鼓励用户大胆拆解复杂任务。ArkClaw还实现了模型的智能调度:简单指令用轻量模型快速响应,复杂分析调用Pro模型深度推理,避免"杀鸡用牛刀"或"小马拉大车"。
据《创智记》了解,MaaS已经成为火山引擎销售最重要的KPI,2026 年MaaS营收目标至少翻 5 倍以上。
据谭待最新透露,按照现在的发展速度,火山引擎1000亿商业化收入目标大概率会提前实现。


03
 “养活龙虾,筛选龙虾”
6.png


《创智记》此前在与很多传统企业交流后发现,AI智能体的应用难,难就难在一上来就要搞大工程,投入大、见效慢,需要一把手做决策,但一把手很难被说服,没耐心也很难下决心。
火山引擎MaaS模式给企业提供了两条路走的均衡方案:
ArkClaw是敏态,鼓励一线员工自下而上地探索,用Agent 解决今天的一篇报告、明天的一张海报。这是“养活龙虾”的过程;
HiAgent是稳态,将那些经过敏态验证的、高效的路径,固化为企业资产,形成标准化的流转。这是“筛选龙虾”的过程。
这种逻辑否定了过去那种“先做一个大而全的智能体系统”的旧思路——先别着急改变企业架构这种宏大叙事,而是创建一个真能帮人干活、能解决实际问题的助手。
让听得见炮声的人先试用,让一线员工自己去探索AI能做什么,然后把验证成功的最佳实践沉淀下来,再规模化推广。
谭待的判断是:“AI的发展既要自上而下,也要自下而上,自下而上就是让员工都能使用AI,ArkClaw这类产品就非常适合;自上而下则是像HiAgent这类产品。敏态和稳态不一定需要强行对接,二者是两个并行发展的体系。”
ArkClaw的开箱即用、一键修复这些设计,都是站在用户角度思考的结果。这个思路和字节跳动本身的企业文化一脉相承。一直以来,字节都强调"让业务前线的人做决策",鼓励一线创新。
在AI转型这件事上,字节把这种方法论复制到了服务企业客户的过程中。
为了帮客户养活龙虾,ArkClaw首先要解决安全问题。
"我们从一开始就承诺不存储任何用户数据,但不能只靠承诺,需要从技术上实现可证明的安全",谭待表示,“信通院的两项相关认证,ArkClaw是国内第一个且唯一一个同时获得的。”
通过AICC 机密计算架构,火山引擎在模型与数据之间筑起了一道物理隔绝的围墙。只有这种“技术可证明的安全”,才能让龙虾从实验室游进核心业务的深水区。
7.webp


其次是“长记忆”问题。
ArkClaw 引入了 OpenViking 上下文数据库,任务完成率提升了超过40%,减少了无效重复检索,Token 成本反而降低了 80%。
从实用性出发,火山引擎和 OpenClaw还共同成立了中国官方镜像站,提供了超过2 万个经过筛选的 Skills。 这实际上是在做一场“去伪存真”的运动。通过开源和生态的力量,火山引擎要定义什么是“好用的 Agent 技能”。那些低效的、冗余的工具将被迅速淘汰,而是直接通过镜像站“装配”高效率的零件。
此外,ArkClaw并非"寄生"在飞书上,而是原生融入飞书文档、多维表格、日历等生态。多智能体协作的结果可以直接写入飞书,形成闭环。
在各大互联网巨头都在争夺“智能体入口”的时候,字节跳动的策略显得低调务实:我不抢入口,我抢消耗;我不抢故事,我抢效率。
通过Seedance 2.0等高价值产品,字节正在定义“真龙虾”标准。Seedance 2.0 视频大模型的公测,预示视频生成正从“抽卡式”的艺术创作转向“流水线”的工业化。在广告、短剧、电商领域,这种能精准还原物理规律、高度可控的视频 Agent,是真正能带来现金流的资产。 
结语
万亿Token 洪流中,新世界的秩序正在重构。“杀死无效龙虾”听起来残酷,却是向AGI时代进化的必经之路。
正如早期的蒸汽机大多是笨重且低效的“无效怪兽”,直到瓦特改良了冷凝器,工业革命才真正爆发。今天的火山引擎,试图扮演那个“改良者”的角色,通过ArkClaw 建立了一套关于效率、安全和成本的新标准。
当那些遮蔽视线的“无效龙虾”被清理干净后,AI 技术的真正力量才会破壳而出。模型未来不再是实验室竞赛,而是电,是水,是每一个能切实提升效率的工业零件。
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-4-5 18:32 | 显示全部楼层
120万亿Tokens相当于每天处理6400万本新华字典的信息量,豆包大模型能冲到世界前三确实有两把刷子,但多智能体协同的准确率衰减问题不解决,再高的调用量也是烧钱玩
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-4-6 15:31 , Processed in 0.184881 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表