找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 76|回复: 3

[科技新闻] 新安迪比尔定律:大模型产生的,龙虾拿走

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-10 17:06 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
1.webp

昨天的GTC2026,黄仁勋说了一句意味深长的话:
"Mac and Windows are the operating systems for the personal computer. OpenClaw is the operating system for personal AI."
然后他又说:
"Every company in the world today needs to have an OpenClaw strategy. This is as big as HTML, as big as Linux."
全球市值最高的公司的 CEO,在他一年中最重要的演讲里,花了相当大的篇幅给一个开源小龙虾站台。
为什么?
部分原因大家都看得到:龙虾火了,GitHub 史上增长最快的开源项目,全球现象级产品。Nvidia 顺势发布 NemoClaw 企业栈,一行命令部署龙虾,加上安全沙箱和隐私管控,吃下企业级 Agent 的基础设施市场。
但这不是全部。

黄仁勋没说的那句话

昨天 keynote 还有一个数字:黄仁勋预计 Blackwell 和 Vera Rubin 芯片的订单到 2027 年将达到至少一万亿美元。去年的预估是五千亿,今年直接翻倍,而且他说"实际需求可能远超这个数"。
万亿美元的算力需求从哪来?
他给出的关键词是"推理的拐点已经到来"——AI 不再只是训练大模型,而是大规模地跑推理、干活、执行任务。
把这两件事放在一起看——一边是龙虾被封为"AI 的操作系统",一边是万亿美元的算力订单——中间的因果链就浮出来了:
Agent 是 Nvidia 的完美客户。
一个人跟 LLM聊天,一天消耗几万个 token。一只龙虾 24 小时运行,每 30 秒自动轮询一次,不断调模型、拆任务、调工具、写文件、读记忆——一天能烧掉几百万 token。
龙虾越好用,用的人越多。用的人越多,token 消耗越大。token 消耗越大,需要的算力越多。需要的算力越多,Nvidia 卖的芯片越多。
这让我想到一条老定律。

原版安迪比尔定律

2.webp

Wintel时代,关于因特尔和微软有一句定律:"Andy gives, Bill takes away."
安迪(Andy Grove,Intel CEO)给的性能提升,比尔(Bill Gates,微软 CEO)的软件全部吃掉。Intel 每做出更快的芯片,Windows 就变得更臃肿、更吃资源,用户永远觉得电脑不够快,只好不断买新硬件。
这不是 bug,这是商业生态的共生逻辑:硬件进步创造性能余量,软件膨胀消耗掉这些余量,用户被夹在中间持续付费。这个循环驱动了 PC 产业二十年的增长。
现在,同样的结构正在 AI 领域重演。只不过角色变了:
Intel → Nvidia(算力供给方)
Windows → OpenClaw / Agent 生态(算力消耗方)
LLM 越来越强,上下文窗口越来越长,推理速度越来越快,成本越来越低——这是 Nvidia + 模型厂商"给"出来的性能余量。
然后龙虾把它全部"拿走"。
Agent 不会因为模型更快就节省 token。恰恰相反——模型越强,Agent 能干的事越多,调用越频繁,token 消耗越高。装更多 Skill、跑更多子 Agent、操作浏览器、7×24 小时不间断巡检……每一个新能力都在吃算力。
新安迪比尔定律:LLM 产生的,龙虾拿走。

老黄为什么给龙虾站台?

现在回头看,就很清楚了。
黄仁勋不是在做慈善,不是因为龙虾"酷"才给它站台,他是在推广自己的最佳分销渠道。
过去 Nvidia 的主要客户是训练大模型的公司——OpenAI、Google、Meta,数量有限,单笔订单大。但推理市场不一样,它是分散的、长尾的、持续性的。每一台跑着龙虾的 Mac mini,背后都连着一个或多个模型 API,持续消耗算力。
一千万台 Mac mini 跑着一千万只龙虾,每只每天消耗几百万 token——这就是一个规模惊人的推理算力市场。
所以他说"每家公司都需要 OpenClaw 策略"。翻译一下就是:每家公司都需要成为 Nvidia 的推理算力客户。
NemoClaw 的发布也是同样的逻辑:不是 Nvidia 要做 Agent 产品,而是 Nvidia 要确保企业在部署 Agent 时,用的是吃 Nvidia 算力的基础设施。一行命令装好龙虾,背后接着 Nvidia 的模型、Nvidia 的运行时、Nvidia 的安全栈。开源是手段,卖铲子才是目的。
3.webp

(老黄挡住的是Skill)


SaaS 到 GaaS:软件的消费者变了

黄仁勋在 keynote 里还抛了一个概念,原话好像是:"Post-OpenClaw will turn IT from SaaS into GaaS with AI acting as service"
GaaS 没有标准定义,但意思很明确——从 Software as a Service 到 Agent as a Service。不再是人去用软件,而是 Agent 替人去用软件。
这个转变的底层逻辑是:软件的主要消费者从人变成了 AI。
过去做软件,首先考虑的是 UI 怎么设计、交互怎么顺畅、用户引导怎么做。未来很多软件的核心消费者是 Agent——它不需要漂亮的界面,只需要 API 和 MCP 接口。
就像过去两年的Coding领域,Copilot/Cursor 这些工具,还是"人在写代码、AI在辅助"。但Claude Code和龙虾指向的未来是:人说一句目标,Agent 自动拆任务、写代码、调试、部署。程序员还在,但他们不再是 IDE 的直接操作者——Agent 才是。

对普通用户意味着什么?

如果新安迪比尔定律成立,有几个推论:
Token 成本会持续下降(尽管近期似乎还变贵了),但你的总花费不会降。 模型越便宜,你会让龙虾干越多的事,总消耗反而上升。就像手机流量越来越便宜,但你的月账单没少过。
烧Token的能力是一种竞争力。龙虾烧Token的浪费,是你为AI认知交的学费。谁能消耗更多的Token,谁就代表更先进的生产力。
会用 Agent"比"会写代码"重要。 就像你不需要懂 Windows 内核才能用好电脑一样,你不需要会写代码才能让龙虾干活。但你需要知道怎么给它下目标、配工具、选模型、管流程。这是一种新的"操作系统素养"。
真正值钱的不是 Agent 本身,而是你喂给它的上下文。 一千万人用同一只龙虾、同一个模型,区别在于:谁的 USER.md 写得更清楚,谁的 Skill 配得更到位,谁的工作流设计更合理。龙虾是通用操作系统,你的配置、流程和数据才是竞争壁垒。

黄仁勋说了一半。
龙虾确实正在成为 AI 时代的操作系统——架构完整度、生态增长速度、企业参与深度都支撑这个判断。
但他没说的另一半是:这个操作系统最大的受益者不是用户,是 Nvidia 自己。每多一只龙虾上线,就多一台永不停歇的算力消费机器。
安迪给的,比尔拿走。LLM 产生的,龙虾拿走。
Nvidia 两边通吃。
我是AI全景图的David,这是OpenClaw系列的第11篇。还有几个OpenClaw群,比较热闹,欢迎来玩!
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-11 16:33 | 显示全部楼层
国家几代年轻人拜游戏的功劳
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-11 18:34 | 显示全部楼层
美国在用si干什么?军事决策等大应用、高端应用。看看自己在干什么?还洋洋得意!
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-12 07:37 | 显示全部楼层
全局代理先装ollama,然后ps下先装适合自己的大模型,然后ps下先装node,再装git,再装clawdbot,装好直接ollama启动cb,本地就能跑了,token速度取决显卡硬不硬霸,没显卡的就省了ollama的步骤,直接从node开始装,在clawbot的配置中输入api就可以用了,小白windows下三十分钟的事,不知道为啥有人会花钱装
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-4-4 09:26 , Processed in 0.335907 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表