马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?注册
×
👦🏻 作者: 涂津豪
🧑🎨 排版: NCon
本周一,「十字路口」发布了一期新播客,和涂津豪一起聊了聊他对 2026 年及以后 Agent 与 AI 发展的判断。
这篇文章,是涂津豪录完播客后写的一篇 Blog( 原文 发布 于:https://www.richardstu.com/blog/2026-and-beyond#some-hard-questions)
它包括了播客中讨论的核心判断,也补充了一些当时没来得及展开的思考——从 主动式 Agent、记忆(Memory),到 模型即产品、Agent 能力边界、对齐与人机交互方式的变化,再到更长期、也更难回答的问题。
以下为原文翻译:
🚥🚥🚥
我在一月中旬录制了和 Koji 录了一期「十字路口」的播客,聊了聊我对 2026 年及以后 Agent和 AI 发展的预判。
这篇 blog 基本上是那期播客内容的文字版,涵盖了我当时讨论的主题,外加一些当时没来得及提到的补充。
所以,如果你已经听过那期播客,可以把这篇文章看作是一个总结和延伸;如果你还没听过,推荐去小宇宙或 Apple Podcast 听听看~
这是我对未来几年的一次推演——我期望看到的主要是围绕 Agent 展开。我对今年及以后会持续发生的事情进行了一些逻辑推导,同时也对更长远的未来做了一些前瞻。
我知道我之前做过好几次类似的预测,但鉴于 AI 的进化速度如此之快,我认为重新审视依然很有价值。现在的局面看起来与哪怕一年前相比,都已经大不相同了。
2026年
对于 2026 年,我认为核心话题依然会是 Agent,但它们将变得更加个性化,并且真正具备实用价值。
🟢 主动式 Agent (Proactive Agent)
回顾整个发展历程:最初我们只有聊天机器人(Chatbots),仅用于对话。后来人们希望它们能获取外部数据,于是我们有了基础的工具调用(Tool use)——搜索网络、查找实时数据。
随着模型变得更强大,它们能通过推理处理更多工具,变得更加稳健。现在我们给了他们推理能力,这就成了我们所说的 Agent。
人们的期望值正在不断升高。大家希望 Agent 能做更多个性化的事情,更实用,更了解自己。
但局限性也很明显:目前的 Agent 只能执行人类明确要求的任务。它们缺乏自驱力(Self-initiating ability)。
我们常说 Agent 会帮我们采取行动、节省时间,但现实是,目前的 Agent——无论是基于文本的、GUI 的还是两者结合的——都很慢。当你发出一句“帮我买点杂货”的指令后,你需要等待好一会儿。
这与我们希望它们把我们从繁琐日常工作中“解救”出来的初衷是背道而驰的。
为了改善这一点,Agent 必须真正具备独立执行任务的能力;换句话说,它们必须理解我们的使用习惯,并利用这种理解在后台默默完成任务,而无需等待人类发起和干预。
它们需要提前准备好我们想要的东西。这让我觉得它们更像是一种高级形式的“自动补全”(Autocomplete)。
唯一的区别在于任务的规模。普通的自动补全,比如 Cursor的 Tab 模式,处理的是跨文件的代码行;而基于任务的 Agent,比如 Manus,处理的是完整的任务。
想要做到这一点,它们需要学习你的使用模式。例如:Agent 知道你总是在周一早上让它总结邮件,所以它在未来会自动完成这件事;或者它知道你的日用品快用完了,就直接帮你处理补货。
但我们也要确保它们并不烦人,这意味着时机(Timing)非常重要——它既不能太具有侵入性,也不能藏得太深,否则就没用了。
这意味着 UI 和 UX 需要改变。我们不能再只依赖单一的输入框界面了。
上周发布的 Gmail AI Inbox 就是一个很好的例子:它并没有从根本上改变你使用 Gmail 的方式,但它加入的 AI 功能确实提升了效率。AI 驱动的工具不一定需要一个显眼的输入框;它们应该与任务的上下文本身绑定在一起。
如果这方面发展得好,将极大地提升人们使用 Agent 的效率,人们也会开始更加信任它们。
🟢 记忆 (Memory)
第二个关键点是记忆。人们对模型的期望越来越高,模型需要更好地了解用户,才能让人感觉真正有用。这与我刚才提到的“主动式 Agent”直接相关。
目前,关于记忆即使有几种通用的解决方案。从产品角度看,主要有三类:
模型使用工具将信息存入记忆空间(如 ChatGPT, Gemini, Claude, Kimi, Qwen 等)。
这些都做得不错,我也在 Claude 等产品上看到了很有潜力的表现。但对于更广泛的通用 Agent 来说,它能够——也应该——做得更好。记忆不仅仅局限于关于我们的基本信息,它还连接着我们生活中的通用偏好:购物风格、代码风格、旅行习惯等等。
这些都影响着 Agent 能否在你的预期范围内完成任务。但一遍又一遍地提及或重申偏好是很烦人的。因此,产品如何“形成”这些记忆也需要创新。
我一直在思考一种方法:将你的 App 和网站先交给 Agent 去探索。
让 Agent 去学习你的偏好总比让你自己描述要好,而且你通过绝对不想重复自己;所以,你让 Agent 登录这些服务,它会浏览并检查你之前的订单,学习并总结你的偏好——比如你买杂货通常点什么?你总是首选哪家航空公司?
然后 Agent 将这些总结成专门的文档。每次它进入特定的 App 或网站时,相关的指令会自动加载,确保模型已经知道了它需要知道的一切。
这不需要任何特殊的模型能力——它只需要产品或环境(即“Agent Harness”)进行优化,以进一步拓展模型的已知信息。
这种方法同样适用于许多其他用例。而且不同于最近的 Skills 或类似功能,这不需要用户或模型付出额外的注意力。不会出现模型忽略特定偏好的情况,因为它们是默认加载的。
以上都是基于产品的思考,但我们也可以从更基础的层面来考虑。有时模型并没有意识到使用用户知识的重要性,所以直接跳过了。(我需要说明:我的这些想法可能是错的,因为目前还没有明确的实验证明这些确切有效。)
在模型侧的记忆机制上,可能会有更多的创新。
无论哪种方式,围绕主动式 Agent 和记忆,我们将看到很多惊喜。现在的关键问题是模型如何真正提升生产力——我认为这是它们在真正对社会产生广泛影响之前,能带来最大经济效应的地方,它们首先应该对个人产生巨大且显著的影响。
趋势 (Trends)
此外,我认为有一些趋势在未来一两年内会持续发生或开始转变。
🟢 模型即产品 (Model as a product)
第一个持续的趋势是“模型即产品”。这是一个长期存在的模式;我认为它有两个略有不同的侧面:
在这些产品中,我认为上周向公众发布的 Genie 3(Google 最新的世界模型)潜力巨大。你可以创造世界,控制你在里面“行走”的方式——整个过程都是可定制的。这比 Sora 这样的视频模型要好玩得多。而且由于它可以生成互动的世界,它(或其后续版本)有潜力成为首批可靠的生成式游戏引擎。
我以前玩游戏不多,但如果我们能拥有基于稳健的世界模型的可靠产品,我可能会开始玩,因为创造我自己的体验听起来真的很有趣哈哈。
🟢 Agent 的能力 (Agent capacity)
第二个趋势是 Agent 的能力上限。模型将变得更加稳健,这是清晰的轨迹。它们将处理更多长尾任务,甚至能够完成复杂的任务。它们不仅能加速软件工程师(SWE)的工作,还能加速 AI 研究本身;甚至自动化其中的一部分。我们已经在科学研究和其他领域看到了巨大的潜力。我们也有相关的 Benchmark 在追踪这一点,比如 METR Time Horizon, VendingBench 等等。
METR Time Horizon V1.1
VendingBench-2 Scores(featuring Gemini-3 Pro,claude Opus 4.5, and GPT-5.2) 曲线正在上扬,并且将保持稳步增长的态势。
🟢 模型对齐 (Model alignment)
第三点,也是最重要的一点之一,是模型对齐。随着模型变得越来越强,人们将其投入到更多的生产环境中,恶意的后果将变得灾难性。如果一个模型能帮助科学家建造核聚变反应堆,那么它也能帮助坏人制造核武器;如果一个模型能帮助公司开发药物,那它也能制造生化武器;知识本质上是相通的。
我之前写过关于这个问题的思考,这方面也有很多研究,但我发现一个很有前景的方法是新的 Claude Constitution(Claude 宪法/守则)。OpenAI 的 Model Spec 与之类似,但更基于规则:你应该做什么,不应该做什么。而 Constitution 更像是教导模型如何成为好人、做好的事——不那么像规则,更像父母教导孩子(我记得 Dario 曾将其描述为“一封来自已故父母的,密封至成年的信”)。
我认为这是一个有前景的方向,我预计会有更多公司探索这种方法。
🟢 人机交互 (Human-AI interaction)
最后一点是人机交互方式的改变。目前,我们通过 App、API、网站与 AI 交互——所有这些都局限于手机和桌面端。我认为一个真正好的新入口是 AI 眼镜,因为它们能看到你所看到的,听到你所听到的。它们可以拥有自己的生态位——它们不需要取代手机或其他任何东西。它们可以增加一些新的东西:一种与 AI 互动和共生的不同方式;这不像 Humane AI Pin 或 Rabbit r1,试图取代手机却失败了。
由于 AI 眼镜几乎可以感知我们能感知的一切,它们将是我前面提到的“主动式 Agent”的绝佳附加装置。它们可以根据你的现实环境推荐事物或帮助完成任务,更好的记忆系统在这里也变得至关重要。
我们已经看到了一些产品。例如,Pickle 1 看起来还挺有希望的——我已经预订了,等着看效果如何。这似乎也是 Google 正在努力的方向,Demis 在 2026 年达沃斯论坛上也提到过。但这还处于早期阶段。
我们暂时可以专注于前面的部分;眼镜更多是硬件、软件和生态系统追赶的问题。
未来 (Future)
我以前写过很多次关于未来的文章,但 AI 发展太快了,情况看起来与一年前截然不同。所以我觉得依然值得分享一下我对更长远未来的预期——在看了最近的文章、采访并做了自己的思考后,我有了一些新想法。
在深入之前,我要提一下 Dario (注:指 Anthropic CEO)的新文章《技术的青春期》(The Adolescence of Technology) 。这是一篇严肃的文章,描绘了我们面临的风险以及我们可能如何解决它们。我很尊重他处理这些问题的方式——谨慎、具体,而不是像个末日论者。如果你还没读过,我推荐读一读。我在这里写的更多是个人的看法,来自一个将亲历这场转型的人。再次强调,这都是我个人的想法,可能是不正确的。
🟢 我想看到的
彼岸的世界:一个生存焦虑不再是人类生活默认模式的世界。医学、气候和长寿方面的科学进步比以前快得多。人们可以追求对自己真正重要的事情,而不仅仅是为了钱。
Dario 称之为“充满爱与恩典的机器”(Machines of Loving Grace)。我认为他对可能性的判断是正确的。真正的问题是,我们能否在不让一切分崩离析的情况下度过中间的过渡期。
我无数次构想过这个美好的未来。机器人处理体力劳动。AI(这里我指的是常规模型、机器人和其他形式)自动化几乎所有事情,它们的超高生产力带来了富足;然后富足让物质匮乏变得不再那么重要。人们从“谋生”的持续压力中解放出来,能够真正地生活。这听起来像乌托邦,但我不认为这是不可能的——只是很难到达,需要付出巨大的努力。
🟢 一些艰难的问题
如果 AI 创造的价值比你多,你的目标是什么?
这很快就会成为许多人的切身经历。正如我所说,模型在各个方面的能力越来越强,公司将逐渐部署和使用它们来工作,这笔账算得很清楚:AI 更快、更便宜、更好。
理性的举动是裁员。许多人会被解雇,失去工作。如果这大规模发生,“AI 造福人类”的说法就会崩塌,因为我们要的是让每一个人都受益,而不仅仅是一小部分人。如果某个东西让你在经济上变得无关紧要,却没给你任何回报,你是无法从中受益的,这反而是伤害。
我认为为了防止这种情况,公司和社会需要达成某种共识:即使 AI 创造了更多价值,我们在可预见的未来仍然应该保护人类。
一家公司在提取了运营所需的价值后,应该将价值回馈给被取代的工人,这应该更像是一种社会契约。价值总是有来源的。
我知道这执行起来非常难,几乎不可能。没有执行机制,没有明确的政策,竞争压力也会阻碍它,但这正是旅程艰难的原因。技术的到来比我们的社会系统适应得更快;这就是为什么我在之前的博文中说,应该是我们去适应这些先进系统的发展。我们几乎从未见过两者并驾齐驱,我们现有的框架也不是为此建立的。
🟢 没有工作的意义
即使我们解决了物质方面的问题,即使被取代的工人最终获得了收入,这仍然存在意义的问题。人们不仅仅想要东西,他们想要被重视,想要被需要。工作曾经提供了这一点,即使工作本身很无聊。
我想过很多,外面也有很多讨论。在一个 AI 处理大多数认知任务的世界里,我们需要新的结构来承载目标。创造性工作、社区、探索、照护——这些对我们有意义的事情,即使它们不能最大化 GDP。但这不会自动发生,我们必须有意识地去构建它。
也许这听起来很抽象,但这其实非常具体。如果你不需要工作,你会做什么?不是度假模式下的“你会做什么”,而是说,长期来看,什么能给你的生活带来结构和意义?对我来说,我想是探索未知,体验不同的地方,也许创造一些东西。但很多人甚至没有机会去思考这个问题,因为生存是第一位的。
转型将迫使我们回答这个问题,我认为每个人的答案都会不同,这正是关键所在。
拥有弄清楚什么对你重要的自由,而不是被经济需求所支配。
🟢 转型本身
很明显,这场转型不会是风平浪静的。我之前说过,数以百万计的人将失去工作,社会可能会在某些部分崩溃。历史告诉我们,工业革命在情况好转之前造成了巨大的苦难。这次可能会类似,但速度更快,范围更广。
问题是我们能否让转型尽可能地人道。不是“为了进步可接受的牺牲”——这种框架在历史上被用来为许多伤害辩护。而应该是:我们承认这会很难,并试图在这个过程中互相照顾。
🟢 为什么我依然相当乐观
我知道风险巨大。有很多末日论的观点,我理解他们的出发点。强大的 AI 落入坏人手中、价值观未对齐、社会崩溃等等。
但有很多研究人员正在致力于对齐(Alignment)和可解释性(Interpretability)的研究。一些公司(如 Anthropic 和 DeepMind)实际上正在认真对待安全和相关问题。新的 Claude Constitution 试图教导模型成为好人,而不仅仅是遵守规则。人们正在进行这些对话,而不是忽视它们。这很重要。
我一直在思考如何同时持有这两种想法——充满希望的愿景,以及知道到达那里的路途将是崎岖的。
老实说,这归结为一件简单的事:我相信我们的世界可以变得更好,我想看到那一天的发生。也许还能为此出一份力。这就是我坚持的信念。
未来的岁月会很艰难,也许需要几十年。但我总是回到这个问题:那又怎样?为什么要害怕?
还有很多可以写的,但对于现在来说我觉得足够了,剩下的留到未来的文章里吧。
无论如何,希望世界在 2026 年及以后变得越来越好。
(原文链接:https://www.richardstu.com/blog/2026-and-beyond#some-hard-questions)
|