基于这一判断,《麻省理工科技评论》选出了 2026 年的十大突破性技术。它们涵盖多个维度:从能够精准编辑新生儿基因的碱基编辑技术,到试图让灭绝物种重返地球的“基因复活”;从承载人类太空雄心的商业空间站,到支撑 AI 算力指数级增长的超大规模数据中心……其中一些技术已进入落地阶段,另一些仍充满争议,但它们共同指向一个复杂却值得期待的未来。
在广阔的农田和工业园区里,一栋栋塞满计算机机架的超大型建筑正拔地而起,为 AI 竞赛提供动力。这些工程奇迹是一种新型的基础设施:它们是专为训练和运行超大规模大语言模型而设计的超级计算机,并配备了专用的芯片、冷却系统,甚至独立的能源供应。
超大规模 AI 数据中心将数十万个被称为图形处理单元(GPU)的专用计算机芯片(如英伟达的 H100)捆绑成协同工作的集群,就像一台巨大的超级计算机。这些芯片擅长并行处理海量数据。数十万英里长的光纤电缆像神经系统一样连接着这些芯片,让它们能以闪电般的速度进行通信。巨大的存储系统则昼夜不停地为这些设施中的芯片输送数据。
OpenAI、谷歌、亚马逊、微软和 Meta 等科技公司正向这种基础设施投入数千亿美元。中国、美国、中东等一些国家政府也在投入巨资。
实际上,我们并没有从本质上弄清楚 AI 模型的“大脑”中到底发生了怎样的变化:它们的本质和运作机制是怎样的?应该怎样设置防护措施对其进行约束?
过去,人们将 AI 看成是一个“黑箱”系统:喂进数据,获得结果,但其中经历了怎样的过程尚不清楚。随着模型规模的提升,其表现出来越来越强的能力,这种过程不可见的状态,逐渐成为安全和可信性方面的“定时炸弹”。
于是,顶尖 AI 公司的研究人员通过开发新方法,来探查这些模型得出结论的过程,并开始逐步还原其中的一部分机制。在这样的背景下,机制可解释性(MI,Mechanistic Interpretability)开始成为一条清晰的研究路线,它旨在通过研究模型内部的计算机制,梳理整个模型中关键特征及其之间的路径。
2024 年,Anthropic 公布了一套类似“显微镜”的方法,来探索其 Claude 模型的内部。研究人员发现,大模型的内部并非完全无章法,某些神经元或神经元组合,会稳定地对应特定的概念,例如以迈克尔·乔丹为代表的人物和以金门大桥为代表的地点,甚至是更抽象的语义模式。
2025 年,Anthropic 将这项研究推向了新的高度。不止步于单一概念特征,该公司利用“显微镜”可以解析出相对连贯的特征序列,并追踪模型从提示到生成回答之间的大致路径。这意味着,模型的思考过程终于“有迹可循”了。当然,这不是一家公司的独立探索,OpenAI 和 Google DeepMind 等团队也使用类似技术,来解释模型的相关异常行为或危险行为。
无论是专业软件工程师还是新手,都在使用 AI 编码助手来生成、测试、编辑和调试代码,从而减少了完成项目所需繁琐步骤的时间。大型科技公司已全面参与:据这些公司的负责人透露,微软高达 30% 的代码和谷歌超过四分之一的代码现已由 AI 编写,而 Meta 创始人马克·扎克伯格(Mark Zuckerberg)则希望在不久的将来,让 Meta 的大部分代码由 AI 代理完成。
与此同时,诸如微软 Copilot、Cursor、Lovable 和 Replit 等强大的新型 AI 工具,甚至让那些几乎没有编码知识的人,仅通过一系列描述他们想构建内容的提示,就能搭建出视觉效果惊艳的应用程序、游戏、网站及其他数字项目。
一些从业者甚至让软件在写代码时起主导作用,接受其部分或全部建议,这种方法被称为氛围编码。但可靠的人类专业技能仍然无可替代,因为 AI 会凭空产生无意义的内容,其建议无法保证有用或安全。麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)的研究人员强调,即便是看起来合理的 AI 生成代码,也可能不总是按设计执行。尽管 Cosine 和 Poolside 等公司正在致力于解决这个问题,但是 AI 工具在处理庞大复杂的代码库时也存在困难。
我们也开始看到生成式 AI 编码对于业界其他领域产生的早期影响,包括为年轻员工提供的入门级工作岗位减少。因此,尽管生成式 AI 编码可能对你现有的工作有所帮助,但它们不一定会帮助你获得一份新工作。
重大意义:不出意外的话,首个商业轨道前哨站计划于今年五月发射。
主要参与者:Axiom Space、 Blue Origin、Vast Space、Voyager Space
紧随其后的将是 Axiom Space 的前哨站——Axiom Station,它由五个模块(或房间)组成。其设计风格类似精品酒店,预计于 2028 年发射。Voyager Space 计划同年发射其名为 Starlab 的空间站,而 Blue Origin 的 Orbital Reef(轨道礁)空间站则计划于 2030 年跟进。