在幕后深耕多年之后,英伟达正试图在自动驾驶领域抢占更显眼的领导地位。该公司不仅为特斯拉等企业提供芯片,还向奔驰、捷豹路虎、Lucid 等合作伙伴输出自研的 AI 驾驶功能。今年早些时候的国际消费电子展(CES)上,黄仁勋发布了 Alpamayo—— 一套包含 AI 模型、仿真蓝图和数据集的解决方案,可让车辆实现 L4 级自动驾驶,即在特定条件下完全自主行驶。黄仁勋将这一发布称为“实体 AI 的 ChatGPT 时刻”。
黄仁勋称,英伟达的自动驾驶方案是“独一无二”的,因为它将端到端 AI 模型与传统人工工程化的“经典”技术栈结合在了一起。他认为,纯端到端模型很难做安全验证;而传统技术栈遵循成熟的工程规范与流程,更容易验证某些行为是否足够安全。通过两种方式结合,英伟达的系统既能拥有接近人类的驾驶风格,又能保留基于道路规则的安全框架。
但其最终目标,是打造一套具备推理能力的系统,从根源上避开这些极端陷阱,从而不再依赖海量实车数据。吴新宙的团队正在研发所谓的视觉-语言-动作模型(Vision Language Action),将这一理念落地。这类模型将视觉感知、语言理解与物理动作整合在统一架构中,依托已在互联网级数据上训练好的大基础模型。吴新宙将其比作驾校学习。