Waymo:“可验证安全”的自动驾驶人工智能
2025-12-16
Waymo发布了一篇技术文章《Demonstrably Safe AI For Autonomous Driving》,随着Uber带着全球的Robtaxi探讨“能力”“规模”“商业化”的时候,Waymo 要开始重点强调“可验证的安全”?
为什么它已经累计行驶超过 1 亿英里、并在真实运营中显著降低事故率,却依然要拆开系统、公开其 AI 架构细节?理解这些问题,其实是要解决Waymo和特斯拉的分歧,才能看清 Waymo 最新自动驾驶路线。

自动驾驶被称为现实世界中最难的 AI 问题,现在不仅仅是端到端模型像不像人,在Robotaxi的领域,问题是能否“被证明是安全的”。
Waymo 的核心判断非常明确,安全是从模型、架构到训练方式的第一性原理。
Waymo 并没有押注“更大的端到端模型”,构建了一整套围绕安全验证展开的 AI 生态系统,包含“驾驶员”模型,还同时包含“模拟器”和“评价系统”,三者共同构成闭环,而它们背后依赖的是同一个统一的 Waymo 基础模型。

与纯端到端或高度模块化方案不同,Waymo 的基础模型本质上是一个“世界模型”,通过高维嵌入向量在模型内部实现端到端学习,保留了对象、语义属性、道路结构等紧凑、可物化的结构化表示。
混合式设计看似复杂,但工程价值极高,允许模型学习复杂行为,又为安全验证、物理一致的闭环仿真以及可解释评估提供了抓手。
Waymo 在努力追求“模型为什么这么做、在什么边界内这么做是安全的”。

在模型形态上,Waymo 进一步引入了“快思考”和“慢思考”的双系统架构。
解决的是端到端模型普遍存在的“常识盲区”问题:当道路上出现并非几何意义上的障碍、但语义上极度危险的事件时,系统仍然知道应该规避,而不是机械地沿着可行驶空间前进。
备注:这个概念是不是大家很熟悉,拉开差距的是 Waymo 如何让这些模型持续、安全地进化。
Waymo 明确区分了“教师模型”和“学生模型”。教师模型规模巨大,用于生成高质量驾驶策略、构建高保真模拟世界以及进行极其严格的行为评估;学生模型则通过知识提炼,继承教师模型的能力,并被压缩到可以在车端实时运行、在云端大规模仿真的计算规模内。
这种做法的本质,是用大模型探索能力边界,用小模型承担工程落地责任,同时避免把尚不可验证的复杂 silicon 直接放进车里。

在此基础上,Waymo 构建了一个闭合的学习飞轮。
◎ 评价系统会从真实的全自动驾驶日志中,自动识别任何不理想或边缘的驾驶行为;
◎ 这些行为被转化为改进样本,用于训练驾驶员模型;
◎ 新的策略必须先在高强度模拟环境中经历压力测试,再由安全框架进行风险验证,只有通过所有关卡,才会被部署到真实道路。
这个过程看似缓慢,但它解决的是一个行业长期回避的问题:如何在能力不断增强的同时,保证系统风险不会“隐性累积”。

Waymo 现在拥有的并不只是“数据多”,而是海量、持续增长的全自动驾驶真实数据,无法通过人工驾驶或简单仿真复制,因为只有在完全无人控制的情况下,系统才会暴露出真实的决策模式和潜在缺陷。
Waymo 将这些数据直接纳入训练与评估飞轮,使得系统不是从“人类经验”中学习,而是从“自身完整自动驾驶经验”中进化,这一点在行业内几乎没有可比对象。




