AI前沿 2026-05-14

Waymo CEO回应L2升维L4:有可能,但只靠端到端还不够

# 从L2到L4,Waymo CEO泼了一盆冷水:端到端不是万能钥匙

当特斯拉的FSD V13在美国街头大秀无保护左转,当国内新势力们争先恐后地宣布“全国都能开”,一个看似顺理成章的问题被反复抛向行业:既然L2级辅助驾驶已经越来越“像人”,那么再往前走一步,不就能直接跳到L4级无人驾驶了吗?毕竟,端到端大模型已经把感知、预测、规划揉成了一个黑盒,理论上只要数据够多、算力够强,机器就能学会人类司机的所有技巧。

但Waymo CEO的最新表态,像一盆加了冰块的凉水,浇在了这股狂热上。他在回应“L2升维L4”的可能性时,给出了一个耐人寻味的答案:有可能,但只靠端到端远远不够。这句话背后,藏着自动驾驶行业两条技术路线的深层博弈,也揭示了从“辅助驾驶”到“无人驾驶”之间那道几乎不可逾越的鸿沟。

## 端到端的魅力与陷阱:为什么“学得像”不等于“靠得住”

要理解Waymo CEO的谨慎,首先要看清当下最火热的端到端技术到底解决了什么,又留下了什么。端到端的本质,是用一个巨大的神经网络,直接学习从摄像头像素到方向盘转角、油门刹车的映射关系。它的优势是“像人”——特斯拉车主常常惊叹FSD变道时的丝滑、博弈时的果断,那种“老司机”般的体感,正是端到端模型从海量人类驾驶数据中蒸馏出的本能。

但正是这种“本能”,埋下了致命的隐患。人类司机的驾驶行为本身就不是完美的。当我们学习人类的驾驶数据时,学到的不仅包括正确的决策,也包括那些错误的、侥幸的、靠“补方向”才避免事故的临界操作。端到端模型无法像人类一样进行因果推理,它只是以“最小损失”为目标拟合了数据分布。换言之,它学会了人类的肌肉记忆,但没有学会人类的判断力。

Waymo CEO指出的核心矛盾正在于此:L2系统的责任主体是人,系统出错时人可以兜底;但L4系统的责任主体是车,车必须为自己的每一个决策负全责。一个只靠拟合人类驾驶数据训练出来的端到端模型,在面对从未见过的长尾场景时——比如路上突然出现一个被风吹倒的施工围挡、一辆逆行且不开灯的电动车——它没有能力进行逻辑推演,只能凭“直觉”赌一把。这种赌博在L2场景下可以被驾驶员接管,但在L4场景下,就是一场灾难。

## Waymo的技术哲学:多模态传感器 + 模块化架构 + 验证闭环

与特斯拉“纯视觉+端到端”的激进路线不同,Waymo始终走的是“重资产”路线:激光雷达、毫米波雷达、高清地图、多模态传感器融合,再加上一套相对模块化的系统架构。这种方案的缺点很明显——成本高、泛化慢、难以量产。但它的优点同样突出:可解释、可验证、可兜底。

在Waymo的设计逻辑里,感知、预测、规划、控制每个模块都有独立的模型和目标函数。感知模块可以明确检测到前方50米有一个障碍物,类型是“静态的锥桶”,置信度99.7%;预测模块根据历史轨迹计算出它可能被风吹动的概率;规划模块再结合高清地图上预先标注的施工区域,生成一条绕行路径。每一步的中间结果都可以被工程师审查、调试、打补丁。

更重要的是,这种架构天然支持“安全验证”。Waymo可以在仿真环境中生成数以亿计的长尾场景,然后分别测试每个模块的表现。当发现某个场景下决策出错,工程师可以精确定位到是感知漏检、预测偏差还是规划算法缺陷,然后有针对性地修复。而端到端的黑盒模型,一旦出错,你只能依赖“投喂更多数据”来期望它下次蒙对,这是一种统计学上的赌博,不是工程上的可靠性。

Waymo CEO的言外之意很清楚:L4不是靠“量变到质变”就能实现的。你得从第一性原理出发,构建一套能够被形式化验证的安全机制。端到端可以作为上层博弈策略的“加速器”,但绝不能是底层的唯一支柱。

## 商业博弈:谁在认真做L4,谁在拿L2讲故事?

如果把Waymo的表态放在当前商业语境下看,它其实是在切割“智能驾驶”和“无人驾驶”这两个概念。过去两年,随着端到端技术出圈,很多车企将“全国领航”包装成了“接近于无人驾驶”,甚至直接喊出“2026年实现L4”。这种话术对资本市场和消费者来说极具吸引力——既然我的车已经能自己开高速、自己过路口,那离真正不用人看还远吗?

但现实是,L2和L4之间隔着的是责任归属的鸿沟。L2的量产车,每年交付几十万辆,每一辆车都会遇到成千上万个从未见过的长尾场景。这些场景中的大部分被人类驾驶员化解,少部分导致事故,但事故责任属于司机。而L4的运营车辆,哪怕只有几千辆,也必须保证在99.999%的场景下不犯致命错误。这就要求L4系统不仅要学得快,更要“错得起”。

Waymo目前在旧金山、凤凰城等地运营着数百辆真正的无人驾驶出租车,每天处理着真实的、无安全员的道路任务。它积累的“长尾场景解决经验”和“安全验证方法论”,是特斯拉FSD在用户端跑多少公里都学不来的——因为特斯拉的FSD本质上是一个L2系统,驾驶员始终在用生命为其兜底。当端到端模型在某一个路口做出错误决策时,Waymo的工程师可以说“系统出错了,我们修”,而特斯拉的工程师只能说“用户太依赖系统了,我们加强安全提醒”。

## 真正的“升维”路径:端到端+规则引擎+安全冗余

那么,Waymo CEO不是完全否定L2向L4进化的可能性吗?他说的“有可能”三个字,恰恰给出了技术路线的暗示。L2的数据可以用来训练感知和预测模型,这是降本增效的好方法。但要让L2蜕变为L4,必须在端到端模型之外增加三层结构:

第一层是可解释的规则引擎。端到端模型输出一个“看起来不错”的轨迹后,需要一组硬编码的安全规则进行校验——比如不允许越过实线、不能离路沿小于30厘米、必须保持与障碍物的最小安全距离。这些规则在数学上可以证明,确保模型即使抽风,也不会做出基本的违规动作。

第二层是因果推理能力。真正的L4需要理解“为什么”而不是“是什么”。比如看到前方有一群鸟突然起飞,端到端模型可能只检测到“前方有物体”,但人类司机会推理:鸟起飞是因为附近有行人在驱赶,或者有车辆鸣笛。Waymo正在尝试用基于世界模型的方法,给系统注入这种逻辑推断能力。

第三层是完备的安全验证流程。哪怕是最聪明的模型,也需要在正式运营前通过大量仿真测试和封闭场地测试。Waymo的Carcraft仿真平台每天模拟数百万公里的里程,覆盖各种极端天气、交通混乱、路面损坏等长尾场景。这种“训练-验证-修复”的闭环,是L4商业化的核心能力,也是端到端模型本身无法自带的。

## 结语:别把“像人”当成“成为人”

Waymo CEO的这番话,本质上是在告诫行业:不要被端到端的美丽曲线迷惑了双眼。自动驾驶的终极形态,不是一台学会了人类驾驶习惯的机器,而是一台永远不会违反物理定律、永远不会把概率当确定性的机器。L2向L4的升维,需要的是在数据驱动的基础上,叠加一层工程化的确定性。

对于中国的自动驾驶玩家来说,这是一次必要的清醒剂。当所有人都在比拼“开城数量”和“端到端上车速度”时,真正的无人驾驶商业化,仍然需要回归到安全验证、冗余设计、责任认定这些“吃力不讨好”的硬骨头上来。毕竟,消费者最终买单的不是一个“看起来会自己开”的玩具,而是一个真正敢让小孩独自乘坐的出行工具。

配图

← 武田制药大裁员 联发科技×阶跃星辰,音乐大模型可视化部署,AI适配效率迎来质的飞跃 →

暂无评论