特斯拉取消超声波雷达 自动驾驶派系之争再起

【特斯拉取消超声波雷达 自动驾驶派系之争再起】

特斯拉取消超声波雷达 自动驾驶派系之争再起


11月6日消息 , 近期 , 特斯拉宣布 , 从2022年10月初开始 , 所有为北美、欧洲、中东制造的Model 3和Model Y都不再配备超声波雷达 , 而是完全依靠Tesla Vision来提供Autopilot、FSD和主动安全功能 。 此外 , 2023年起交付的Model X及Model S也不再配备超声波雷达 。 这意味着 , 特斯拉将采用只有摄像头的纯视觉自动驾驶方案 。

特斯拉的这一举措 , 让业内本就存在的有关自动驾驶解决方案(包括纯视觉和视觉+传感器融合)谁优谁劣的争论再次升温 。 那么事实究竟如何?
这里 , 我们不妨先看看自动驾驶底层逻辑是什么?是感知、决策、执行三个步骤的结合 , 对周围环境的周密感知是所有决策的基础 , 也是自动驾驶汽车的安全保障 。 在了解周围环境中物体的位置、速度和方向、路面的性质、路缘石的位置、信号(交通、道路标志)等之后 , 自动驾驶系统则要开始做计划和控制:首先是其他移动物体在接下来的短时间会做什么 , 然后是根据整体计划(比如规划的通向目的地路线)计划自己要做什么 , 最后就是告诉汽车要做什么 。
从这个逻辑再加上业内对于视觉解决方案的描述 , 我们认为 , 纯视觉派更接近人类驾驶的逻辑 。
那么问题来了 , 既然纯视觉派更接近人类驾驶的逻辑 , 为何还会有视觉+传感器融合派呢?
尽管纯视觉解决方案实现成本相对更低 , 更接近人类驾驶 , 通过高分辨率、高帧率的成像技术获取的环境信息更加丰富 , 但摄像头捕捉环境信息容易受到环境光的干扰 , 且纯视觉方案对于图像的处理更依赖训练 , 难免出现环境认知的“死角”
相较之下 , 融合则是通过摄像头、毫米波雷达、激光雷达等设备一起收集车辆的周边信息 。 激光雷达的加入能够获取更深度的空间信息 , 对于物体的位置、距离和大小感知更准确 , 且由于激光雷达是自发光并不受环境光影响 。 也就是说 , 融合解决方案克服了纯视觉的缺点 。
不过从技术的角度看 , 融合解决方案也存在着短板 。
马斯克曾经对此做出过解释 , 即纯视觉 , 尤其在使用显式光子计算时 , 比雷达和视觉的组合要好得多 , 因为后者有太多的不确定性——当雷达和视觉感知不一致 , 不清楚该相信哪个 。 而马斯克的解释并非毫无根据 。
以此前被用户诟病的“幽灵刹车”为例 , 特斯拉前AI项目负责人安德烈·卡帕西曾公开描述过“幽灵刹车”的典型案例:当车辆即将驶入桥下的时候 , 毫米波雷达检测到前方有一个静止的物体(其实是桥) , 然后它在等待视觉系统告诉它(我的判断是正确的) , 然后便创建一个静止的目标并刹车 。 同时 , 恰巧此时有一辆行驶很缓慢的汽车在旁边 , 大致发生的情况是视觉系统有几帧报告了前车产生了减速(但不足以造成刹车) , 系统就会将视觉系统报告的“减速车辆”和雷达报告的“静态物体”相关联 , 从而造成幽灵刹车 。
对此 , 特斯拉自动驾驶最后的结论:视觉报告产生减速的必然就是毫米波雷达报告的静止物体 , 于是把天桥和缓慢行驶的汽车识别为同一物体 , 导致幽灵刹车出现 。
从以上刹车现象以及特斯拉所做的结论 , 我们似乎可以认定 , 在通过桥下这个场景中 , 毫米波雷达实际上拖累了视觉系统的判断 。
需要说明的是 , 虽然特斯拉取消了超声波雷达 , 但其将会启动基于视觉Occupancy Network , 能够实现Autopilot高清空间定位、更远距离可见性以及识别和区分对象的能力 , 但目前仅能在FSD测试版中使用 。
另外 , 特斯拉还构建了一个纯视觉自动驾驶系统的多任务系统架构(HydraNets) , 具备了多任务学习技术最新实践和巨大潜力 。 同时 , 特斯拉庞大的用户群的行驶数据收集 , 也有助于智能AI训练 。
由此可见 , 特斯拉在纯视觉解决方案的探索和创新从未停止 。
此外 , 马斯克也并非像业内所言就一定会一直坚持纯视觉的解决方案 。 例如近日就有消息显示 , 特斯拉正式向美国联邦通信委员会FCC提交了毫米波雷达的相关材料 , 这意味着特斯拉可能正在设计毫米波雷达 。 根据特斯拉向当局提供的文件 , 这种高分辨率雷达将用于成像 , 配合摄像头用于自动驾驶的探测方案 。
其实从市场和用户的角度 , 无论是特斯拉的纯视觉 , 还是与之相对的融合解决方案 , 都曾出现过出险和避险的情况 , 这说明自动驾驶在取得成效的同时 , 仍有创新和改进的空间 。

推荐阅读