第一财经|蔚来ES8车祸定责待调查 “自动驾驶”滥用引行业深思

作者: 钱童心
[ 纯视觉的AutoPilot系统主要依赖于每辆车内嵌入的8个摄像头和12个超声传感器 , 以及这些传感器生成的实时数据所需的神经网络处理 。]
8月14日 , 一份关于企业家“萌剑客”车祸去世的讣告令人心痛不已 。 在讣告中 , 上善若水投资管理公司等多家企业的创始人林文钦在驾驶蔚来ES8汽车时不幸遭遇交通事故 , 年仅31岁 。
讣告中强调林文钦是在启用了“自动驾驶功能”状态下遭遇的车祸 , 而这个所谓的“自动驾驶功能”便是蔚来汽车的NOP领航辅助功能 。 而在蔚来公司看来 , NOP并不等同于“自动驾驶” 。
针对林文钦车祸事故的定责 , 还有待警方对事故的进一步调查 。 但由自动驾驶引发的车祸并不是第一次出现 , 也不仅仅涉及某家车企 , 这事关整个智能网联汽车行业和消费者利益 , 案例具有普遍意义 。
NOP视觉方案有使用条件
第一财经采访人员查询蔚来汽车网站 , 没有在主页面上找到关于NOP功能的介绍 。 不过在蔚来的APP中 , 公司发布了关于NOP功能的使用指南 。
NOP是导航系统、高精地图与蔚来NIO Pilot自动辅助驾驶系统的深度融合 , 在Pilot功能已实现的巡航车速控制、车距保持、转向辅助和转向灯控制变道功能的基础之上 , 使车辆在高精地图覆盖范围内的大部分高速公路及城市高架路段内 , 按照导航规划的路径实现自动汇入主路、变道以及自动切换至下一条高速/高架等功能 。
蔚来汽车无人驾驶系统工程部负责人章健勇在去年8月发布的指南中写道:“必须再三强调的是 , 大家绝对不能把NOP等同于自动驾驶 。 NOP仍然是一种辅助驾驶功能(蔚来Pilot驾驶辅助一样) , 且随时可能在无法满足工作条件的情况下退出 。 ”
指南强调在使用时 , 必须时刻关注交通状况及道路环境 。 并且由于路况的多样性和复杂性 , NOP将在很长一段时间内处于持续优化阶段 。 在使用NOP的过程中 , 如果发现交通状况、道路环境或车辆状况不适宜使用NOP , 或者一些非预期的加减速、变道等情况 , 应立即接管车辆 。
此外该指南还表示 , NOP的正常工作非常依赖于摄像头、毫米波雷达等传感器的状态 。 如发现车辆提示传感器受限 , 或怀疑传感器出现异常 , 则NOP的功能可能会失灵 。
从蔚来汽车的指南描述中可以看出 , 自动驾驶的实现是依靠软件和硬件的结合 。 目前大多数在辅助驾驶状态下出现的车祸 , 是由于视觉方案的技术缺陷导致的 。
达晓律师事务所管理合伙人林蔚对第一财经采访人员表示:“视觉方案的缺陷导致的车祸无法杜绝 , 特斯拉在美国发生的一系列车祸大多也都是因为这个 。 NOP同样是依赖视觉 , 但是依赖视觉的辅助驾驶的通病就是识别率以及对静止物体的识别会发生错误 , 这部分技术只能靠激光雷达来补强 。 ”
由于成本高昂 , 目前全球都还没有搭载激光雷达的量产车问世 。 激光雷达制造商Innovusion近日获得了新一轮融资 , 该公司称将与蔚来汽车合作研发新一代高性能激光雷达 , 将为蔚来智能旗舰轿车ET7提供高品质量产标配产品 。
雷达传感器通过无线电波的技术 , 即便在能见度差的情况下也能检测快速接近的物体 , 是为汽车驾驶安全提供保障的传感器之一 。 目前谷歌Waymo以及通用Cruise的自动驾驶依靠激光雷达和高清地图进行导航 。
但特斯拉CEO马斯克坚持“纯视觉 , 无雷达”的技术路线 。 他认为 , 视觉具有更高的精度 , 特斯拉已经开始在Autopilot系统上尽可能减少传感器的使用 。 马斯克曾嘲讽激光雷达是“拐杖” 。
纯视觉的AutoPilot系统主要依赖于每辆车内嵌入的8个摄像头和12个超声传感器 , 以及这些传感器生成的实时数据所需的神经网络处理 。
但业内人士认为 , 如果特斯拉将来希望达到L4级别的自动驾驶 , 那么将需要使用包括摄像头、雷达、激光雷达等多种传感器 。 “雷达和激光雷达传感器可以提供更多数据 , 这些数据可以为汽车提供更强大的检测和避开道路障碍的方法 , 尤其是在能见度较低的情况下 , 包括在夜间或恶劣天气中 。 ”一位自动驾驶行业资深人士告诉第一财经采访人员 。
辅助驾驶误导了消费者
美国运输部和汽车工程师学会对自动驾驶的演进做出5级的分层 , 自动驾驶行业通常将“ L4级”称为自动驾驶的开始 , L4级别的自动驾驶汽车 , 可以在没有人为干预的情况下 , 在特定区域内的道路上行驶 。
目前市面上大部分电动汽车的自动驾驶 , 基本仍处于L1或者L2级别 , 也就是辅助驾驶 , 随时需要人类驾驶员接管 。
今年1月 , 蔚来汽车在Nio Day上发布了预计将在第四季度交付的首款电动轿车ET7 , 同时发布了首个自动驾驶平台系统NAD(Nio Autonomous Driving) , 称将从辅助驾驶(assisted driving)升级为自动驾驶(autonomous driving) 。
小鹏汽车的辅助驾驶系统XPILOT Driving也宣称可对道路、行人等不明物体进行精准的识别 , 计算出全方位的感知能力 , 兼具自动变道辅助、车道保持、自适应续航、车道居中辅助以及自适应弯道巡航等多种自动辅助功能 , 能有效改善驾驶员的工作量 。
但小鹏汽车同时承认 , 目前在智能辅助驾驶方面还存在一定的缺陷 , 尤其是受交通、天气、道路等因素的影响 , 导致未能检测到前方车辆而发生事故 。
理想ONE目前也配备了L2级别的辅助驾驶 。 理想汽车近日重申:“理想汽车的辅助驾驶系统必须系安全带才可以使用 。 在车辆行驶过程中双手不要离开方向盘 , 如果超过一段时间驾驶员不接管方向盘 , 系统将会退出并在本次驾驶中禁止使用辅助驾驶功能 。 ”
多数专家认为 , 真正的“自动驾驶”是指人们可以在车辆行驶的时候 , 安全地睡在方向盘后面 。 但人们经常会在各种视频上惊讶地发现 , 在目前L2级别的自动驾驶汽车上 , 也有人假装睡在方向盘后 , 这样的危险动作更应引起警觉 。
【第一财经|蔚来ES8车祸定责待调查 “自动驾驶”滥用引行业深思】在自动驾驶技术提供商AutoX(安途)创始人、董事长兼CEO肖健雄看来 , 辅助驾驶的定义决定了它不能成为自动驾驶 , 必须要人类驾驶员手眼并用 , 否则出事是必然的 。
“这与辅助驾驶是否多加激光雷达没有关系 。 自动驾驶是基于大量的算法和基础平台开发的 , 需要AI系统的支持 , 并不是说一辆车装上了自动驾驶芯片 , 配备了激光雷达传感器 , 就能成为自动驾驶汽车了 。 ”肖健雄对第一财经采访人员表示 。
肖健雄对第一财经采访人员说道 , 辅助驾驶是主要由驾驶员参与的 , 如果出现事故了 , 那么驾驶员需要承担责任 , 但自动驾驶是完全由AI系统决策做出驾驶行为的 , 不需要有人参与到具体的驾驶过程中 , 一旦出现事故 , 由AI承担责任 。 道路安全人命关天 , 自动驾驶技术出现的初衷 , 即是为了减少人为不必要的失误导致的交通事故 。
目前全球的政府机构都尚未对“自动驾驶”进行标准化定义 , 这使如何定义“自动驾驶”的争论变得复杂 。 即便是在汽车行业最发达的德国 , 也尚没有用于城市自动驾驶的法律框架 。
去年7月 , 德国慕尼黑法院就一项针对特斯拉辅助驾驶Autopilot和全自动驾驶FSD功能误导消费者的指控做出裁定 , 认为特斯拉给了消费者不切实际的承诺 。 这项由德国非营利机构“反非公平竞争中心”发起的指控认为 , 特斯拉称“Model 3具有实现自动驾驶的全部潜力”系夸大 , 涉嫌虚假宣传 。
美国加州监管机构DMV也在今年早些时候警告特斯拉 , 要求其必须精确地传达其系统的正确使用方法和限制 。 DMV写道:“正如特斯拉所知 , 公众对这项技术局限性的误解及其滥用会带来悲剧性的后果 。 ”美国国家公路交通安全管理局(NHTSA)已对涉嫌与特斯拉相关的30多起车祸发起调查 。
当今自动驾驶全球领导者谷歌也向业内发出警示 。 谷歌旗下自动驾驶公司Waymo在一篇博客中指责“自动驾驶”一词正在遭到一些汽车企业滥用 , 这会使得公众对辅助驾驶系统功能产生错误的印象 。
Waymo已经放弃将自动驾驶称为“self driving” , 并强调所谓的“自动驾驶汽车” , 是指驾驶员座位上没有任何人员参与的情况下接载乘客的汽车 。 “使用相同的术语来指代不同类型的技术会给消费者造成混乱 , 并可能产生错误的安全感 。 必须通过使用精确的语言 , 这样可以挽救生命 。 ”
业内人士表示 , 企业为了强调自己技术的先进 , 往往做出一些不切实际的承诺 。 如果消费者误把辅助驾驶当作自动驾驶来操作 , 将会是非常危险的 。
“国内车厂在宣传时也有这样的倾向 , 即用未来的功能、用高配来吸引顾客 , 真交车时又是另一回事 , 这样的手法用到‘自动驾驶’功能时就容易出纰漏 。 ”国内某互联网巨头智慧交通负责人对第一财经采访人员表示 。
他认为 , 消费者因对自动驾驶的误解而成为受害者其实“挺冤的” 。 “消费者对自动驾驶认知能力有限 , 大都被误导 。 特斯拉在美国销售汽车时 , 给到用户的法律申明条款是比较完整的 , 具有参考价值 。 ”上述人士对第一财经采访人员表示 。
迈出安全监管第一步
自动驾驶技术仍属于科技进步的早期产物 。 在自动驾驶发展的过程中 , 仍有待国家相关政策制定部门、监管机构、整车厂商的共同努力 , 作为企业 , 也应当承担起社会责任 , 有义务向消费者进行关于自动驾驶技术的普及 , 而不是一味地宣传其自动驾驶功能的强大 。
“自动驾驶技术发展过快 , 法律法规的出台相对滞后 , 需要同步推进 。 ”上述人士称 , “人要通过交规考试才可以上路 , 而自动驾驶车上路 , 目前是没有类似考试 , 未来还要通过交管部门的交通法规符合性测试 , 才能上路 。 因为今天的自动驾驶相当于把一部分人的驾驶权交给了机器大脑 。 ”
他呼吁车厂从技术、平台到管理制度等方面 , 建立起一套完善、合规的确保自动驾驶安全上路的措施 , 同时呼吁国家未来也要建立起合规性的安全验证机构 , 确保对自动驾驶安全性进行全方位的验证 。
这种呼吁已经得到了相关部门的回应 。 8月12日 , 工信部发布《关于加强智能网联汽车生产企业及产品准入管理的意见》(下称《意见》) , 要求强化对自动驾驶功能产品的数据安全管理能力 , 特别规范了软件在线升级(OTA)功能 。 《意见》特别强调 , 企业生产具有驾驶辅助和自动驾驶功能的汽车产品的 , 应当明确告知车辆功能及性能限制、驾驶员职责、人机交互设备指示信息、功能激活及退出方法和条件等信息 。
公安部道路交通安全研究中心主任王长君近期在2021中国互联网大会智能网联论坛上指出:“自动驾驶决策所依据的交通规则缺位 , 业内现在比较关注的自动驾驶安全是功能安全、预期功能安全和信息安全 。 ”
在谈到自动驾驶面临的挑战时 , 上海市经济和信息化委员会副主任张建明在上个月举行的人工智能大会上表示:“目前自动驾驶主要面临技术和政策两方面的挑战 。 首先是技术 , 自动驾驶在不断迭代、升级 , 仍然不够成熟 , 软件系统还不够稳定、可靠 , 我们的零部件离车规级还有一定的距离;另一方面 , 相应的标准体系也还没有建立完善 , 包括产品准入、安全评价、测试认证等一套体系没建立起来 , 政策法规也仍然有挑战 。 ”
法国图灵奖得主约瑟夫·斯发基斯(Joseph Sifakis)教授在同一场合表示 , 目前自动驾驶和自主系统仍不完善 , 而多年来人们对自动驾驶的前景过于乐观 , 对自动驾驶汽车仍然存在很多误解 。
马斯克也承认 , 自动驾驶需要解决现实世界人工智能的很多问题 , 而这些难题不仅普遍存在 , 而且在不同国家和地区遇到的情况也会有所不同 。 真正的自动驾驶对人工智能的要求极高 , 要求能及时、主动并且非常准确地对路况和紧急情况做出判断 。
为改善自动驾驶汽车参与的道路安全 , 美国国家公路交通安全管理局(NHTSA)已经要求汽车制造商报告涉及自动驾驶或者辅助驾驶系统的交通事故 , 这意味着包括特斯拉的Autopilot、通用汽车的SuperCruise和福特即将推出的BlueCruise等辅助驾驶系统都需要报备相关的事故 。 NHTSA表示 , 车企上报交通事故的数据将帮助监管部门更好地快速识别涉及自动驾驶辅助系统的安全问题 , 并在必要时进行干预 。

    推荐阅读