本文来自于公众号驭势未来,是驭势科技的微信公众平台,本博客收录的这篇文章版权作者吴甘沙,博客中仅对部分内容进行编辑。
作者:吴甘沙
原文链接:here
声明:文中的观点只代表版权作者的观点,本转载不涉及商业利益,只作为学习交流使用,并在此感谢作者无私的分享。
——————————————————————————正文分割线——————————————————————————
很多场合,“智能驾驶”和“无人驾驶”被混为一谈,而后者显然更为大众所喜闻乐见。更加专业的群众,愿意用“L4”、“L5”来说事。“L5”的车就像变形金刚汽车人,降落到世界任何一个地方,马上能熟练地汇入滚滚车流,这显然仍是遥远的传奇。于是“L4”成了圈子里所有人的寄托。当然,每个圈子里都有所谓的鄙视链,比如这个圈子里:
L4的看不起L3,殊不知L3的极限能力与L4相差无几,从L3出现意外状况、到驾驶员接管前的10几秒,需要无人状态的fail operation(比如减速靠边、停到安全区域),这种能力已经非常接近L4。
在大马路上练的L4,看不起各种特殊场景的L4。这里也有几个误解:
第一,如果跑来跑去只在几条大马路上,那几条大马路也与“限定场景”无异(机器学习里叫overfit)。你马上挑出几条新的马路来,估计谷歌Waymo也够呛。
第二,很多特殊场景也是开放环境。比如大商场的停车场有社会车辆、出没不定的行人和拥挤的十字路口,与大马路相比,主体算法的难度是类似的,差别只是在于训练数据和反应速度(这又取决于传感器的工作距离、分辨率和计算芯片的处理速度)。
第三,很多特殊场景是需要A照司机的,这些场景需要“C照马路小白”所不具备的驾驶技巧。
第四,很多人看好的大马路L4,却是在3、5年内很难真正无人驾驶的(需要坐安全测试员),而很多特殊场景的L4,却是在1、2年内可以商业化的。
更要命的是,今天的L4算法(包括大马路和特殊场景),很可能都无法到达终局。换言之,满城尽跑无人车时,他们大概率是不同的物种,跑不同的人工智能算法。
最后一点似乎是故作惊人之语,这里不妨科学论证一下。
且看这张图。
图中X轴是需要干预或出现事故的平均里程数。Waymo在2017年的水平是每自动驾驶5596英里(9006公里)才有1次人的干预,遥遥领先于其他选手。然而再推敲下去,细思极恐。
第一,Waymo的水平离美国人类驾驶员的平均水平,差距巨大。后者是每16.5万英里出一次普通事故,每9000万英里才出一次致命事故。这个数据是基于加州城郊公路的30多万英里,交通场景总体不算特别难。
第二,Waymo的提升速度在减缓。其2015年的水准是1300英里一次干预,到2016年提升了近3倍,但2017年相较去年只提升了10%出头。再看月度的数据,2017年除了年底出现了令人惊异的增长,其他月度还是起伏不定。年底出现跃升,前年也有过,也许跟假期车少有关?无论怎样,2018年是否能有显著增长,还不好说。
第三,Waymo的算法(以及今天几乎所有L4的算法)都是数据驱动的,见过的大概率会,没见过的大概率不会,所以Waymo领先主要是领先在数据积累,去年底的时候已经有640万公里的实测数据。然而,对Waymo来说,通过路测方法收集数据已经变得异常昂贵:2017年的63次干预中大致有2/3是因为算法问题,而针对每个问题,要花1万多公里的油费和测试驾驶员人工费用,才能获得1个高价值数据。
离人的水平还远,数据的平均价值密度越来越稀疏、采集成本越来越高,今天的方法,要到达明天,看似不可能的任务。
有人会问,Waymo不是最近宣称要在凤凰城实施前排无安全员的运营了吗?如果是5596英里的平均事故率,Waymo是不可能大规模商业化的,他们的做事态度还是比优步/Otto的“安全第三”靠谱,要知道,出一起人命事故,可能就失去顾客对其的信任。我想可能是几个原因:1. 凤凰城的路况比加州城郊公路简单,这个从Waymo的宣传视频可以看出来,凤凰城可以说气候宜人,人烟稀少。2. 凤凰城的区域更小,算法已经overfit。3. 无独有偶,Waymo也在加州申请了前排无人的测试车牌照,但有远程遥控。因此,不排除在凤凰城也有远程遥控作为最后的冗余。
加州的亚军获得者,通用汽车2017年的水平是每1200英里有一次干预,考虑到是在旧金山的更复杂路况中获得,让人刮目相看。为此,他们还专门diss了一下Waymo,在各项指标的复杂度上,旧金山是凤凰城的1.6到46.6倍。但是,最近的一篇文章显示,通用汽车在旧金山也是捡了些简单的道路,隧道、掉头、单车道、一些十字路口和环状交叉路口都刻意避过了。去年说好了要去纽约,现在却发现旧金山的很多经验几乎很难用在纽约。
那么,是否今天的L4就完全没有价值了呢?下面该怎么走才能到达明天?
对此,驭势科技做了一系列的战略规划,现与大家一起探讨。
首先是探索多场景融合后的算法泛化能力。用人话说就是,熟读唐诗三百首,不会做诗也会吟。
做无人驾驶,需要广度(大跨度的多种场景)和深度(每个场景下特定技术的深入研究)双管齐下,其中开放道路L4也是场景的一种。所有场景的无人驾驶都实现了,全场景无人驾驶才会实现。一方面每种场景都有其独特的算法需求,另一方面不同场景下无人驾驶系统大部分的功能是共用的,技术之间的泛化是可行的。
驭势科技从去年开始尝试多种场景的L4,包括机场滑行道、机坪和航站楼的无人驾驶(需要A照特殊训练的司机,与飞机会车、穿过长隧道、上下立交桥),微循环的无人驾驶(开放的嘈杂环境、非结构化道路),大型停车场的无人驾驶(开放的狭窄环境、多层室内的精准定位)等。不同的场景着重训练了驾驶智能的不同能力,比如下面视频是自动代客泊车在室内停车场的表现:
视频中,在某个主机厂客户的现场监督下,该车连续做远距离的自动代客泊车,每一次完成后都用红色胶带记录了泊车位置,完成20次后,对记录位置的误差进行测量,在没有启用库位线相对定位的前提下,绝对定位误差区间是左右7厘米、前后10厘米。考虑到其中包括了定位和控制的误差(车上安装的是还未量产化的低成本线控系统),而且车上没有激光雷达,这个基于视觉的定位系统基本达到了室内停车场高精度自动代客泊车的产品化要求。
随后的一个重要发现是,在多种异质的场景里交叉训练,比在一种场景里(比如熟悉的几条大马路)训练更有用。停车场的系统在机场和微循环的场景中经过了大量的训练和验证。
紧接着,我们做了一个大胆的尝试,把算法转移到1辆新的、装备同样软硬件系统的车上,经过短短1个星期的适配和训练,这辆车已然具备了相当强的复杂城市环境L4能力。请看下面这个一镜到底的视频:
这条路覆盖了结构化城市道路、国道、环岛、隧道、换道、城镇道路,既有简单的单向车道,也有双向车道,既有大货车,更有人车混行。在大约10公里的开放道路上,无论途经隧道光线发生剧烈变化且丢失GPS信号时,还是被大货车环绕时,或者在环岛快速转向时,甚至因为季节变化导致的环境变化中,视觉系统都全程提供了稳定的不亚于高精度导航系统的定位结果。之所以视觉系统能够作为主传感器,源于上面在停车场、机场和微循环的积累。
必须说明,这辆车本来是做自动代客泊车的,线控的限速在40公里左右,也没有64线激光雷达,但是它在短短1个星期所呈现出来的能力,远超我们的预期。目前,北京、上海等地已经颁布开放道路测试细则,我们将与主机厂合作,基于去年的积累,积极申请牌照,继续探索泛化能力的极限。
其次,探索新的人工智能方法。为什么人能够在驾校学习几十个小时、上路开了几千公里,就能够达到“L5”?如何让今天的弱人工智能去适应开放、动态、不确定的环境?如何提升人工智能对未知输入和欺骗性输入(或者更专业的“对抗输入”)的鲁棒性?要回答这些问题,必须在科技的前沿寻找思路。驭势科技跟包括加州大学伯克利分校在内的国际国内多所顶尖大学展开了合作,短短1年中,我们对未来的道路看得更加清晰了。不妨摘录一些加州大学伯克利分校的科研项目以飨读者。
方向在这些标题里面,全新场景的处理,对不确定性的容忍度,自我学习提升,和跨领域的迁移学习(比如不同城市,或从仿真环境向真实场景迁移)。
最后,假设有新的算法被不断研发出来,如何证明新算法是安全的呢?
有一段轶事,2016年5月的特斯拉致命车祸,导致了大众对自动驾驶的信任危机。马斯克颇为不忿,他指出Autopilot在此次事故之前安全行驶了1.3亿英里,而美国人类驾驶员的平均水平是9000万英里,已然超越了人类。他这个论证中有两个谬误。一是Autopilot是辅助驾驶,还有人类驾驶员在纠正Autopilot的错误,所以这个1.3亿英里是有水分的。第二,这个数据的统计置信度是不够的,因为里程样本实在太小了,如果把先前在中国邯郸发生的那起致命事故算上,其安全里程一下子从1.3亿降到了1.3亿除以二,6500万英里。
那么,到底需要多少里程,才能有足够的置信度做孰优孰劣的判断呢。美国著名的智库兰德公司做了几个数学模型,结论如下图:
挑其中1个结论来说,如果要有95%的置信度判断无人驾驶比人类水平(9000万英里/致命事故)好20%,需要跑110亿英里。如果说你有一个100辆车的车队来跑,平均40公里的时速,需要连续不停跑500年。考虑到全世界最大的车队Waymo去年也就600台车,9年跑了400万英里,这看起来是不可能实现的任务。况且,除了谷歌之外,常见的开放道路L4测试车在配全传感器后,要好几十万美元,100台车的车队已经是天价。
那么,只剩下1条路了,想办法把算法装到至少100万台不那么昂贵的车上,让每台车跑1.1万英里,110亿英里就实现了。
首先,这些车必须是增量的车,不可能找现有的车改装,因此算法公司必须与大车厂进行合作。
其次,这些车不可能无缘无故装一些还在验证的算法,必须是装了成熟的、有用的智能驾驶功能,这样才可能卖掉100万台。
第三,这个功能具备某些场景的智能驾驶能力,但在大量的场景仍然需要人来驾驶。那么,在有人驾驶状态下,系统切换到“影子模式”,用来跑新型算法、对其进行验证。算法在“影子”中持续做模拟决策,并且把决策与人的行为进行对比,如果两者显著不同,那么有两种情况:一,如果算法有高置信度的把握人开错了,将给予人警告(类似ADAS);二,算法判断人做得更好,或场景数据在感知、定位方面也具有高价值,那么这些数据将自动传回,后台工程师判断是否有利于提升算法。
这里的核心问题是,车上装什么样有用的系统?而这个系统如何能够跑新型L4算法?在这一点上驭势的尝试是非常令人鼓舞的,上面我们展示的两个视频,自动代客泊车和L4城市开发道路都是基于同一个车型和系统配置,能够在两种模式之间切换。
今天多数L4系统采用昂贵的传感器和计算资源(最近百度Apollo在转向低成本方案),而且只适配少数几款车型(比如林肯MKZ加AutonomousStuff的线控)。我们从一开始选择低成本思路,不使用高线数激光雷达、高端GPS和惯导系统,攻坚关键零部件和底层线控能力(虽然执行器性能难称完美),坚持机器视觉为主、其他传感器为辅的思路,并且对算法和系统进行深度优化、使之能够运行在普通计算资源上。这意味着我们多数的无人驾驶SKU具备“影子模式”跑开放道路的能力。
未来的3-5年,我们期待与主机厂合作,将自动代客泊车和L3系统装在至少100万台车上,与此同时,下一代的驾驶智能算法将横空出世,以“影子模式”的验证方式快速迭代。
最后做个总结:
一,今天仅仅在大马路上跑L4,无法商业化,而且在大概率上是到达不了终局的;
二,在很多特殊场景中训练L4,不仅可以实现商业化,而且多种场景融合的泛化能力超预期,在开放道路L4上展现了巨大潜力;
三,需要研发适应开放、动态、不确定环境的新型L4算法;
四,新算法和商业化的算法(比如自动代客泊车和L3)必须能够同时跑在同一套系统上,装在至少100万台车上,通过“影子模式”实现高置信度的快速验证。
原文:https://www.cnblogs.com/cvtoEyes/p/8939987.html