详情
2016无人驾驶转折年 国内外无人驾驶发展都怎样?
作者:Laura
时间:2016-12-23 11:25:11
2016年伊始,通用汽车就斥资10亿美元收购了无人驾驶技术创业公司Cruise Automation。今年8月,Uber又花费6.8亿美元收购了刚刚成立8个月的无人驾驶卡车创业公司Otto。
关键词: 无人驾驶

  2016年伊始,通用汽车就斥资10亿美元收购了无人驾驶技术创业公司Cruise Automation。今年8月,Uber又花费6.8亿美元收购了刚刚成立8个月的无人驾驶卡车创业公司Otto。

  今年秋天,发生了科技行业历史上规模第二大的并购——高通斥资390亿美元收购恩智浦。这笔收购背后的逻辑显而易见:高通需要进军无人驾驶汽车芯片市场。  


  各大汽车相关企业都如此关注无人驾驶,可见说2016是无人驾驶的转折年一点都不为过。

  无人驾驶发展如火如荼

  另外,无人驾驶芯片领域还出现了其他令人振奋的现象。作为无人驾驶汽车的关键零件供应商,英伟达股价在2016年上涨两倍多。行业巨头英特尔也在11月表示,将向无人驾驶汽车领域投资2.5亿美元,包括开发车用芯片和车用软件。

  除了大笔资金投入外,几乎每个星期都会出现与无人驾驶汽车相关的重要新闻。很多企业甚至开始邀请普通人试乘无人驾驶汽车。  


  Uber无人驾驶试验车

  Uber今年秋天就开始让匹兹堡和旧金山的客户乘坐无人驾驶沃尔沃专车。波士顿创业公司NuTonomy也开始在新加坡提供无人驾驶出租车。但这些汽车都配备了人类驾驶员,以便在发生故障时夺过车辆控制权。

  但最大胆的举措或许还是来自特斯拉。该公司今年10月宣布,其所有车型都将配备全自动驾驶所需的硬件,今后只需开发软件即可。

  这项战略帮助特斯拉收集了车辆数据,之后便可用于训练无人驾驶汽车。没有任何一家业内企业能在这方面与特斯拉媲美。

  一直走在无人驾驶汽车行业前沿的谷歌则将测试城市增加到4个。今年12月,该公司还将其无人驾驶汽车项目剥离为独立公司Waymo,并归于母公司Alphabet旗下。该公司的汽车2016年自动行驶了100多万英里。  


  尽管偶有冲突发生,但监管者整体而言还是支持无人驾驶技术。

  自动驾驶汽车从根本上改变了传统的“人—车—路”闭环控制方式,将无法用规则严格约束的驾驶员从该闭环系统中请出去,从而大大提高了交通系统的效率和安全性,是汽车工业发展的革命性产物。

  从20世纪80年代开始人类就展开了车辆自主行驶的研究。美国是世界上研究自动驾驶汽车最早、水平最高的国家之一。其中谷歌无人驾驶汽车影响力最为广泛,也是技术水平最成熟的公司之一。但是能做到如谷歌自动驾驶车技术水平的公司寥寥无几,可见其关键技术门槛是比较高的。

  下面随小编一起看看自动驾驶汽车中的三个关键技术。

  无人驾驶关键技术

  一.环境感知

  传感器探测环境信息,只是将探测的物理量进行了有序排列与存储。此时计算机并不知道这些数据映射到真实环境中是什么物理含义。因此需要通过适当的算法从探测得到的数据中挖掘出我们关注的数据并赋予物理含义,从而达到感知环境的目的。

  比如我们在驾驶车辆时眼睛看前方,可以从环境中分辨出我们当前行驶的车道线。若要让机器获取车道线信息,需要摄像头获取环境影像,影像本身并不具备映射到真实环境中的物理含义,此时需要通过算法从该影像中找到能映射到真实车道线的影像部分,赋予其车道线含义。  


  (▲ 博世自动驾驶传感器配置方案)

  自动驾驶车辆感知环境的传感器繁多,常用的有:摄像头、激光扫描仪、毫米波雷达以及超声波雷达等。

  特斯拉的Autopilot系统通过摄像头、毫米波雷达与超声波雷达的融合数据来控制车辆在高速路车道行驶、变道以及根据交通情况调整车速。

  谷歌的全自动驾驶测试车用的是价格昂贵、结构复杂的远距传感系统LiDAR(激光雷达)。

  丰田透露过他们的高速道路自动驾驶汽车上有12个传感器:1个藏在内后视镜里的前摄像头,5个测量周围车辆速度的雷达,和6个探测周围目标位置的激光雷达。

  尽管也有一些企业另辟蹊径,希望通过V2X技术来完成环境感知的工作,但是V2X严重依赖于基础设施,而传感器则不受这个限制。

  1.激光雷达

  LiDAR系统使用的是旋转激光束。宝马、谷歌、日产和苹果的无人驾驶试验车用的就是这项技术。但要想在量产车上应用,价格必须大幅下降。业内普遍认为,再过几年这个目标就能实现。  


  △激光雷达工作原理(图片来自Velodyne)

  激光雷达的工作原理是通过发射和接收激光束来实现的。在其内部,每一组组件都包含一个发射单元与接收单元。上图的Velodyne使用了旋转镜面的设计。

  这套发射/接收组件和旋转镜面结合在一起,能扫描至少一个平面。镜面不只反射二极管发出去的光,而且也能把反射回来的光再反射给接收器。通过旋转镜面,能够实现90到180度的视角,并且大大降低系统设计和制造的复杂度,因为镜面是这里面唯一的运动机构。

  脉冲光以前被用于探测距离。探测距离的原理是基于光返回的时间,激光二极管发出脉冲光,脉冲光照射到目标物后反射一部分光回来,在二极管附近安 装一个光子探测器,它可以探测出返回来的信号,通过计算发射和探测的时间差就可以计算出目标物的距离。脉冲距离测量系统一旦被激活就能收集到大量的点云。

  如果点云中有目标物,目标物就会在点云中呈现出一个阴影。通过这个阴影可以测量出目标物的距离和大小。通过点云可以生成周围环境的3D图像。点云密度越高,图像越清晰。

  通过激光雷达来生成周围环境的3D图像有几种不同的方式。

  一种实现方法是让发射/接收组件上下移动同时让镜面旋转,有时也叫这种方法为“眨眼点头”。这种方法能生成高度方向上的点云,但是减少了方位数据点(azimuthdatapoints),因此点云密度会降低,分辨率也不够高。

  另一种方法叫“光扫描激光雷达”(flashLiDAR)。这种方法是使用2D焦平面阵列(FocalPlaneArray,FPA)捕捉像素 距离信息,同时发出激光来照射大块面积。这类传感器结构复杂,制造困难,因此还没有广泛的商业应用。但是它属于固态传感器,没有运动部件,因此将来有可能 替代现有的机械式传感器。

  目前虽然有不同的LiDAR结构可以产生很多形式的3D点云系统,但是还没有一种系统能达到自动驾驶导航的应用要求。比如说,有很多系统能生成 精致的图像,但是产生一幅图像需要花好几分钟。这种系统就不适合移动传感类的应用。还有一些光扫描系统的刷新率很高,但视角和探测距离又太小。另外还有一 些单光束(singlebeam)系统能提供有用的信息,但是如果目标太小或者超出了视角就探测不到了。

  要想让LiDAR传感器的使用最大化,必须要能够看到周围所有的地方,也就是所说的需要实现360度视角;最终给用户输出的数据要有实时性,因 此必须使数据收集和画面生成之间的时间延迟最小化。驾驶员的反应时间一般是十分之几秒,如果我们要实现自动驾驶导航,那么导航电脑的刷新率至少要达到十分 之一秒。视角也不能只看水平方向,还需要有高度方向的视角,否则车就会掉到路上的坑里。垂向视角应该向下尽可能的靠近车辆,以便让自动驾驶适应路面的颠簸 和陡坡。

  目前,业内有数家生产制造激光雷达的企业,他们的产品也有着各自的特色。

  Velodyne拥有高精度激光雷达技术(HDL),据称其HDL传感器能够提供360度水平视角,26.5度的垂直视角,15Hz的刷新率, 并可以每秒生成一百万像素的点云。今年Velodyne推出了小型化的32线传感器,可以实现200米的探测距离,垂直视角28°。  


  △Velodyne固态32线UltraPack激光雷达

  Leddar公司同样也有具备360°探测能力的激光雷达产品。并且,因为同时提供ADAS解决方案,Leddar同样也提供传感器融合技术,把不同传感器的数据组合在一起,从而形成车辆周边环境的整体图像。

  固态LiDAR——替代摄像头/雷达或者作为它们的补充,可集成到ADAS以及无人驾驶功能中;

  为高级别自动驾驶提供高密度点云的LiDAR;

  可以支持光扫描或者光束测量的LiDAR(例如MEMS镜面);

  Ledaar的激光雷达探测距离可达250m,水平视角可达到140度,每秒可生成48万像素的点云,水平和垂直方向的分辨率可达0.25度。

  2.视觉图像传感器

  现在一个很广泛的应用是将2D激光雷达与视觉传感器相结合,不过相比于激光雷达,视觉传感器低成本的特性,也让其成为了在自动驾驶解决方案中不可或缺的存在。

  通过视觉传感器的图像识别技术对周边环境进行感知,对于自动驾驶而言,除了知道在什么位置存在什么物体/行人之外,进而像车辆发出减速刹车等指令来避免事故这一功能之外,是以图像识别为基础,能够理解当前的驾驶场景,并学会处理突发事件。  


  △视觉传感器工作流程

  如果说激光雷达的难度在于如何让其性能能够满足自动驾驶导航的需求,那么摄像头的难度则在于从感知拔高到认知的这一过程。

  以人眼来进行类比的话,人类驾驶员在看到行人或车辆之后,会基于看到的景象对行人或车辆的下一步行动有个预判,并根据预判来控制车辆。自动驾驶 车同样需要这个「预判」的过程,而摄像头就起到观察的作用。自动驾驶汽车必须能够对车内人员、车外行人、车附近人们的行为进行观察、理解、建模、分析和预 测。

  这个从观察到预测的过程同样适用于道路上的其他车辆,不过,如何获取驾驶场景的整体含义,如何处理突发的场景和目标,如何针对特定目标(行人或车辆)准确进行短时或长时的行为分析,以及如何对周边的人或车辆进行行为预测并决策,这些技术都有待于进一步的深入研究。

  当然,自动驾驶的传感器并不只是激光雷达与摄像头两类,毫米波雷达与超声波雷达,以及目前还并没有为自动驾驶所用的声音传感器,希望以后能和各位一起继续探讨。

  针对不同的传感器,采用的感知算法会有所区别,跟传感器感知环境的机理是有关系的。每一种传感器感知环境的能力和受环境的影响也各不相同。比如 摄像头在物体识别方面有优势,但是距离信息比较欠缺,基于它的识别算法受天气、光线影响也非常明显。激光扫描仪及毫米波雷达,能精确测得物体的距离,但是 在识别物体方面远弱于摄像头。同一种传感器因其规格参数不一样,也会呈现不同的特性。长距离毫米波雷达探测距离长达200米,角度范围较小(±10度), 而中距离雷达探测距离为60米,角度范围较大(±45度)。

  为了发挥各自传感器的优势,弥补它们的不足,传感器信息融合是未来的趋势。事实上,已经有零部件供应商做过此事,比如德尔福开发的摄像头与毫米波雷达组合感知模块已应用到量产车上。

  二.行为规划  


  (▲ 变道超车示意图 )

  说到行为规划也许大家会比较陌生,我们可以先从路径规划开始讲讲。路径规划的概念在机器人中使用比较普遍,一般定义为:

  在具有障碍物的环境中,按照一定的评价标准,寻找一条从起始状态到目标状态的无碰撞路径。对于无人车来讲,若确定了目标地点的车辆位姿,车辆具体以怎样一条运动路径行驶到目标地点,即为路径规划。

  路径规划其实包含大范围不考虑运动细节的全局路径规划以及具体到运动轨迹的局部路径规划。

  为了将无人车的局部路径进行形象地归类、分析,引入了“行为”的概念。车辆在城市道路自主行驶时,它应具备车道保持、变换车道、路口直行、路口拐弯、掉头、绕障、智能启停、自动泊车等驾驶行为。行为的有序排列及有机衔接,方可完成整个自动驾驶任务。

  “驾驶行为”是局部路径中细分出来的行驶单元,当然它的划分应该是多样性的,主要取决于算法实现。

  行为与行为之间会保持相对独立性,但是行为切换时又具有平滑过渡的特征。车辆行驶中,何时采用何种行为,即为行为规划(也有称之为行为决策)。

  单个驾驶行为,其实目前很多整车厂或科研院所做了相当多的工作,甚至有的已经推向市场。如特斯拉的车道保持、自动变道、跟车功能,这些都是驾驶行为的具体实例。但是这些行为如何切换,如何过渡,特斯拉将其交给了人。自适应巡航、车道保持、自动变道,都需要驾驶员手动操作后托管给机器,并随时准备接管驾驶。

  人在同样的工况中驾驶车辆,产生的驾驶行为序列是不一样的,甚至同一行为的具体执行区别也较大,这跟人的性格、安全意识和当时的心情等有关系。 比如,我们在赶时间时,变道次数会增多,超车的安全系数会降低;新手开车时,变道时机把握不好,经常急刹车等;甚至在面临事故时,是选择撞车还是撞旁边的 人,不同的人可能有不同的选择。这些很多属于人的高级思维,也涉及到法律、伦理道德,目前机器还很难达到这个层次。但是人工智能或许是解决这一问题的突破口。

  三.车辆定位

  自动驾驶汽车进行全自主行驶时,需要解决三个基本问题:

  1.车辆在哪;2.往哪儿去;3.怎么去。

  车辆在哪其实就是对车辆的定位。定位方法有多种,比如卫星定位、地面基站定位、视觉或激光定位以及惯导定位等。目前国内高校无人车使用卫星定位+基站定位方式比较多,后两种基本没有涉及到。  


  (▲ 卫星定位)

  每一种定位方式都有其局限性,定位方式融合是趋势。

  比如卫星定位系统虽然适用范围广、绝对位置精度高,但是其不适用于室内或有遮挡物区域、位置也会随时间漂移。视觉或激光定位相对位置精度非常高,无位置漂移,但是其受环境影响非常大。

  将定位技术应用到无人车上时,卫星定位可以解决大范围绝对位置定位、高速公路定位以及其他开阔空间定位问题,但是当车进入隧道、高建筑物路段或室内时,定位信号会不稳定或丢失。这时需要视觉或惯导等室内定位方式去弥补。

  车辆定位会直接或间接影响车辆运动控制与行为决策的实现,甚至也是感知环境所需的重要信息。在执行已经规划出来的运动轨迹时,运动控制算法需要 定位信息不断反馈实际的运动状态做实时的调整。在进行行为切换时,切换时机需要充分了解到车辆所处交通环境的位置。感知方面,比如利用SLAM技术构建地 图,就需要车辆的相对定位信息。  


  无人驾驶汽车行为决策系统的结构

  国内外无人驾驶发展趋势

  一.国内发展

  不同于国外车企以自主研发为主,我国汽车厂商多采取与国内科研院所、高校合作研发无人驾驶技术,其中已经开始相关研究工作的企业有一汽、上汽、北 汽、奇瑞、长安等。其中,2015 年 7 月,长安汽车发布智能化汽车“654”战略,计划到 2025 年建立起 1500 人的研发队伍,累计投入 130 亿元提升无人驾驶等智能汽车技术水平,并掌握全自动驾驶技术。

  

  国内主要整车企业无人驾驶汽车研发情况

  我们认为,目前我国无人驾驶汽车技术发展仍以汽车厂商为主导,整体上处于自动驾驶 1 级(个别功能自动)到自动驾驶 2 级(多种功能自动)的过渡阶段,发展明显滞后于国外。为加快提升技术水平,《中国制造 2025》重点领域技术路线图已经将无人驾驶汽车作为汽车产业未来转型升级的重要方向之一,未来将不断加大政策支持力度。同时,随着 5G 建设的推进,“万物互联”将成为可能,从而为智能驾驶汽车的迅速发展奠定网络基础条件。

  二.国外无人驾驶汽车技术发展模式:

  1.丰田

  丰田宣布 2020 年左右实现可在“汽车专用道路”上使用的自动驾驶技术,为建立无人驾驶所需的高精度地图,丰田推出了一套“地图自动绘制系统”,该系统可以充分利用搭载于 市销车上的摄像头及 GPS,自动绘制车辆自动驾驶所必须的高精度地图,该项技术有望为将来的自动驾驶车辆提供行驶支持,未来还有望扩充应对“一般道路”及“道路障碍物”等方 面的功能。

  该项技术的基本原理是利用搭载了摄像头的车辆,在行驶过程中采集路面图像数据和地理位置数据,并将数据统一反馈到信息中心进行集中处理和调整,进而自动绘制出大范围高精度的地图。

  该系统采用了由丰田中央研究所开发的空间信息自动生成技术“COSMIC”(云空间信息生成),可利用车辆收集的图像数据和 GPS 信号绘制高精度地图。

  该系统通过市销车及现有基础设施收集信息,因此在实现信息实时更新的同时,还能有效控制系统成本。

  2.沃尔沃

  作为汽车安全的领导者,沃尔沃提出到 2020 年确保其汽车产品不会出现重大伤亡事故,而发展自动驾驶技术正是这一目标的产物。目前,沃尔沃的车辆已包含有自动紧急刹车、行人和骑车者监测、车道偏移辅助和自适应式巡航控制等技术。

  目前,沃尔沃已进入“高度自动驾驶”的实质性项目测试和商业化阶段,为加快无人驾驶相关技术研发和推广,2014 年沃尔沃发布了与爱立信打造的 Sensus 智能操作系统,Sensus 智能操作系统基于爱立信的云端服务,提供包括互联(Connect)、服务(Service)、娱乐(Entertain)、导航(Navi)、控制 (Control)在内的车载互联功能,以实现安全、便捷、智能、高效的车内外互联体验,旨在打造基于车联网、物联网和大数据的智能城市交通生态系统。

  目前,Sensus 智能操作系统在中国的合作伙伴包括百度、联通、高德、豆瓣等。

  同时,沃尔沃与苹果 CarPlay 和谷歌 Android Auto 均已达成合作联盟,未来沃尔沃车主可通过 Sensus 与目前两大应用最广泛的智能手机平台进行互联互通。

  3.宝马

  早在 2013 年,宝马就与汽车零部件供应商大陆集团合作开发无人驾驶汽车,主要目的是为 2020 年之后将自动驾驶技术投入应用作准备。

  2014 年,宝马展示了其研发的无人驾驶技术,该技术不仅可以帮助车主在交通状况拥堵的城市找到便捷畅通的行驶路线,同时并不会夺走驾驶员对汽车的掌控权。宝马将 其命名为“UR:BAN research”(城市空间),该技术是以用户为主的网络管理和辅助系统,致力于帮助驾驶员避开路上的行人,通过预测交通信号灯的变化方式使出行更加顺 畅更加高效。

  “UR:BAN”项目的研发将会持续到2016年,并将重点放在三个方面的研发上:认知辅助、网络化交通系统、交通中的人为因素。“认知辅助”系统的目标是,帮助驾驶员时刻关注来往行人的动向。

  宝马设想在汽车上安装类似“认知辅助”系统,对行人进行自动分析,并对车主做出预警,汽车随时采取自动转向或自动刹车的措施,避免撞到行人。

  目前,宝马已将这一技术在宝马 5 系上进行试验,该技术能识别出行人的体形,并通过计算程序估算出行人的位置和将走的路线。

  宝马大力推进的另一项目“Urban Roads”着重开发“绿色协调和减速辅助系统”,该系统可计算出红绿灯的变换时间,并将其结合当前的实时路况信息,之后随时调整道路和发动机设置,以实现最高效的驾驶状态。

  在 2015 年的 CES 展上,宝马推出了全新的自动驾驶技术,包括 360°预防碰撞系统和多层停车场全自动泊车技术。当存在碰撞危险时,360°预防碰撞系统会通过报警声向驾驶者发出警告,还可通过自动制动干预以厘米级 精度使车辆停止。同时,通过在试验车型上安装了高精度的 GPS 以及传感器列阵,在分析完大量数据之后,汽车会针对当前路况做出精确判断。

  4.Tesla

  特斯拉 Model S P85D 在发布时,厂商就明确表示其具有各类传感器,可实现自动驾驶功能。只不过,限于当时的技术条件限制,软件方面却没有全部开放所有的个功能,特别是自动驾驶功能。

  2015 年 10 月,公司发布 7.0 版本固件,固件中搭载了名为 Autopilot 的自动驾驶功能。用户通过在线升级厂商推送的固件后即可解锁自动驾驶功能,特斯拉的自动驾驶功能主要包括自动车道保持、自动变道和自动泊车等功能。

  与谷歌无人驾驶所不同的是,特斯拉并不是真正意义上的无人驾驶,而是高级自动驾驶(或辅助驾驶),谷歌的解决方案更多是依靠高精度雷达、高精度传感器和高精度地图,而特斯拉的高级自动驾驶则更多地依赖摄像头,依靠机器视觉进行车道保持、变道等功能。

  就其理念而言,Google更理想化,直接指向终极解决方案,而Tesla更务实些,现阶段的可行性更高。近期,公司发布了最新的 7.1 版本固件。7.1 系统新增加了辅助转向的安全限制,当车主开着特斯拉 Model S 进入住宅区行驶时,车辆可以通过地图自动识别道路环境,将车辆限制在一定速度内行驶。

  此外,7.1 系统还加入了手机召唤功能。借助召唤功能,即使驾驶员在车外,Model S 和 Model X 也能完成泊车和驶离车位的操作,甚至还能根据需要开启和关闭预编程车库门。召唤功能是公司迈向全自动驾驶的重要一步,展现了特斯拉在自动驾驶领域的领先地 位。目前,特斯拉被认为是全世界量产车中主动安全和准自动驾驶性能最先进的汽车。

  值得注意的是,特斯拉的自动驾驶功能也在通过“自主学习”进行不断完善和优化。目前,遍布 42 个国家的客户已驾驶 107000 多辆特斯拉汽车累计行驶了近20 亿英里。特斯拉自动驾驶功能正在以每天 100 多万英里的速度进行学习。特斯拉能通过汽车与中央数据库的无线连接来收集和在车辆间共享详细行驶数据,这令其在打造可靠体验方面具备了一个独特优势。

  从目前发展情况看,丰田、沃尔沃、宝马、tesla 等主流跨国车企无人驾驶技术主要从自动驾驶 1 级(个别功能自动)向自动驾驶 4 级(完全自动驾驶)横向发展,遵循由易到难,由简单到复杂的发展路径,通过车联网和 ADAS 着手,自建或共建高精度地图系统,不断丰富自动驾驶功能及内涵,循序渐进,最终实现真正意义上的无人驾驶。

  结束语

  自动驾驶汽车是汽车界与机器人界碰撞、融合的产物,它汇集了机电一体化、环境感知、电子与计算机、自动控制以及人工智能等一系列高科技。汽车作为人类重要的交通工具,随着这些子技术的融合、发展与突破,必将变得越来越智能,最终实现全天候无人驾驶。

上一篇:诺基亚将携手Nedaa在迪拜设立IoT实验室 下一篇:实现厘米级定位服务的北斗地基增强系统,到底能带来什么便捷?