感知系统基本介绍

电子说

1.3w人已加入

描述

感知系统基本介绍

Perception(感知)系统是以多种传感器的数据与高精度地图的信息作为输入,经过一系列的计算及处理,对自动驾驶车的周围环境精确感知的系统。

它能够为下游模块提供丰富的信息,包括障碍物的位置、形状、类别及速度信息,也包括对一些特殊场景的语义理解(例如施工区域,交通信号灯及交通路牌等)。

感知系统的构成与子系统

传感器: 涉及到传感器的安装,视场角,探测距离,数据吞吐,标定精度,时间同步等。因为自动驾驶使用的传感器比较多,时间同步的解决方案至关重要。

目标检测及分类: 为了保证自动驾驶的安全,感知系统需要达到近似百分之百的召回率及非常高的准确率。目标检测及分类往往会涉及到深度学习方面的工作,包括3D点云及2D Image(图片)上的物体检测及多传感器深度融合等。

多目标追踪: 跟进多帧的信息计算并预测障碍物的运动轨迹。

场景理解: 包括交通信号灯,路牌,施工区域,以及特殊类别,比如校车,警车。

机器学习分布式训练基础架构及相关评价系统

数据: 大量的标注数据,这里包括3D点云数据及2D的图片数据等。

传感器详解

目前自动驾驶应用的传感器主要分为三类:激光雷达(LiDAR),相机(Camera),毫米波雷达(Radar)。

开头提到,感知系统的输入为多种传感器数据和高精地图,而上图展示了感知系统物体检测的输出结果,即能够检测车辆周围的障碍物,如车辆、行人、自行车等,同时结合高精度地图,感知系统也会对周边的Background(环境背景)信息进行输出。

如上图所示,绿颜色的块状代表一辆乘用车,橙色代表一辆摩托车,黄色代表一位行人,灰色则是检测到的环境信息,如植被。

感知系统结合多帧的信息,还能对运动的行人和车辆的速度、方向、轨迹预测等进行精确的输出。

传感器配置

与多传感器深度融合

了解了关于感知系统从输入到输出的大致介绍,接下来,我简要介绍一下小马智行第三代自动驾驶系统PonyAlpha的传感器安装方案以及多传感器深度融合的解决方案。

传感器安装方案

目前PonyAlpha传感器安装方案的感知距离能够覆盖车周360度、范围200米以内。

具体来看,这套方案用到了3个激光雷达,在车的顶部和两侧。同时,通过多个广角的摄像头来覆盖360度的视野。远处的视野方面,前向的毫米波雷达以及长焦相机将感知距离扩到200米的范围,使其可以探测到更远处的物体信息。这套传感器配置能保证我们的自动驾驶车辆在居民区、商业区、工业区这样的场景进行自动驾驶。

多传感器深度融合解决方案

多传感器深度融合的基础

多传感器深度融合的方案首要解决的是将不同的传感器的数据标定到同一个坐标系里,包括了相机的内参标定,激光雷达到相机的外参标定,毫米波雷达到GPS的外参标定等等。

传感器融合重要前提是使标定精度达到到极高水平,不论对于结果层面的传感器融合还是元数据层面的传感器融合,这都是必要的基础。

传感器

通过上图你会发现,我们的感知系统将3D的激光点云精准地投射到影像上,可见传感器标定的精度是足够高的。

不同传感器的标定方案

整个传感器标定的工作基本上已做到完全自动化的方式。

传感器

首先是 相机内参的标定 (上图) ,这是为了修正由相机自身特性导致的图像扭曲等。相机内参的标定平台使每一个相机能够在两到三分钟之内完成传感器的标定。

传感器

其次是 激光雷达与GPS/IMU的外参标定(上图) ,激光雷达的原始数据是基于雷达坐标系,因此我们需要将点由雷达坐标系转换为世界坐标系,这就涉及到激光雷达与GPS/IMU相对位置关系的计算。我们的标定工具在室外通过优化的方案,能够快速找到最优的位置关系。

传感器

第三是 相机到激光雷达的融合(上图) 。激光雷达的感知环境是360度旋转的方式,每旋转一周是100毫秒,而相机是某一瞬时曝光,为了保证相机的曝光与激光雷达的旋转保证同步,需要对二者进行时间同步,即通过Lidar来触发相机曝光。比如说,可以通过激光雷达的位置信息来触发对应位置相机的曝光时间,以达到相机与激光雷达的精确同步。

3D(激光雷达)和2D(相机)彼此互补,二者更好的融合可使得感知得到更精确的输出。

传感器

最后是 毫米波雷达(Radar)与GPS/IMU的标定(上图) ,同样是将Radar数据由Local(本地)坐标系将其转换到世界坐标系,我们将通过真实的3D环境来计算Radar与GPS/IMU的相对位置关系。好的标定结果能够保证感知系统给出200米距离以内障碍车的车道信息(如位于车道内或压车道线等)等。

车载感知系统架构

那么车载感知系统架构是什么样的?它的解决方案又是什么?

传感器

上图展示了整个车载感知系统的架构。首先激光雷达、相机、毫米波雷达三种传感器数据须进行时间同步,将所有的时间误差控制在毫秒级。结合传感器数据,感知系统以帧为基础(frame-based)进行检测(detection)、分割(segmentation)、分类(classification)等计算,最后利用多帧信息进行多目标跟踪,将相关结果输出。这个过程中将涉及到多传感器深度融合和深度学习相关的技术细节,我这里不做过多的讨论。

感知系统的解决方案应保证以下五点:

◆ 首先是安全,保证近乎百分之百的检测(Detection)召回率(Recall)。

◆ 精度(Precision)要求非常高,如果低于某个阈值,造成False Positive(误报),会导致车辆在自动驾驶状态下行驶得非常不舒适。

◆ 尽量输出所有对行车有帮助的信息,包括路牌,交通信号灯及其它场景理解的信息。

**◆ **保证感知系统的高效运行,能够近实时处理大量的传感器数据。

**◆ **可扩展性(Scalability)也很重要。深度学习(Deep learning)依赖大量数据,其训练模型的泛化能力对于感知系统非常重要。未来,我们希望模型(model)和新算法有能力适配更多的城市和国家的路况。

感知技术的挑战

感知精度与召回率相平衡的挑战

传感器

通过3D点云数据(上图),能够看到此时对应的感知原始数据。

这里挑战是,经过计算处理后,感知系统需要在这样环境下输出所有障碍物的正确的分割(segmentation)结果和障碍物类别。

除了繁忙的十字路口,感知系统在处理一些特殊的或者恶劣的天气条件,也面临不小挑战。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分