L4级自动驾驶纯视觉解决方案Apollo Lite来了!

电子说

1.3w人已加入

描述

日前,百度纯视觉城市道路闭环解决方案——Apollo Lite在CVPR 2019首次面世。

能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。

日前,百度纯视觉城市道路闭环解决方案——Apollo Lite在CVPR 2019首次面世。

作为目前国内唯一的城市自动驾驶纯视觉城市道路闭环解决方案,在多地多路段落地测试中,其测试车辆数目、累计测试里程和车辆在城市道路上的闭环自动驾驶表现优异,可与Mobileye提供的纯视觉解决方案相媲美。

Apollo Lite的提出与实现

美国当地时间6月16日-20日,全球计算机视觉及模式识别领域顶级学术会议CVPR 2019(Conference on Computer Vision and Pattern Recognition)于美国长滩召开。

CVPR作为行业最顶级的研究型会议,每年被收录的论文均来自计算机视觉领域顶级团队,代表着国际最前沿的科研技术,并指引行业未来发展的研究方向。在当地时间6月17日,百度Apollo在CVPR上举办技术讲座,Apollo技术委员会主席王亮就L4级全自动驾驶(Fully Autonomous Driving)环境感知技术方案进行了讲解,并公开了环视视觉解决方案百度Apollo Lite。

Apollo Lite是国内领先的城市道路L4级视觉感知解决方案,能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。

经过前期的技术研发投入和2019年上半年的路测迭代,依靠这套10相机的感知系统,百度无人车已经可以在城市道路上实现不依赖高线数旋转式激光雷达的端到端闭环自动驾驶。

Apollo Lite已经在北京稻香湖等多地多路段落地测试。在路测过程中,测试车辆数目、累计测试里程和车辆在城市道路上的闭环自动驾驶表现优异,已达国际领先水平,可与全球最大的ADAS(高级辅助驾驶技术)供应商Mobileye提供的纯视觉解决方案相媲美。

Apollo Lite的技术优势

相比旋转式激光雷达感知方案,视觉感知方案价格低且便于获得。这套低成本近车规级环视感知方案也能够降级支持ADAS辅助驾驶应用,创造更多有价值的应用场景,将ADAS产品的能力提升到一个新的高度,为企业、开发者们提供了一个低价、优质的自动驾驶解决方案。

自动驾驶

摄像头是相对成熟的传感器,除具备轻巧低成本和符合车规的优势外,高分辨率高帧率(成像频率)的成像技术发展趋势意味着图像内蕴含的环境信息更丰富,同时视频数据也和人眼感知的真实世界最为相似,但和三维点云数据相比,二维图像中的信息更难挖掘,需要设计更强大的算法、大量数据的积累和更长期的研发投入。

自动驾驶

王亮表示,百度Apollo始终坚持多传感器融合的技术路线。在L4级自动驾驶传感器选型上,激光雷达和摄像头不是排它的的也不是单纯的从属和互补关系。从安全性考虑,二者具备相同的重要性和不可替代性,缺一不可。

现今很多传感器融合的方案设计较为复杂,技术人员往往从快速解决问题的角度出发设计算法,这个过程中难免避重就轻的利用异构数据各自的优势进行缺陷互补从而绕过困难的问题。

基于这种思路设计的多传感器融合方案虽然能够在短期规避单传感器方案难以解决的问题,长远看,数据和策略间深度耦合的设计不利于为环境感知系统提供真正意义上的冗余(true redundancy)。传感器融合意味着多套能够独立支撑全自动驾驶的感知系统强强联手,独立工作相互校验,最大概率的保证感知结果的准确性和完备性。

王亮强调,百度下决心投入资源研发纯视觉感知解决方案并不意味着放弃现有基于激光雷达的技术路线,而是在技术实践过程中充分意识到无人驾驶系统true redundancy的必要性,决定通过压强环视视觉技术来夯实多传感器融合感知框架。在传统激光雷达为主,视觉为辅的传统融合策略中,视觉感知自身的问题和缺陷在雷达感知的掩盖下暴露不够充分。通过Apollo Lite打磨迭代的纯视觉技术正在持续反哺百度坚持的多传感器融合解决方案,提升无人驾驶系统的鲁棒性和安全性。

Apllo Scape的最新进展

CVPR期间,百度Apollo还公布了ApolloScape最新进展,目前ApolloScape已经发布了五个公开数据集包括场景解析、细粒度车道线、定位、三维车辆拟合和稠密轨迹。

场景解析

ApolloScape中的场景解析(scene parsing) 数据集包括了14.7万帧的具备逐像素语义标注的图像,相对于包括Waymo在内的仅具备矩形框标注的数据集,像素级标注提供了更为细致的而且不受物体间的遮挡影响的场景信息,旨在推动更为精准的视频场景语义理解技术。

除了二维视频图像,其每帧相关的三维点云也被逐点标注了语义信息。另外,图像的逐像素标注的时间工作量超过了矩形框标注的工作量十倍以上。

车道线

道路线是一项基础的路面元素, ApolloScape 车道线数据集提供了28类不同的道路线分类的逐像素级别和以及三维逐点级别的数据集,这是目前所有公开数据集都不具备的标注信息。

定位

无人车需要精准的定位系统用以获取一系列信息,例如自身的位置,前方的情况,以及行驶区。

其中定位精度一般需要控制在10厘米以内以避免出现碰撞和车道偏离的情况。ApolloScape自定位 (self-localization) 数据集提供了近30万张带有高精GNSS信息的覆盖近28公里的图像。

三维车辆拟合

如何利用图像快速感知周围车辆的三维位姿对于自动驾驶也至关重要。为了推进此问题的研究, 百度推出ApolloScapeCar3D数据集,此数据集采集于中国的不同的城市,包含5277多幅真实驾驶场景、6万多车辆的三维标注数据。

除了车辆的三维位姿之外,百度还同时开放了真实三维车模型,66个三维/二维车辆关键点数据。接下来,或进一步开放部件级别的、稠密的三维车辆标注。

稠密轨迹

ApolloScape的物体轨迹跟踪数据集提供了图像和点云上的物体运动轨迹,其涵盖了不同的光照条件以及大量的车/人/骑行混杂的交通流,旨在推动物体跟踪以及运动行为预测技术。轨迹数据全长到2.5个小时,这个比现有的最大的轨迹数据集(NGSIM)大了三倍。

自2018年3月的发布以来,ApolloScape数据集已经被全球范围内下载上万次。

结语

技术的发展无疑是自动驾驶产业的必备要素,而在技术进步的同时,为企业和开发者打造低价、易获取的解决方案,更是推动产业发展的重要一环。

可以看出,百度Apollo作为国际领先、中国最强的自动驾驶开放平台,在不断推进自身技术进步的同时,正为自动驾驶的规模化、量产化提供层出不穷的全新技术。只有让优质技术在更多人手中得以利用,自动驾驶产业才能愈发蓬勃,展现其应有的光芒。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分