美国当地时间6月16-20日,CVPR2019(计算机视觉与模式识别会议)全球领先的学术会议计算机视觉与模式识别领域(PatternRecognition)在美国长滩召开。在CVPR2019上,百度Apollo发布了国内唯一的自动驾驶纯视觉城市道路闭环解决方案BaiduApolloLite。CVPR是业界最负盛名的研究型会议,每年收录的论文均来自计算机视觉领域的顶尖团队,代表着国际上最前沿的科研技术,引导着整个领域的研究方向行业的未来发展。当地时间6月17日,百度Apollo在CVPR举办技术讲座。Apollo技术委员会主席王亮讲解了L4级全自动驾驶(FullyAutonomousDriving)环境感知技术方案,并公开了百度环视视觉解决方案。阿波罗精简版。据王亮介绍,ApolloLite是目前国内唯一的城市道路L4级视觉感知解决方案。可支持10个摄像头并行处理,每秒200帧的数据量。单条视觉链路最大丢帧率可控制在5‰以下,实现全方位360°实时环境感知,前方障碍物稳定探测距离达240米。王亮表示,经过前期的技术研发投入和2019年上半年的路测迭代,依托这套10摄像头感知系统,百度无人车已经可以实现城市道路的行驶性能,无需依赖高线数旋转激光雷达。端到端闭环自动驾驶。据了解,ApolloLite已经在北京稻香湖等多地多路段进行了测试。道路测试期间,车辆在城市道路上的测试车辆数量、累计测试里程和闭环自动驾驶性能均达到国际领先水平,可与全球最大ADAS供应商Mobileye(先进的驾驶员辅助技术)可与纯视觉解决方案相媲美。与旋转LiDAR传感解决方案相比,视觉传感解决方案成本更低且更容易获得。这种低成本的近车级环视感知方案还可以降级支持ADAS辅助驾驶应用,创造更多有价值的应用场景,将ADAS产品的能力提升到一个新的高度,为企业和开发者提供低-成本、高质量的自动驾驶解决方案。摄像头是比较成熟的传感器。除了轻便、低成本、符合车规等优点外,高分辨率、高帧率(成像频率)的成像技术的发展趋势意味着图像中包含的环境信息更加丰富,视频数据更丰富。也与人眼感知到的真实世界最为相似,但与3D点云数据相比,2D图像中的信息更难挖掘,需要设计更强大的算法,大量数据的积累,和长期的研发投资。王亮表示,百度Apollo一直坚持多传感器融合的技术路线。在L4级自动驾驶传感器的选择上,激光雷达和摄像头并不是排他性的,也不是纯粹从属和互补的。从安全的角度来看,两者具有同等的重要性和不可替代性,缺一不可。现在很多传感器融合方案的设计都比较复杂,技术人员往往从快速解决问题的角度来设计算法。在这个过程中,利用异构数据各自的优势,取长补短,难免会出现一些棘手的问题。基于这种思路设计的多传感器融合方案虽然短期内可以避免单传感器方案难以解决的问题,但从长远来看,数据与策略深度耦合的设计不利于提供环境感知系统的真正冗余。).传感器融合是指多套能够独立支持全自动驾驶的感知系统协同工作,相互验证,以最大概率保证感知结果的准确性和完整性。王亮强调,百度决心投入资源研发纯视觉感知解决方案,并不意味着放弃现有的以激光雷达为主的技术路线,而是在技术实践过程中充分意识到无人驾驶系统真正冗余的必要性,并且决定通过压力环视技术整合多传感器融合感知框架。在以传统激光雷达为主、视觉为辅的传统融合策略中,视觉感知本身的问题和缺陷并没有在雷达感知的掩盖下充分暴露出来。如今,ApolloLite打磨迭代的纯视觉技术,正在不断反哺百度一贯坚持的多传感器融合方案,提升无人驾驶系统的鲁棒性和安全性。技术的发展无疑是自动驾驶行业不可或缺的要素,而在技术不断进步的同时,为企业和开发者打造低成本、易获取的解决方案是推动行业发展的重要一环。可见,百度Apollo作为全球领先、中国最大的自动驾驶开放平台,在不断推动自身技术进步的同时,也在为自动驾驶规模化、量产化提供源源不断的新技术。只有让优质技术惠及更多人,自动驾驶产业才能蓬勃发展,展现应有的辉煌。
