#论文##开源代码# Understanding Bird’s-Eye View of Road Semantics using an Onboard Camera

论文地址:https://arxiv.org/abs/2012.03040

作者单位:苏黎世ETH计算机视觉实验室

开源代码:https://github.com/ybarancan/BEV_feat_stitch

自主导航需要对空间的场景理解,以移动或预测事件。对于自动驾驶车辆,这可以转化为鸟瞰视图(BEV)中的场景理解。然而,自动驾驶汽车的车载摄像头通常是水平安装的,以更好地查看周围环境。在这项工作中,我们使用单个车载摄像头输入的视频,通过在线估计语义Bev地图的形式来研究场景理解。我们研究了这项任务的三个关键方面:图像级理解、BEV级理解和时间信息的聚合。在这基础上,我们提出了一种结合了这三个方面的新型体系结构。在我们广泛的实验中,我们证明了所考虑的方面对于BEV的理解是相辅相成的。此外,本文的架构大大超过了目前最先进的架构。

本文贡献如下:

1、我们提出了一种新的基于单目视频的BEV道路语义深度神经体系结构,用于静态hd地图部分和动态对象理解。

2、我们研究了独立和联合学习在图像和/或BEV平面上的影响,以及时间信息。

3、该方法得到的结果明显优于现有的方法。

利用车载摄像头了解道路语义的鸟瞰图_自动驾驶


利用车载摄像头了解道路语义的鸟瞰图_计算机视觉_02


利用车载摄像头了解道路语义的鸟瞰图_计算机视觉_03


利用车载摄像头了解道路语义的鸟瞰图_开源代码_04


利用车载摄像头了解道路语义的鸟瞰图_计算机视觉_05


利用车载摄像头了解道路语义的鸟瞰图_开源代码_06