VDAS中基于单目红外图像的深度估计方法

TP39; 针对视觉辅助驾驶系统(vision-based driving assistance system,VDAS)对夜间等低能见度场景下的车辆前视深度感知需求,提出一种基于深度学习的单目红外图像深度估计方法.该方法采用端对端的多任务自监督学习框架,利用单目红外视频帧之间的立体几何约束构建损失函数,无须场景的真实深度信息.取前后两帧重投影误差的最小值,解决了单目视频帧之间的遮挡问题,同时削弱了红外图像噪点多的影响.网络解码器将多尺度深度图统一上采样到较高分辨率并计算重投影误差,改善了深度图中的空洞现象.在FLIR车载红外数据集上的定性实验表明,所提方法能利用单目红外图像得到对应的像素级稠...

Full description

Saved in:
Bibliographic Details
Published in系统工程与电子技术 Vol. 43; no. 5; pp. 1210 - 1217
Main Authors 李旭, 丁萌, 魏东辉, 吴晓舟, 曹云峰
Format Journal Article
LanguageChinese
Published 南京航空航天大学民航学院,江苏南京211106%北京机电工程研究所复杂系统控制与智能协同技术重点实验室,北京100074%南京航空航天大学航天学院,江苏南京211106 01.05.2021
Subjects
Online AccessGet full text
ISSN1001-506X
DOI10.12305/j.issn.1001-506X.2021.05.07

Cover

More Information
Summary:TP39; 针对视觉辅助驾驶系统(vision-based driving assistance system,VDAS)对夜间等低能见度场景下的车辆前视深度感知需求,提出一种基于深度学习的单目红外图像深度估计方法.该方法采用端对端的多任务自监督学习框架,利用单目红外视频帧之间的立体几何约束构建损失函数,无须场景的真实深度信息.取前后两帧重投影误差的最小值,解决了单目视频帧之间的遮挡问题,同时削弱了红外图像噪点多的影响.网络解码器将多尺度深度图统一上采样到较高分辨率并计算重投影误差,改善了深度图中的空洞现象.在FLIR车载红外数据集上的定性实验表明,所提方法能利用单目红外图像得到对应的像素级稠密深度;真实道路上的分析试验表明,所提方法能够在夜间情况下利用红外图像有效感知目标物的深度信息,15 m以内的相对误差为13.2%,可以满足多数突发情况下情况下的避撞要求.
ISSN:1001-506X
DOI:10.12305/j.issn.1001-506X.2021.05.07