一种基于多尺度信息动态融合及特征偏差矫正的跨域双目立体匹配方法

本发明提出一种基于多尺度信息动态融合与特征偏差矫正的跨域双目立体匹配方法,属于计算机视觉领域。具体而言,模型根据场景动态变化自适应融合卷积神经网络(CNN)与Transformer结构,从而同时捕捉局部细节信息与全局上下文依赖。其次,通过多阶段递进式代价体融合与聚合机制,促使多尺度匹配代价体的充分融合,有效抑制冗余信息,提高匹配精度。最后,通过逐步缩小不同域特征之间的偏差,引导模型学习更加稳定的域不变表示,从而显著增强跨域鲁棒性与适应性。本发明与最先进的方法在不同场景中进行跨域实验对比,本方法相较于现有先进模型展现出更优性能:1)在复杂场景下显著提升跨域立体匹配精度,表现出更强的域迁移能力与泛...

Full description

Saved in:
Bibliographic Details
Format Patent
LanguageChinese
Published 12.09.2025
Subjects
Online AccessGet full text

Cover

More Information
Summary:本发明提出一种基于多尺度信息动态融合与特征偏差矫正的跨域双目立体匹配方法,属于计算机视觉领域。具体而言,模型根据场景动态变化自适应融合卷积神经网络(CNN)与Transformer结构,从而同时捕捉局部细节信息与全局上下文依赖。其次,通过多阶段递进式代价体融合与聚合机制,促使多尺度匹配代价体的充分融合,有效抑制冗余信息,提高匹配精度。最后,通过逐步缩小不同域特征之间的偏差,引导模型学习更加稳定的域不变表示,从而显著增强跨域鲁棒性与适应性。本发明与最先进的方法在不同场景中进行跨域实验对比,本方法相较于现有先进模型展现出更优性能:1)在复杂场景下显著提升跨域立体匹配精度,表现出更强的域迁移能力与泛化稳定性;2)在保持跨域鲁棒性的同时,亦在非跨域环境中维持了较高的准确性与计算效率,实现了跨域与非跨域性能的双重兼顾。
Bibliography:Application Number: CN202510728261