引言
图像匹配是计算机视觉领域的一项基础且关键的技术,其核心任务是在不同视角、不同时间或不同传感器获取的图像之间建立可靠的对应关系。该技术广泛应用于三维重建[1]、医学图像分析[2]、目标跟踪[3]、结构健康监测[4]等众多领域。基于特征的匹配方法是该领域的主流技术路线,其通常包含关键点检测、特征描述和特征匹配三个核心步骤。以SIFT(ScaleInvariant Feature Transform)、SURF(SpeededUp Robust Features)为代表的经典算法,通过提取具有尺度和旋转不变性的局部特征,在处理刚性或仿射变换的场景中取得了巨大成功。特别是随着深度学习的兴起,基于学习的匹配方法已成为新的研究热点。早期工作如SuperPoint[5]实现了关键点检测与描述的端到端联合学习,展现出超越传统方法的潜力。为了适应更具挑战性的环境,LiftFeat[6]通过单目深度预测来引入三维几何线索,有效增强了描述符在光照剧变和弱纹理区域的判别力。而XFeat[7]则专注于构建轻量化网络架构,在保证高精度的同时实现了极高的运行速度,满足了资源受限设备上的实时匹配需求。
然而,在许多实际应用中,图像内容会发生复杂的非刚性变形(Nonrigid Deformation),例如人体姿态变化、面部表情变化、衣物褶皱以及建筑结构或生物组织的形变等。这种不规则的几何形变严重破坏了传统特征匹配算法所依赖的局部几何结构不变性假设,导致特征描述符的区分度下降、匹配歧义性增加,最终造成匹配
准确率和鲁棒性显著降低。因此,如何有效处理非刚性变形,实现高精度的图像匹配,已成为计算机视觉领域备受关注的研究热点。
为应对非刚性变形挑战,早期工作如DaLI[8]通过编码局部3D曲面提升了鲁棒性,但计算与存储开销较大。GeoBit[9]与GeoPatch[10]等方法虽引入了几何感知特征,却严重依赖含噪的深度图像,限制了应用。为减少对深度信息的依赖,DEAL[11]在单目图像中隐式建模变形,但其性能仍受制于传统关键点检测器缺乏形变等变性的约束。后续的DALF[12]虽通过空间变换网络(STN)联合学习形变特征取得了显著进展,但其采用的确定性参数估计在面对复杂变形时易陷入局部最优,并可能导致关键边缘特征的模糊与偏移。这正是本研究旨在解决的核心问题。
针对上述局限,本文提出一种面向非刚性图像的鲁棒关键点匹配方法,主要贡献如下:
(1)提出自适应关键点采样策略(AKS):突破了传统基于响应值的采样在形变区域分布不均的限制,通过动态调整空间分布约束确保稀疏性,提升了关键点在形变边缘的定位精度。
(2)构建概率化薄板样条变换网络(PTPSNet):摒弃了传统的确定性参数估计范式,通过对变换参数进行概率分布建模与边际化处理,有效规避了复杂形变估计中的局部最优解问题,实现了对几何变换不确定性的显式建模。
(3)设计高斯概率特征增强模块(GPFE):针对非刚性形变导致的特征漂移与高频信息丢失,引入高斯空间先验强化关键结构表达,在不增加显著计算开销的前提下提升了描述符的判别力。
本文详细内容请下载:
http://www.chinaaet.com/resource/share/2000007024
作者信息:
董家麟,吴丽君
(福州大学物理与信息工程学院,福建福州350108)