-
公开(公告)号:CN118864561A
公开(公告)日:2024-10-29
申请号:CN202410893865.9
申请日:2024-07-04
Applicant: 江苏大学
IPC: G06T7/593 , G06N3/0464 , G06N3/08
Abstract: 本发明公开一种基于动态卷积和噪声体积构建的抗噪声立体匹配方法,将去噪任务和立体匹配进行结合,利用结合有动态卷积的U‑Net结构的噪声特征提取网络与原始立体匹配网络的特征提取模块对含噪的左右图像并行提取特征;利用去噪网络获取的噪声特征构建噪声体积,同时保留原有的视差代价体积;利用一个3×3卷积层和一层ReLU激活函数将噪声体积和原有的视差代价体积融合;将其融合得到的融合代价体积进行代价聚合过程得到视差图。相比于普通的双目立体匹配抗噪声方法,本发明能提升立体匹配网络在噪声环境下的抗干扰能力,可以显著提高噪声环境下视差预测的准确性和稳定性。
-
公开(公告)号:CN117635989A
公开(公告)日:2024-03-01
申请号:CN202311660788.4
申请日:2023-12-06
Applicant: 江苏大学
IPC: G06V10/75 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06V10/766 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N3/048
Abstract: 本发明公开一种基于改进CFNet的双目立体匹配方法,利用经过优化的EfficientNetV2‑M模型作为特征提取网络提取原始左右图像对应的多尺度特征图;利用分组相关和串联的方式构造多尺度代价卷并融合;将引导型代价卷激励加入到3D卷积模块用于引导代价聚合;使用代价自重组策略将经过聚合的代价卷中的代价量重新分布,之后利用视差回归生成初始视差图;构建级联代价卷并联合初始视差图以一个由粗到细的方式细化视差,最终得到细化后的视差图。相比于传统CFNet方法,本发明充分提高图像的特征表达能力,丰富了代价卷所含信息,并有效减少视差平滑的产生。
-
公开(公告)号:CN119131248A
公开(公告)日:2024-12-13
申请号:CN202411157359.X
申请日:2024-08-22
Applicant: 江苏大学
IPC: G06T17/00
Abstract: 本发明公开一种基于自适应平面和跳跃采样的高光反射场景物体三维表面重建方法,通过一个逐像素的辅助平面对反射干扰与目标物体进行区分,并且引入了拉普拉斯梯度降低外部反射干扰的影响。此外,采用跳跃采样策略减少反射干扰的影响,进一步提升多视图一致性和表面保真度。最后,本发明还采用了排斥损失,通过对比目标物体和反射部分的梯度差异,帮助模型在初始化时更准确地区分二者,在高光反射干扰下重建出更为准确的模型表面。
-
-