基于自监督深度学习的轻量级单目深度估计方法和设备

    公开(公告)号:CN119494866A

    公开(公告)日:2025-02-21

    申请号:CN202411439547.1

    申请日:2024-10-15

    Applicant: 东华大学

    Inventor: 方志军 江昊 邵玄

    Abstract: 本发明涉及一种基于自监督深度学习的轻量级单目深度估计方法和设备,通过获取连续的多帧图像,基于目标帧的相邻帧,利用训练后的深度估计模型对目标帧进行重建,得到目标帧的深度信息,其中,深度估计模型的训练过程包括如下步骤:获取单目视频序列,通过提取连续的多帧图像构建训练数据;通过位姿编码和解码,预测得到相邻两帧图像的相对位姿信息;通过多尺度特征提取以及动态上采样,得到保留局部细节特征的特征图,基于特征图得到深度图;基于相对位姿信息和深度图进行帧重建,在考虑基于语义感知的三元组损失的前提下计算损失函数值,实现对深度估计模型的训练。本发明具有上采样时充分保留细节特征、针对梯度丰富区域表现效果良好等优点。

    一种基于扩散模型的虚拟试穿图像合成方法

    公开(公告)号:CN118521490A

    公开(公告)日:2024-08-20

    申请号:CN202410531948.3

    申请日:2024-04-29

    Applicant: 东华大学

    Abstract: 本发明公开了一种基于扩散模型的虚拟试穿图像合成方法,有效解决了面对人体较大的姿势变化时,产生的试衣效果会出现错位、缺失或混合的服装的问题以及纹理挤压等细节不一致的问题。当面对人体较大的姿势变化时,扩散模型的强大的生成能力能够生成出合理的试衣结果,解决了服装错位、缺失或混合的问题。而服装的姿势信息确定了生成的服装与原本服装信息的对应关系,有利于保持原本服装的细节信息,解决了纹理挤压等细节不一致的问题。

    光场亚像素视差估计模型及其训练方法、系统、介质及电子设备

    公开(公告)号:CN120070530A

    公开(公告)日:2025-05-30

    申请号:CN202510043822.6

    申请日:2025-01-10

    Applicant: 东华大学

    Abstract: 本发明提供一种光场亚像素视差估计模型及其训练方法、系统、介质及电子设备;所述光场亚像素视差估计模型包括:图像转换模块,用于对光场子孔径图像进行图像转换,获取光场宏像素图像;特征提取模块,用于对光场宏像素图像进行特征提取,获取特征图;代价构建模块,用于对特征图进行亚像素代价构建和注意力增强,获取注意力增强代价体;代价聚合模块,用于对注意力增强代价体进行正则化,获取聚合代价体;视差回归模块,用于对聚合代价体进行视差映射,获取光场子孔径图像对应的预测视差图;预测视差图为光场子孔径图像中的中心子孔径图像对应的视差图;本发明通过设计亚像素代价构建,有效解决了现有光场视差估计中视差标签数量少的问题。

Patent Agency Ranking