-
公开(公告)号:CN113076902B
公开(公告)日:2023-07-18
申请号:CN202110398552.2
申请日:2021-04-12
Applicant: 华南理工大学
Abstract: 本发明公开了一种多任务融合的人物细粒度分割系统和方法,该系统包括:主干网络、边缘检测模块、前景预测模块和细粒度分割模块;主干网络,用于提取输入图像的特征图,并降低特征图的尺寸;边缘检测模块,用于将特征图进行边缘特征提取,得到对应的边缘特征图;将所有边缘特征图连接并经边缘预测模块得到边缘预测结果;前景预测模块,用于从主干网络的特征图中提取到前景对应的信息,将前景对应的信息作背景内容过滤;细粒度分割模块输出输入图像的细粒度分割预测结果。本发明能够一次输出三种预测结果,分别属于低层次理解的边缘检测和前景预测,以及高层次的细粒度分割预测,使得在现实场景的理解中具有更大层次性。
-
公开(公告)号:CN113076902A
公开(公告)日:2021-07-06
申请号:CN202110398552.2
申请日:2021-04-12
Applicant: 华南理工大学
Abstract: 本发明公开了一种多任务融合的人物细粒度分割系统和方法,该系统包括:主干网络、边缘检测模块、前景预测模块和细粒度分割模块;主干网络,用于提取输入图像的特征图,并降低特征图的尺寸;边缘检测模块,用于将特征图进行边缘特征提取,得到对应的边缘特征图;将所有边缘特征图连接并经边缘预测模块得到边缘预测结果;前景预测模块,用于从主干网络的特征图中提取到前景对应的信息,将前景对应的信息作背景内容过滤;细粒度分割模块输出输入图像的细粒度分割预测结果。本发明能够一次输出三种预测结果,分别属于低层次理解的边缘检测和前景预测,以及高层次的细粒度分割预测,使得在现实场景的理解中具有更大层次性。
-
公开(公告)号:CN118096853B
公开(公告)日:2024-07-16
申请号:CN202410511793.7
申请日:2024-04-26
Applicant: 华南理工大学
Abstract: 本发明公开了一种多目标运动场景的视频深度估计方法,首先针对当前多目标订场场景深度数据集较少的问题,本发明拍摄并标注了以多人物运动为主体的动态场景视频数据集,为后续模型训练提供数据支撑;其次通过构建视频深度估计模型,通过提取移动对象在不同帧中的实例特征并构建不同帧间的实例关系来预测深度值;同时通过几何线段匹配的方法来保证不同帧间移动对象的几何尺寸一致性,使得移动对象的深度预测连续性更加稳定;此外并基于几何尺寸约束的方法对连续帧的深度估计结果进行监督,从而提高了在复杂动态场景中深度估计的精度和可靠性,不仅适用于动态场景同时还适用于静态场景。
-
公开(公告)号:CN118096853A
公开(公告)日:2024-05-28
申请号:CN202410511793.7
申请日:2024-04-26
Applicant: 华南理工大学
Abstract: 本发明公开了一种多目标运动场景的视频深度估计方法,首先针对当前多目标订场场景深度数据集较少的问题,本发明拍摄并标注了以多人物运动为主体的动态场景视频数据集,为后续模型训练提供数据支撑;其次通过构建视频深度估计模型,通过提取移动对象在不同帧中的实例特征并构建不同帧间的实例关系来预测深度值;同时通过几何线段匹配的方法来保证不同帧间移动对象的几何尺寸一致性,使得移动对象的深度预测连续性更加稳定;此外并基于几何尺寸约束的方法对连续帧的深度估计结果进行监督,从而提高了在复杂动态场景中深度估计的精度和可靠性,不仅适用于动态场景同时还适用于静态场景。
-
-
-