-
公开(公告)号:CN117953015A
公开(公告)日:2024-04-30
申请号:CN202410347796.1
申请日:2024-03-26
Applicant: 武汉工程大学 , 中国人民解放军海军工程大学 , 湖北文理学院
IPC: G06T7/246 , G06V40/10 , G06V20/40 , G06T3/4053
Abstract: 本发明公开了基于视频超分辨率多行人跟踪方法、系统、设备及介质,涉及超分辨率领域以及多目标跟踪领域技术领域,方法包括:获取检测区域的视频,对视频进行视频帧插值及超分辨率处理,对每一帧进行目标检测得到检测框,对重叠度满足条件的检测框进行融合;提取检测框的可见区域标签,根据可见区域标签计算当前帧的检测框和前一帧的检测框的特征距离,将特征距离经过匈牙利算法计算得到最终结果,将最终结果整合输出得到行人轨迹。本发明融合了不同视觉任务,能够实现多视觉任务的相互促进,提高了检测与跟踪的性能,解决了多行人跟踪在低质量成像场景下视频帧模糊难以处理、漏检和误检高概率等问题。
-
公开(公告)号:CN117953589B
公开(公告)日:2024-07-05
申请号:CN202410354224.6
申请日:2024-03-27
IPC: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
Abstract: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
公开(公告)号:CN118396852A
公开(公告)日:2024-07-26
申请号:CN202410415461.9
申请日:2024-04-08
Applicant: 武汉工程大学
IPC: G06T3/4053 , G06T3/4046 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及一种基于多维空间域的人脸重建方法、系统、介质以及装置,涉及计算机视觉图像增强的技术领域,包括:对初始图像进行特征划分,得到目标图像和非目标图像;利用第一残差块对目标图像进行降采样和卷积操作,得到第一低分辨率特征图;利用第二残差块对第一低分辨率特征图中的人脸纹理细节特征进行增强,得到第二低分辨率特征图;结合第一全局注意力机制、第二全局注意力机制以及空间分组增强对第二分辨率特征图进行处理,得到低分辨率人脸重建图;利用第三残差块对低分辨率人脸重建图进行上采样和卷积操作,得到目标图像的人脸重建图。本发明解决了现有技术中存在的人脸图像重建的质量、精度较低的问题。
-
公开(公告)号:CN117953015B
公开(公告)日:2024-07-09
申请号:CN202410347796.1
申请日:2024-03-26
Applicant: 武汉工程大学 , 中国人民解放军海军工程大学 , 湖北文理学院
IPC: G06T7/246 , G06V40/10 , G06V20/40 , G06T3/4053
Abstract: 本发明公开了基于视频超分辨率多行人跟踪方法、系统、设备及介质,涉及超分辨率领域以及多目标跟踪领域技术领域,方法包括:获取检测区域的视频,对视频进行视频帧插值及超分辨率处理,对每一帧进行目标检测得到检测框,对重叠度满足条件的检测框进行融合;提取检测框的可见区域标签,根据可见区域标签计算当前帧的检测框和前一帧的检测框的特征距离,将特征距离经过匈牙利算法计算得到最终结果,将最终结果整合输出得到行人轨迹。本发明融合了不同视觉任务,能够实现多视觉任务的相互促进,提高了检测与跟踪的性能,解决了多行人跟踪在低质量成像场景下视频帧模糊难以处理、漏检和误检高概率等问题。
-
公开(公告)号:CN117953589A
公开(公告)日:2024-04-30
申请号:CN202410354224.6
申请日:2024-03-27
IPC: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
Abstract: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
-
-
-