-
公开(公告)号:CN114387623B
公开(公告)日:2024-05-31
申请号:CN202210052862.3
申请日:2022-01-18
Applicant: 北京工业大学
IPC: G06V40/10 , G06V40/20 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0475 , G06N3/084 , G06N3/088
Abstract: 本发明公开了一种基于多粒度块特征的无监督行人重识别方法,用于解决无监督行人重识别精度不高,行人特征表示辨别力不强的问题,提升了模型的可扩展性。首先引入了多粒度块特征提取模块,使得模型在能获取数据集公共的细粒度判别信息的同时能够关注到无标签数据集特有的较大粒度的特征;然后使用单粒度实例判别性学习模块挖掘不同单一粒度的实例级特征;在此基础上,进一步使用多粒度实例判别性学习模块获得更具有判别力的多粒度全局特征表示。本发明能够在无标签的情况下获得判别力较强的行人特征,从而保证较好的识别效果。
-
公开(公告)号:CN112580473B
公开(公告)日:2024-05-28
申请号:CN202011464000.9
申请日:2020-12-11
Applicant: 北京工业大学
IPC: G06V20/40 , G06V10/774 , G06V10/82 , G06N3/0464 , G06T3/40
Abstract: 本发明提供了一种融合运动特征的视频超分辨率重构方法,用于解决现阶段视频超分辨率重构方法重构精度不高,重构时间过长的问题。首先自适应关键帧判别子网自适应地从视频连续帧中判别出关键帧;关键帧经过高精度关键帧重构子网进行重构;对于非关键帧,则提取其与邻近关键帧之间的运动特征,并与邻近关键帧特征融合,再经过特征残差学习,得到非关键帧的特征,从而快速地获得非关键帧的重构结果。本发明能够自适应地判断视频中帧为关键帧或是非关键帧,并根据判断结果执行不同的重构策略,保证了视频整体重构结果的精准性;其次,本发明在图像特征层面进行运动信息的融合,避免了伪影的引入,减少了运动估计的提取时间。
-
公开(公告)号:CN113052017A
公开(公告)日:2021-06-29
申请号:CN202110258611.6
申请日:2021-03-09
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于多粒度特征表示和域自适应学习的无监督行人重识别方法,用于解决无监督行人重识别跨域识别精度不高,行人特征表示辨别力不强的问题,提升模型的可扩展性。首先引入多粒度特征提取模块,得到行人图像具有更丰富判别信息的多粒度特征表示;对于源数据集中有标签的行人图像,源域分类模块对其进行分类学习,为域自适应学习模块提供源域的行人判别知识;域自适应模块基于从源域中获得的判别知识,充分挖掘目标数据集中潜在的判别信息。本发明能够获得较强的行人特征表示,考虑目标域与源域的差异因素,在无标签的目标域识别精度较高,并保持稳定的识别效果。
-
公开(公告)号:CN114387623A
公开(公告)日:2022-04-22
申请号:CN202210052862.3
申请日:2022-01-18
Applicant: 北京工业大学
IPC: G06V40/10 , G06V40/20 , G06V10/764 , G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于多粒度块特征的无监督行人重识别方法,用于解决无监督行人重识别精度不高,行人特征表示辨别力不强的问题,提升了模型的可扩展性。首先引入了多粒度块特征提取模块,使得模型在能获取数据集公共的细粒度判别信息的同时能够关注到无标签数据集特有的较大粒度的特征;然后使用单粒度实例判别性学习模块挖掘不同单一粒度的实例级特征;在此基础上,进一步使用多粒度实例判别性学习模块获得更具有判别力的多粒度全局特征表示。本发明能够在无标签的情况下获得判别力较强的行人特征,从而保证较好的识别效果。
-
公开(公告)号:CN112580473A
公开(公告)日:2021-03-30
申请号:CN202011464000.9
申请日:2020-12-11
Applicant: 北京工业大学
Abstract: 本发明提供了一种融合运动特征的视频超分辨率重构方法,用于解决现阶段视频超分辨率重构方法重构精度不高,重构时间过长的问题。首先自适应关键帧判别子网自适应地从视频连续帧中判别出关键帧;关键帧经过高精度关键帧重构子网进行重构;对于非关键帧,则提取其与邻近关键帧之间的运动特征,并与邻近关键帧特征融合,再经过特征残差学习,得到非关键帧的特征,从而快速地获得非关键帧的重构结果。本发明能够自适应地判断视频中帧为关键帧或是非关键帧,并根据判断结果执行不同的重构策略,保证了视频整体重构结果的精准性;其次,本发明在图像特征层面进行运动信息的融合,避免了伪影的引入,减少了运动估计的提取时间。
-
公开(公告)号:CN113052017B
公开(公告)日:2024-05-28
申请号:CN202110258611.6
申请日:2021-03-09
Applicant: 北京工业大学
IPC: G06V40/10 , G06V10/774 , G06V20/52 , G06V10/764
Abstract: 本发明公开了一种基于多粒度特征表示和域自适应学习的无监督行人重识别方法,用于解决无监督行人重识别跨域识别精度不高,行人特征表示辨别力不强的问题,提升模型的可扩展性。首先引入多粒度特征提取模块,得到行人图像具有更丰富判别信息的多粒度特征表示;对于源数据集中有标签的行人图像,源域分类模块对其进行分类学习,为域自适应学习模块提供源域的行人判别知识;域自适应模块基于从源域中获得的判别知识,充分挖掘目标数据集中潜在的判别信息。本发明能够获得较强的行人特征表示,考虑目标域与源域的差异因素,在无标签的目标域识别精度较高,并保持稳定的识别效果。
-
公开(公告)号:CN111161317A
公开(公告)日:2020-05-15
申请号:CN201911390842.1
申请日:2019-12-30
Applicant: 北京工业大学
IPC: G06T7/246
Abstract: 本发明提供了一种基于多重网络的单目标跟踪方法,是一种采用深度学习的模型。该方法首先对视频序列的第一帧图像和当前帧图像进行裁剪,得到模板图像和待搜索图像;将模板图像和待搜索图像输入外观子网和语义子网,分别获得模板图像和待搜索图像的低层外观特征和高层语义特征,并进行特征融合,分别得到模板图像和待搜索图像的融合特征图;然后,基于模板图像和待搜索图像的融合特征图,使用相似性判别方法得到最终响应图;最后,根据最终响应图提供的信息获得跟踪结果。本发明解决了传统单目标跟踪方法无法有效检测到包含相似性背景的待搜索图像中的跟踪目标,以及基于深度学习的特征提取方法由于提取出的低层外观特征存在噪声而导致误检的问题。
-
-
-
-
-
-