-
公开(公告)号:CN106709519A
公开(公告)日:2017-05-24
申请号:CN201611187188.0
申请日:2016-12-20
Applicant: 北京工业大学
CPC classification number: G06K9/6223 , G06Q30/0201
Abstract: 本发明公开一种基于层次聚类的大型超市会员聚类方法包括:步骤1、获取大型超级会员数据;步骤2、对大型超级会员数据进行聚类计算;步骤3、经过聚类操作后会得K个类,每个类中都包含最终聚类后的会员数据,利用Java POI包将这K个类输出。采用本发明的技术方案,可以提升执行效率。
-
公开(公告)号:CN113052016B
公开(公告)日:2024-12-10
申请号:CN202110257506.0
申请日:2021-03-09
Applicant: 北京工业大学
IPC: G06V40/16 , G06T3/4053 , G06T5/50
Abstract: 本发明公开了一种基于多尺度注意力残差和等变映射的人脸超分辨率方法,首先通过卷积层提取低分辨率人脸侧面图像的浅层特征;然后,将浅层特征输入特征提取子网,经过n个多尺度注意力残差模块,获得深层特征;进一步将获取的深层特征输入到残差等变映射模块,在深层表征特征空间中将深层特征和融合偏航系数的残差特征结合,将侧面人脸的特征向量变换到与正面人脸相同的特征向量空间;最后经过重建模块,获得高分辨率的人脸正面图像。本发明适用于人脸识别,不再过度依赖大量的正脸侧脸数据对,对于输入的低分辨率的侧脸图像可以重建出清晰度高、纹理更真实的正脸图像。
-
公开(公告)号:CN112580473B
公开(公告)日:2024-05-28
申请号:CN202011464000.9
申请日:2020-12-11
Applicant: 北京工业大学
IPC: G06V20/40 , G06V10/774 , G06V10/82 , G06N3/0464 , G06T3/40
Abstract: 本发明提供了一种融合运动特征的视频超分辨率重构方法,用于解决现阶段视频超分辨率重构方法重构精度不高,重构时间过长的问题。首先自适应关键帧判别子网自适应地从视频连续帧中判别出关键帧;关键帧经过高精度关键帧重构子网进行重构;对于非关键帧,则提取其与邻近关键帧之间的运动特征,并与邻近关键帧特征融合,再经过特征残差学习,得到非关键帧的特征,从而快速地获得非关键帧的重构结果。本发明能够自适应地判断视频中帧为关键帧或是非关键帧,并根据判断结果执行不同的重构策略,保证了视频整体重构结果的精准性;其次,本发明在图像特征层面进行运动信息的融合,避免了伪影的引入,减少了运动估计的提取时间。
-
公开(公告)号:CN118015414A
公开(公告)日:2024-05-10
申请号:CN202410113793.1
申请日:2024-01-26
Applicant: 北京工业大学
IPC: G06V10/80 , G06V10/42 , G06V10/44 , G06V10/82 , G06V10/764 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了基于多样性区域和特征正交融合的细粒度图像识别方法,该方法首先用卷积网络对输入图像进行浅层的特征提取,然后模型分为两个模块,分别是多样性区域特征提取模块和全局特征提取模块。在多样性区域提取模块中,引入注意力抑制增强子模块,使得模型在不同的网络层能够提取到不同的判别性区域特征;在全局特征提取模块中,通过引入三阶段的Transformer结构实现对图像的全局上下文信息进行建模;在正交融合模块中,通过计算局部特征在全局特征上的投影,将局部特征和全局特征进行融合,基于整合后的特征完成识别任务。本发明适用于细粒度图像识别任务,识别准确率高,算法的鲁棒性好,有着广泛的应用场景。
-
公开(公告)号:CN117893562A
公开(公告)日:2024-04-16
申请号:CN202410113794.6
申请日:2024-01-26
Applicant: 北京工业大学
IPC: G06T7/20 , G06V10/80 , G06V10/82 , G06V10/766 , G06V10/75 , G06V10/764 , G06N3/0464
Abstract: 本发明公开了基于孪生特征注入网络的视觉单目标跟踪方法,以目标模板和视频帧序列作为输入,并在当前帧中以前一帧目标所在位置为中心选出固定尺寸大小的区域作为搜索区域。使用相似性捕捉特征融合模块学习目标模板和搜索区域之间的空间和语义相似性以及上下文关联信息,然后使用盒适应网络模块进行互相关计算得到初步分类结果和初步回归结果,最后使用关联性感知模块计算候选目标与目标模板之间的关联性得分,并基于关联性得分和候选目标的初步分类结果,得到最后的跟踪目标。该方法解决了过去基于孪生网络的视觉单目标跟踪方法在面对复杂背景环境和众多干扰物影响下,目标易跟丢或目标标记不完全的问题。
-
公开(公告)号:CN114419671B
公开(公告)日:2024-03-26
申请号:CN202210052859.1
申请日:2022-01-18
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于超图神经网络的遮挡行人重识别方法,用于解决行人重识别在行人图像被遮挡时识别精度不高,行人特征表示辨别力不强的问题,提升模型的准确性。首先引入行人特征提取模块,基于人体关键点信息提取行人图像的局部特征,获得带有可见性信息的行人局部特征表示;高阶信息融合模块基于超图神经网络自适应融合行人局部特征,获得更具判别性的行人特征;在此基础上,特征匹配模块将人体拓扑信息结合到图匹配过程中,对遮挡行人图像进行更准确的相似性度量。本发明能够获得较强的行人特征表示,在遮挡行人图像数据集上识别精度较高,并保持稳定的识别效果。
-
公开(公告)号:CN111161150B
公开(公告)日:2023-06-23
申请号:CN201911392155.3
申请日:2019-12-30
Applicant: 北京工业大学
IPC: G06T3/40
Abstract: 本发明提供了一种基于多尺度注意级联网络的图像超分辨率重建方法,首先使用卷积操作提取低分辨率图像的浅层特征;然后,将浅层特征输入特征提取子网,获得级联特征;进一步,将级联特征通过卷积核为1的卷积层,获得优化的特征;将优化后的特征输入图像深度学习上采样模块获得重建图像同时,对低分辨率图像ILR采用双三次线性插值算法获得重建图像最后,将重建图像和融合,获得最终的高分辨率重建图像ISR。本发明适用于图像的超分辨率重建,得到的重建图像清晰度高,纹理更为真实,感观效果好。
-
公开(公告)号:CN114419671A
公开(公告)日:2022-04-29
申请号:CN202210052859.1
申请日:2022-01-18
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于超图神经网络的遮挡行人重识别方法,用于解决行人重识别在行人图像被遮挡时识别精度不高,行人特征表示辨别力不强的问题,提升模型的准确性。首先引入行人特征提取模块,基于人体关键点信息提取行人图像的局部特征,获得带有可见性信息的行人局部特征表示;高阶信息融合模块基于超图神经网络自适应融合行人局部特征,获得更具判别性的行人特征;在此基础上,特征匹配模块将人体拓扑信息结合到图匹配过程中,对遮挡行人图像进行更准确的相似性度量。本发明能够获得较强的行人特征表示,在遮挡行人图像数据集上识别精度较高,并保持稳定的识别效果。
-
公开(公告)号:CN109998529B
公开(公告)日:2021-11-05
申请号:CN201910297580.8
申请日:2019-04-15
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于高斯函数拟合的ECG信号中P波、T波检测方法。首先将原始信号去除基线漂移,而后根据已有的ECG信号的QRS波群标注,将信号分割成一系列单个心跳信号。其次,对每一个心跳周期,通过P波和T波出现的大致范围,分别划分出大致可能出现P波和T波的搜索区间,并通过数值积分确定每个搜索区间的波峰方向以及疑似的波峰出现点。再根据以上信息,使用高斯函数并配置适当的初始参数进行拟合。最后计算高斯函数拟合结果的波峰以及波峰起止点,作为当前心跳周期的P波和T波的波峰和起止点。本发明有效地避免了噪声信号的干扰,增强了算法的健壮性,使得P波和T波检测的准确性得到了提升。
-
公开(公告)号:CN113052017A
公开(公告)日:2021-06-29
申请号:CN202110258611.6
申请日:2021-03-09
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于多粒度特征表示和域自适应学习的无监督行人重识别方法,用于解决无监督行人重识别跨域识别精度不高,行人特征表示辨别力不强的问题,提升模型的可扩展性。首先引入多粒度特征提取模块,得到行人图像具有更丰富判别信息的多粒度特征表示;对于源数据集中有标签的行人图像,源域分类模块对其进行分类学习,为域自适应学习模块提供源域的行人判别知识;域自适应模块基于从源域中获得的判别知识,充分挖掘目标数据集中潜在的判别信息。本发明能够获得较强的行人特征表示,考虑目标域与源域的差异因素,在无标签的目标域识别精度较高,并保持稳定的识别效果。
-
-
-
-
-
-
-
-
-