-
公开(公告)号:CN117112920A
公开(公告)日:2023-11-24
申请号:CN202310836490.8
申请日:2023-07-10
Applicant: 北京工业大学
IPC: G06F16/9536 , G06N3/0464
Abstract: 本发明提出了一种基于交互图卷积网络的协同过滤方法。推荐系统为用户提供个性化的商品推荐。传统的协同过滤方法忽略了用户和商品之间的上下文语义交互,导致了推荐准确度的下降。为了解决这个问题,本方法在时间上采用滑动窗口来捕捉用户和商品之间的时序关系,并通过多层图卷积网络将上下文信息和嵌入向量相结合,从而得到动态的图嵌入表示。此外,本发明还提出了一种基于VIC正则化的损失函数,用于约束嵌入向量的方差和协方差。本发明所提出的方法为推荐系统中上下文语义交互的建模提供了一种新的思路,并有望在实际应用中得到广泛应用。
-
公开(公告)号:CN117095425A
公开(公告)日:2023-11-21
申请号:CN202310824087.3
申请日:2023-07-06
Applicant: 北京工业大学
IPC: G06V40/10 , G06V10/40 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种基于深度相互学习策略的换装行人重识别方法,针对换装行人重识别数据集PRCC识别精度低的问题。首先,利用人体解析网络从原始图像中提取人体掩膜,借此获取对服装变化鲁棒的外形特征。然后将原始图像和提取过人体掩膜的图像分别输入两个主干网络,两个主干网络分别学习提取行人的外表特征和外形特征。之后通过MMD损失和KL散度损失减小两支网络的输出分布差异,使得最后用于预测的外表分支主干网络获得提取对服装变化鲁棒的外形特征的能力。同时利用MMD损失重建向量使得主干网络在获得提取外形特征能力的同时保持原先提取外表特征的能力。在预测阶段,仅使用外表分支主干网络的输出来对行人进行检索,能够缩短检索时间。
-
公开(公告)号:CN116824438A
公开(公告)日:2023-09-29
申请号:CN202310638743.0
申请日:2023-06-01
Applicant: 北京工业大学
IPC: G06V20/40 , G06V10/26 , G06V10/44 , G06V10/762 , G06V10/82 , G06N3/045 , G06N3/0442 , G06N3/0464 , G06N3/042 , G06N3/0895
Abstract: 一种基于边缘注意门控图卷积网络的半监督视频分割方法,用于解决复杂场景中的无法准确分割出目标物体的问题。本发明将整个视频分割成若干超像素,并在视频第一帧生成若干种子点;将第一帧的种子点逐帧传播到后续帧,并将视频序列转化为时空图。之后,提出边缘注意力门控图卷积网络,实现对超像素前景、背景标签的划分,实现视频预分割。最后,基于目标在帧间形变的规律,对目标构造全局外观模型,优化分割,减缓相似物体或复杂背景干扰时的分割挑战。本发明基于超像素提取目标底层特征和边界轮廓,基于图卷积网络提取图像的深度特征,挖掘帧内和帧间的相关性,提升了捕获视频中蕴含的关联关系和潜在语义信息的能力,在多种分割挑战中表现良好。
-
公开(公告)号:CN111860951B
公开(公告)日:2023-09-26
申请号:CN202010540661.9
申请日:2020-06-12
Applicant: 北京工业大学
IPC: G06Q10/04 , G06Q50/30 , G06N3/0464 , G06N3/048 , G06N3/0442 , G06N3/08
Abstract: 本发明提出一种基于动态超图卷积网络的轨道交通客流预测方法,涉及深度学习等领域,尤其是面向超图表示以及图卷积网络的流量预测任务。该方法在利用超图对轨道交通网络拓扑关系进行高阶表示的基础上,通过超图卷积模块实现图卷积网络的引入,并通过挖掘客流OD的内在时空特征构建动态超边,实现动态超图卷积网络机制。相较于传统的数学模型以及机器学习方法,该方法对于轨道交通特征的提取更加深入和准确。完成了轨道交通客流预测的任务,提高了预测准确率。
-
公开(公告)号:CN116634152A
公开(公告)日:2023-08-22
申请号:CN202310579557.4
申请日:2023-05-23
Applicant: 北京工业大学
IPC: H04N19/146 , H04N19/19
Abstract: 一种基于超先验可变码率图像压缩的精准R‑λ模型码率控制方法属于计算机视觉领域,针对基于超先验可变码率图像压缩框架无法对于单张图像的目标码率给出相应的拉格朗日乘子。本方法为任意图像和任意基于超先验可变码率图像压缩模型建立拉格朗日乘子λ和码率R的关系,提出精准R‑λ模型。通过3次编码拟合单张图像的精准R‑λ模型。计算出对应目标码率应该输入的拉格朗日乘子。最后对于该图像的任意输入码率,都可以输出与输入码率相近的输出码率,平均误差控制在0.6%下,实现精准的码率控制。
-
公开(公告)号:CN110322548B
公开(公告)日:2023-04-18
申请号:CN201910499969.0
申请日:2019-06-11
Applicant: 北京工业大学
IPC: G06T17/00
Abstract: 一种基于几何图像参数化的三维网格模型生成方法,能够无监督地生成几何‑法向图像对,并确保其像素级的可靠性和几何‑法向的内在一致性,生成具有多样性和真实性的三维网格模型,生成的人脸网格保持人脸几何结构且具有丰富的面部细节特征和表情特征。该方法通过构建新的网络框架实现,网络框架由对抗生成部分和预测部分构成;对抗生成部分的两路对抗网络分别对应生成几何图像和法向图像,预测部分将两个子网络关联,刻画了基于法向预测的一致性约束;所述网络框架实现几何对抗网和法向对抗网的协同训练;该方法学习得到几何‑法向联合分布,在输入任意向量的情况下,该网络输出与之对应的几何‑法向图像对,通过该图像对重建对应的三维网格模型。
-
公开(公告)号:CN115914638A
公开(公告)日:2023-04-04
申请号:CN202211530532.7
申请日:2022-12-01
Applicant: 北京工业大学
IPC: H04N19/30 , H04N19/146 , H04N19/154 , G06T9/00
Abstract: 一种基于结构和纹理合成的概念图像压缩方法属于计算机视觉领域,本发明所提的压缩框架允许将图像编码为紧凑的、高级可解释的表示来进行重建。利用图像处理技术,将原图转换为保边平滑的结构图,得到图像的结构层,提供图像的结构信息;从原图中心提取的纹理块作为图像的纹理层,提供图像的局部详细纹理信息。将图像的结构层和纹理层进行下采样,结合BPG编码器实现了图像的极致压缩,并用超分辨率模型进行上采样与生成模型保证重建质量。
-
公开(公告)号:CN115527273A
公开(公告)日:2022-12-27
申请号:CN202211297694.0
申请日:2022-10-22
Applicant: 北京工业大学
IPC: G06V40/20 , G06V20/40 , G06V10/40 , G06V10/62 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于多流3D卷积神经网络的多视角手语识别方法,该方法基于多流3D卷积神经网络以处理多视角手语识别,使用3D卷积神经网络提取手语数据的时空特征;基于多流卷积神经网络结构达到同时输入多视角手语数据进行训练;通过多视角融合模块来融合网络每个流的识别结果,从而充分利用不同视角手语数据的互补信息,使得多视角手语识别更准确。
-
公开(公告)号:CN115082637A
公开(公告)日:2022-09-20
申请号:CN202210513680.1
申请日:2022-05-11
Applicant: 北京工业大学
IPC: G06T17/20 , G06T7/10 , G06V10/764 , G06V10/774 , G06N3/04
Abstract: 三维网格表示方法及三维网格卷积神经网络模型,能够相对完整地保留形状内在几何结构信息,在特征提取方面优于现有的方法,在应用于3D网格的各种学习任务(如分类和分割)中获得了更高的准确率。该方法针对三维形状图像数据,通过对网格表面的连续热信号进行重采样而得到的边信号。
-
公开(公告)号:CN114693788A
公开(公告)日:2022-07-01
申请号:CN202210303798.1
申请日:2022-03-24
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于视角变换的正面人体图像生成方法,用于解决在无需输入目标姿态的情况下,从人体侧面视角图像生成正面视角图像的问题。本方法首先通过FP‑Net获取人体正面姿态作为网络的目标姿态。然后,将人体图像和姿态输入到生成器,更新人体的外观和形态特征。最后,将生成的正面人体图像输入到鉴别器中,帮助生成具有真实感的正面人体图像。实验结果表明,该模型可以生成具有较好的外观一致性和形态一致性的正面人体图像。
-
-
-
-
-
-
-
-
-