-
-
公开(公告)号:CN104715493A
公开(公告)日:2015-06-17
申请号:CN201510128533.2
申请日:2015-03-23
Applicant: 北京工业大学
IPC: G06T7/20
Abstract: 本发明公开一种运动人体姿态估计的方法,能够准确地定位人体骨架点,有效地获取三维运动人体中更具表达力的特征,构建更为有效、简单。其包括:(1)采用中值滤波的方法对深度图像数据进行预处理操作,采用基于测地距离的迪杰斯特拉算法对人体像素进行部位标定;(2)基于K-均值聚类算法的区域特征点提取算法,确定每个类内的聚类个数为3个,提取32个姿态特征以表征不同的人体姿态;(3)在训练阶段通过PoserPro2012软件获得骨架点位置标注信息,合成300帧虚拟人的姿态特征并标注了标准骨架点,通过训练样本的姿态特征点与标准骨架点,计算姿态特征与骨架点的线性回归模型,以便得到姿态特征和标准骨架点之间的映射关系。
-
公开(公告)号:CN119851029A
公开(公告)日:2025-04-18
申请号:CN202411991661.5
申请日:2024-12-31
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06N3/045 , G06N3/0455 , G06N3/096
Abstract: 本发明公开了一种基于任务提示注意力网络的类增量图像分类方法,该方法以Transformer为基础,采用多个多头自注意力模块作为特征提取器,然后使用设计的任务相关的注意力模块为每个任务保存特定的注意力权重,缓解了类增量图像分类设定中灾难性遗忘的问题。同时,通过引入该任务相关注意力模块,能够在保证不遗忘旧任务知识的同时学习新任务的知识,缓解了稳定性‑可塑性困境。本发明所提出的方法通过在框架中加入了一个较小的任务注意力模块,在保证效果的前提下仅增加了少量参数量,没有增大计算成本,综上,本发明的提出,有效地缓解了类增量图像分类中的灾难性遗忘,解决了稳定性‑可塑性困境,同时避免了模型参数存储成本过高的问题。
-
公开(公告)号:CN114077692B
公开(公告)日:2024-11-19
申请号:CN202111310620.1
申请日:2021-11-04
Applicant: 北京工业大学
IPC: G06F16/9035 , G06F16/906 , G06F16/901 , G06N3/084 , G06N5/022 , G06V10/764 , G06V10/82
Abstract: 基于交互任务知识图谱的细粒度工具推荐方法及装置,能够很好地针对细粒度任务进行工具推荐,并且在最优工具不存在时,可以有效地检索到替代工具。方法包括:(1)建立交互任务知识图谱ITKG来定义交互任务、工具及被操作物体的多粒度语义;(2)通过交互工具推荐网络IT‑Net推荐细粒度任务适配的工具;(3)通过约束工具和被操作物体的粗粒度语义预测损失loss,通过细粒度语义预测loss,使IT‑Net学习到工具和被操作物体的共同特征和专有特征;(4)通过约束适配细粒度任务的工具和被操作物体的嵌入特征距离小于不适配细粒度任务的工具和被操作物体的嵌入特征距离,使IT‑Net学习适配细粒度任务的工具和被操作物体的特征关系。
-
公开(公告)号:CN118229336A
公开(公告)日:2024-06-21
申请号:CN202410211115.9
申请日:2024-02-26
Applicant: 北京工业大学
IPC: G06Q30/0202 , G06Q30/0204
Abstract: 本公开涉及异质行人的行为模拟方法、装置、电子设备及存储介质,上述方法包括:获取目标行人的异质属性、初始位置信息以及移动方向;根据初始位置信息以及移动方向,确定目标行人的注意力范围,并获取注意力范围内的多个目标店铺;根据异质属性,分别获取多个目标店铺对目标行人的吸引力信息;将初始位置信息以及移动方向输入基于吸引力势能的社会力模型AP‑SFM中,获得目标行人在目标时刻的位置信息;根据目标位置信息以及初始位置信息,生成目标行人的预测出行轨迹。本公开提供的异质行人的行为模拟方法通过构建基于吸引力势能的社会力模型,描述不同店铺对具有不同异质属性的行人的吸引力,从而模拟异质行人的预测出行轨迹。
-
公开(公告)号:CN112801142B
公开(公告)日:2024-05-28
申请号:CN202110028634.8
申请日:2021-01-08
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/766 , G06V10/77 , G06V20/40
Abstract: 本发明涉及一类基于张量自回归滑动平均模型的视频分类方法,用于解决传统的视频数据处理方法不能充分利用视频数据中潜在的结构信息,造成视频数据内部的时域信息丢失,同时数据向量化造成的维度灾难等问题。首先,将视频序列表示为张量型数据,同时引入经典的时间序列表示方法‑自回归滑动平均模型。然后,应用张量分解得到观测矩阵和潜在的低维度的核张量的转移矩阵,该核张量是原始视频序列张量的一种有意义的、独一无二的表示。将观测矩阵和转移矩阵构建视频序列张量所对应的视觉矩阵序列,其可以映射为流形中的一个点。在对视频进行分类时,可以通过度量每个视频数据的视觉矩阵序列在流形中的相似性距离,进而对视频序列进行分类。
-
公开(公告)号:CN113538662B
公开(公告)日:2024-04-09
申请号:CN202110765943.3
申请日:2021-07-05
Applicant: 北京工业大学
Abstract: 一种基于RGB数据的单视角三维物体重建方法及装置,能够将对象三维重建任务转换成基底系数矩阵的生成问题,挖掘可见部分和遮挡部分形状之间的关系,从而得到具有精确细节信息的三维体素,提升了三维模型重建精度。方法包括:(1)建立从潜在特征到初始三维体素的生成模型,该潜在特征由基底和系数线性组合而成。令训练集中的样本张成形状空间,经编码‑解码后得到其形状潜空间,对其进行矩阵分解求得基底表示Θ;利用系数回归网络实现系数回归任务,将测试集中的图像再经编码过程回归其对应形状的系数矩阵Y;则基底Θ和系数Y的线性组合实现基于图像的三维模型重建。(2)建模体素数据为切片数据,利用设计的切片Transformer对初始三维体素进行细化处理,实现基于图像的精细化三维模型重建。
-
公开(公告)号:CN112365581B
公开(公告)日:2024-04-09
申请号:CN202011281969.2
申请日:2020-11-17
Applicant: 北京工业大学
IPC: G06T17/00
Abstract: 一种基于RGB数据的单视角和多视角三维重建方法及装置,能够充分利用输入图像的个性特征和其属于特定类别的共性特征,以及物体自身的几何信息来增强三维重建效果,能够获得高精度的三维重建结果。方法包括:(1)融合输入视角的个性化特征和其所属类别的共性化特征,重建得到初始化的三维体素;(2)在初始化的三维体素基础上,利用体素在特定视角下的先验对称性和本身具有的内部上下文依赖关系指导体素注意力图结构的构建,基于体素注意力图结构,利用多尺度图卷积对初始体素进行细化处理。
-
公开(公告)号:CN111340930B
公开(公告)日:2024-03-19
申请号:CN202010155747.X
申请日:2020-03-09
Applicant: 北京工业大学
Abstract: 一种融合多尺度邻域信息的三维几何模型形状映射方法,通过以下技术方案实现。输入为源形状和目标形状的网格模型。首先分别提取源形状和目标形状的拉普拉斯矩阵的特征向量作为特征函数。接下来对三维模型的顶点提取邻域特征。在多个尺度的邻域范围内,可以得到多个不同的邻域特征,并使用求解得到不同尺度下的基函数空间下的映射矩阵,然后进行融合。最后还原得到源形状与目标形状的点对点映射关系。相比于现有技术,本发明首先使对顶点提取邻域特征,邻域特征对形状间的非刚体映射有更强的鲁棒性。形状映射过程中,能够有效保持局部不变性。其次,本发明能够对不同尺度的邻域信息进行融合,使得不同尺度的特征进行互补。
-
公开(公告)号:CN110110578B
公开(公告)日:2023-09-29
申请号:CN201910129531.3
申请日:2019-02-21
Applicant: 北京工业大学
IPC: G06V20/10 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 公开一种室内场景语义标注方法,包括:输入彩色图片和深度图片;进入神经网络之中,彩色图片和深度图片分别通过conv1和conv2_x;进入第一注意力机制模块ARF_1之中,通过ARF_1的计算,得到特征图;进入conv3_x之中进行卷积计算;进入第二注意力机制模块ARF_2之中,通过ARF_2的计算,得到特征图;进入conv4_x之中进行空洞卷积计算;进入第三注意力机制模块ARF_3之中,通过ARF_3的计算,得到特征图;进入conv5_x之中进行空洞卷积计算;进入注意力机制混合模块ARMF进行计算;进入空间金字塔模块SPP实现多层次上下文信息融合;得到语义标注结果图。
-
-
-
-
-
-
-
-
-