-
公开(公告)号:CN112560954B
公开(公告)日:2024-12-27
申请号:CN202011489924.4
申请日:2020-12-14
Applicant: 北京工业大学
Abstract: 利用局部及全局信息的几何模型非刚性匹配方法及装置,能够区分形状的左右对称部位,明显提高点匹配的准确度。方法包括:(1)输入为表示同一物体的不同姿势的一对几何模型,模型的数据类型为网格类型或点云类型;(2)计算模型内每个点的密度,依据点密度切割几何模型;(3)对于分割得到的段,利用段间误差和段内误差进行匹配,得到段匹配结果;(4)通过局部‑全局交换性保持模型,该模型包含几何对象的段相关描述符约束和段相关算子交换性约束,利用段匹配信息,输出点匹配结果。
-
公开(公告)号:CN112699892B
公开(公告)日:2024-11-08
申请号:CN202110026447.6
申请日:2021-01-08
Applicant: 北京工业大学
IPC: G06V20/70 , G06V10/26 , G06V10/82 , G06V10/44 , G06V10/74 , G06V10/774 , G06N3/088 , G06N3/0895 , G06N3/09 , G06N3/084 , G06N3/0464
Abstract: 本发明公开了一种无监督领域自适应语义分割方法,基于源域图像训练神经网络;利用已训练网络计算目标域图像伪标签;利用源域图像和有伪标签的目标域图像重训练网络,进一步提高伪标签准确性,优化网络的泛化能力。本方法通过利用自训练方法,利用已训练网络提取高置信度的目标域伪标签,弥补了目标域缺少监督信息的缺点,与其他方法相比,丰富了目标域数据的信息,提升网络对目标域数据的学习能力;本方法着重考虑了基于类别的域间差异,针对源域和目标域的预测进行类相关性度量,约束两个域的类相关性一致,减小了两个域类级别的域间差异,提高了网络的泛化能力,本发明的性能优于其他无监督领域自适应语义分割方法。
-
公开(公告)号:CN118229336B
公开(公告)日:2024-10-29
申请号:CN202410211115.9
申请日:2024-02-26
Applicant: 北京工业大学
IPC: G06Q30/0202 , G06Q30/0204
Abstract: 本公开涉及异质行人的行为模拟方法、装置、电子设备及存储介质,上述方法包括:获取目标行人的异质属性、初始位置信息以及移动方向;根据初始位置信息以及移动方向,确定目标行人的注意力范围,并获取注意力范围内的多个目标店铺;根据异质属性,分别获取多个目标店铺对目标行人的吸引力信息;将初始位置信息以及移动方向输入基于吸引力势能的社会力模型AP‑SFM中,获得目标行人在目标时刻的位置信息;根据目标位置信息以及初始位置信息,生成目标行人的预测出行轨迹。本公开提供的异质行人的行为模拟方法通过构建基于吸引力势能的社会力模型,描述不同店铺对具有不同异质属性的行人的吸引力,从而模拟异质行人的预测出行轨迹。
-
公开(公告)号:CN117993227B
公开(公告)日:2024-06-18
申请号:CN202410396738.8
申请日:2024-04-03
Applicant: 北京工业大学
Abstract: 本公开涉及人流中的超越行为的仿真方法和装置。该人流中的超越行为的仿真方法包括:构建目标区域内目标行人的目标模型和目标障碍物的非目标模型,并分别确定目标行人的运动相关信息和目标障碍物的运动相关信息;基于目标模型、非目标模型、目标行人的运动相关信息和目标障碍物的运动相关信息,确定目标行人在目标区域的人流中的超越行为的侧身约束条件;构建基于侧身行为的扭转社会力模型;在侧身约束条件的约束下,利用扭转社会力模型对目标行人在目标区域的人流中的超越行为进行仿真,得到目标行人的目标行为轨迹。本公开能够基于行人的侧身行为,对目标行人在人流中的超越行为进行仿真,提高了仿真的真实性。
-
公开(公告)号:CN117993227A
公开(公告)日:2024-05-07
申请号:CN202410396738.8
申请日:2024-04-03
Applicant: 北京工业大学
Abstract: 本公开涉及人流中的超越行为的仿真方法和装置。该人流中的超越行为的仿真方法包括:构建目标区域内目标行人的目标模型和目标障碍物的非目标模型,并分别确定目标行人的运动相关信息和目标障碍物的运动相关信息;基于目标模型、非目标模型、目标行人的运动相关信息和目标障碍物的运动相关信息,确定目标行人在目标区域的人流中的超越行为的侧身约束条件;构建基于侧身行为的扭转社会力模型;在侧身约束条件的约束下,利用扭转社会力模型对目标行人在目标区域的人流中的超越行为进行仿真,得到目标行人的目标行为轨迹。本公开能够基于行人的侧身行为,对目标行人在人流中的超越行为进行仿真,提高了仿真的真实性。
-
公开(公告)号:CN113239824B
公开(公告)日:2024-04-05
申请号:CN202110544122.7
申请日:2021-05-19
Applicant: 北京工业大学
IPC: G06V40/20 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于3D‑Ghost模块的多模态训练单模态测试的动态手势识别方法,用于解决多模态训练单模态测试的动态手势识别问题,具体利用RGB数据和深度数据训练整体网络,整体网络采用并行双通道协作学习的结构,旨在通过不同模态网络之间传递知识来改善学习过程,通道m用于通过RGB数据识别动态手势,通道n用于通过深度数据识别动态手势;训练完成后,将RGB数据输入通道m进行动态手势识别,或者将深度数据输入通道n进行动态手势识别;其中通道采用I3D网络并对其进行改进,改进之处在于增加了注意力模块,部分3D卷积层替换为3D‑Ghost模块,对所有Inception‑V1子模块进行改进。
-
公开(公告)号:CN109993825B
公开(公告)日:2023-06-20
申请号:CN201910179121.X
申请日:2019-03-11
Applicant: 北京工业大学
IPC: G06T17/00 , G06N3/0475 , G06N3/094 , G06N3/0464 , G06N3/0455
Abstract: 公开一种基于深度学习的三维重建方法,该方法包括:(1)将输入图像被约束的潜在向量重建出目标完整三维形状,学习部分和完整三维形状之间的映射,然后实现单幅深度图像的三维重建;(2)学习三维真实对象与重建对象之间的中间特征表示,从而获得步骤(1)中的目标潜在变量;(3)利用极限学习机将步骤(1)中预测的体素浮动值变换为二进制值,完成高精度重建。
-
公开(公告)号:CN109829972B
公开(公告)日:2023-06-02
申请号:CN201910056962.1
申请日:2019-01-19
Applicant: 北京工业大学
Abstract: 本发明公开了一种面向连续帧点云的三维人体标准骨架提取方法,该方法包含以下两个步骤:第一步,采集多视角运动人体的图像,使用每一帧的各视角图像重建出稠密的点云模型。针对每一帧的点云模型,进行降采样,表面重建,进而使用基于模型分割的三维人体标准骨架提取算法提取标准骨架模型;第二步,对提取的标准骨架进行帧间对齐与对应点匹配,构造连续帧标准骨架的骨骼点序列,建立连续帧骨骼点位置优化模型对上面得到的骨骼点序列进行优化,最终得到面向连续帧点云的三维人体标准骨架序列在几乎没有人工干预的前提下,提取的三维人体骨架无论是在完整性上,与原模型贴合度上,准确性上,还是在标准性上都比传统方法提取的骨架更具有优势,更具有实用价值与意义。
-
公开(公告)号:CN110543836B
公开(公告)日:2022-05-10
申请号:CN201910759439.5
申请日:2019-08-16
Applicant: 北京工业大学
IPC: G06V20/00 , G06V10/40 , G06V10/50 , G06V10/56 , G06V10/762 , G06V10/764 , G06K9/62
Abstract: 公开一种面向彩色图像的车辆检测方法,其对所要检测的物体的外观描述能力强、适应能力强、需要的训练样本适度、时间消耗低。该方法包括以下步骤:(1)通过车辆检测的特征设计和分层稀疏‑稠密字典集合建模,为车辆类别、非车辆类别构建具有类别判别能力的字典集合;(2)滑动窗口扫描与窗口特征提取;基于稀疏‑稠密字典集合的窗口分类;基于核密度估计非极大抑制的重复检测框去除以过滤高度重叠的检测结果。
-
公开(公告)号:CN108447038B
公开(公告)日:2022-03-22
申请号:CN201810258396.8
申请日:2018-03-27
Applicant: 北京工业大学
IPC: G06T5/00
Abstract: 本发明公开了一种基于非局部全变分算子的网格去噪方法,主要包括获取待测对象的三角网格测量数据;分别为每条边在包含它的两个三角面上指定方向;计算每条边的非局部全变分算子;通过求解目标公式得到整个三角网格滤波后的面法向量;更新三角网格中所有的顶点坐标,更新后的坐标即为滤波后的顶点坐标。本发明将传统的二维图像去噪的全变分和非局部方法扩展到三角网格上,在网格去噪中考虑到非局部性和几何位置信息,通过定义非局部全变分算子,最终可以简单高效地达到保持特征的网格去噪的效果。
-
-
-
-
-
-
-
-
-