-
公开(公告)号:CN117993226B
公开(公告)日:2024-06-18
申请号:CN202410396668.6
申请日:2024-04-03
Applicant: 北京工业大学
Abstract: 本公开涉及逆流中的避让行为的仿真方法和装置。该方法包括:构建目标通道内目标行人的目标模型和非目标行人的非目标模型,并分别确定目标行人的运动相关信息和非目标行人的运动相关信息;基于目标模型、非目标模型、目标通道的宽度、目标行人的运动相关信息和非目标行人的运动相关信息,确定目标行人在目标通道的逆流中的避让行为的侧身约束条件;构建基于侧身行为的扭转社会力模型;在侧身约束条件的约束下,利用扭转社会力模型对目标行人在目标通道的逆流中的避让行为进行仿真,得到目标行人的目标行为轨迹。本公开能够基于行人的侧身行为,对目标行人在逆流中的避让行为进行仿真,提高了仿真的真实性。
-
公开(公告)号:CN113920379B
公开(公告)日:2024-05-28
申请号:CN202111323019.6
申请日:2021-11-09
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及一种基于知识辅助的零样本图像分类方法,用于解决图卷积神经网络和知识图的算法无法充分利用视觉和语义知识,导致零样本图像分类准确性低的问题。为此本发明提出了视觉知识辅助模块与语义知识辅助模块,进一步提升了现有模型的图像分类精度。视觉知识辅助模块中利用每个类的样本视觉特征中心及其对应标签设计一个分类损失函数,促使模型挖掘真实的视觉知识。语义知识辅助模块通过将分类器参数重构回语义特征的方式,保证了语义知识在卷积网络中重要信息不被损害。此外还添加了一个简单的残差卷积网络进一步提高模型在AWA2数据集上的表现。本发明在的AWA2数据集和ImageNet数据集上都取得了良好的实验结果。
-
公开(公告)号:CN113283282B
公开(公告)日:2024-05-28
申请号:CN202110262515.9
申请日:2021-03-10
Applicant: 北京工业大学
IPC: G06V20/40 , G06V10/774
Abstract: 一种基于时域语义特征的弱监督时序动作检测方法属于计算机视觉视频领域,弱监督时序动作检测任务是在仅依靠视频级别标签的情况下,对未修剪的长视频中的每一段动作进行时序上的定位和分类。目前的方法还是将时序动作检测任务视为动作识别的变体任务,他们着重在模型的特征提取、提名生成、分类器训练等方面做研究,却忽视了该任务视频本身的时域语义特征。本发明首先归纳了长视频时域语义特征:动作片段在时序上的稀疏性、相邻片段之间的语义特征具有相似性而距离较远的片段间语义特征具有差异性等,并基于此设计一种新的网络模型来提升视频分类和时序定位的精度。本发明性能超过了目前的先进方法。
-
公开(公告)号:CN113468471B
公开(公告)日:2024-05-24
申请号:CN202110543478.9
申请日:2021-05-19
Applicant: 北京工业大学
Abstract: 本发明提出一种基于张量型加权Schatten‑p范数的交通数据修复方法。该方法首次将加权Schatten‑p范数引入交通数据修复的问题中,其形式更接近于张量秩函数的形式,更确切地说是加权核范数和张量秩函数之间的一种平衡,可以更好地挖掘数据之间的各向异性;其次,提出一种全新的权重向量构造方法,可以极大限度地保证奇异值之间的大小关系,保证数据的主成分不被破坏;最后,通过引入广义奇异值软阈值算法和ADMM算法,成功求解优化问题的全局最优解。本发明进一步优化低秩结构,确保结果的低秩性以及对权重向量进行重构,保证各个奇异值在原数据中所起的作用,最终提升数据修复效果。
-
公开(公告)号:CN117993226A
公开(公告)日:2024-05-07
申请号:CN202410396668.6
申请日:2024-04-03
Applicant: 北京工业大学
Abstract: 本公开涉及逆流中的避让行为的仿真方法和装置。该方法包括:构建目标通道内目标行人的目标模型和非目标行人的非目标模型,并分别确定目标行人的运动相关信息和非目标行人的运动相关信息;基于目标模型、非目标模型、目标通道的宽度、目标行人的运动相关信息和非目标行人的运动相关信息,确定目标行人在目标通道的逆流中的避让行为的侧身约束条件;构建基于侧身行为的扭转社会力模型;在侧身约束条件的约束下,利用扭转社会力模型对目标行人在目标通道的逆流中的避让行为进行仿真,得到目标行人的目标行为轨迹。本公开能够基于行人的侧身行为,对目标行人在逆流中的避让行为进行仿真,提高了仿真的真实性。
-
公开(公告)号:CN111914622B
公开(公告)日:2024-03-26
申请号:CN202010548298.5
申请日:2020-06-16
Applicant: 北京工业大学
IPC: G06V40/20 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 公开一种基于深度学习的人物交互检测方法,其能够提升预测精度,使模型推理速度更快。该方法包括:(1)目标检测:对RGB图像中的对象实例进行目标检测,以获取对象的检测框、对象类别和对象检测得分,并提供给人物交互检测阶段进行 对实例的人物交互检测;(2)人物交互检测:通过基于深度学习的人物交互检测算法SKA‑Net来进行人物交互检测。
-
公开(公告)号:CN117058436A
公开(公告)日:2023-11-14
申请号:CN202310394834.4
申请日:2023-04-13
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 基于对偶注意力视觉Transformer网络的类增量图像分类方法适用于计算机视觉领域。该方法将注意力信息作为知识进行转移,并对类增量学习的语义知识进行增强。核心是对偶注意力机制,即在每个Transformer层中使用对偶key学习任务间注意力和任务内注意力。任务间注意可以隐式地吸收之前任务中的知识,有效地缓解灾难性遗忘,而任务内注意则专注于当前任务的知识,可以提高模型的可塑性。本方法通过融合这两种注意力获取的知识,能在稳定性和可塑性上取得良好的平衡。此外,本发明还提出了近邻不变损失和自适应注意力固化损失。本方法解决稳定性‑可塑性困境和样本不平衡所造成的模型偏好问题,以提高类增量图像分类的准确率。
-
公开(公告)号:CN111126218B
公开(公告)日:2023-09-26
申请号:CN201911288489.6
申请日:2019-12-12
Applicant: 北京工业大学
IPC: G06V40/20 , G06V40/10 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/042 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 公开一种基于零样本学习的人体行为识别方法,其提高了所训练分类器的分类性能和准确率,推进了人体行为类别自动标注目标的实现。该方法包括:(1)基于动作类与动作关联物体构造知识图谱,并通过基于注意力机制的图卷积网络AMGCN动态更新其关系,旨在更好地描述图中节点的关系;(2)学习基于梯度惩罚和循环一致性约束的生成对抗网络WGAN‑GCC,使得学习的生成器能够更好地生成未知类特征;(3)将图卷积网络和生成对抗网络两个网络结合为双流深度神经网络,使得训练的分类器更具判别性。
-
公开(公告)号:CN110097639B
公开(公告)日:2023-04-18
申请号:CN201910201559.3
申请日:2019-03-18
Applicant: 北京工业大学
Abstract: 公开一种三维人体姿态估计方法,其在不需要高配置硬件支持、和精准人体模型的条件下,实现实时且高精度的三维人体姿态估计。该方法包括步骤:(1)建立与对象匹配的三维人体模型,该模型为可见球面分布约束点云人体模型;(2)面向人体姿态跟踪的人体模型与深度点云匹配优化;(3)基于动态数据库检索的姿态跟踪错误恢复。
-
公开(公告)号:CN115937507A
公开(公告)日:2023-04-07
申请号:CN202210400811.5
申请日:2022-04-17
Applicant: 北京工业大学
IPC: G06V10/26 , G06V10/44 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/084
Abstract: 一种基于点空洞方向卷积的点云语义分割方法适用于计算机视觉领域。它是一种交替使用点空洞方向卷积模块,边缘保持池化模块和边缘保持非池化模块的分层编解码网络。点空洞方向编码单元能通过改变空洞率来对邻域点进行等效稀疏采样,同时考虑了局部邻域点的方向信息和距离信息,可以在编码八个方向特征信息的同时任意的扩大其感受野,从而更全面地捕捉局部邻域信息。然后,将多个点空洞方向编码单元堆叠在一起组成点空洞方向卷积模块,该模块具有尺度感知能力和可移植性。边缘保持池化模块和边缘保持非池化模块用来保留边缘特征,恢复点云的高维特征,提高点云语义分割精度。该方法包括点云的局部邻域选择与特征提取,以获得更好的语义分割性能。
-
-
-
-
-
-
-
-
-