-
公开(公告)号:CN114386620A
公开(公告)日:2022-04-22
申请号:CN202111683837.7
申请日:2021-12-29
Applicant: 北京工业大学
Abstract: 本发明公开一种基于动作约束的离线多智能体强化学习方法。根据QMIX网络,实现基于动作约束的多智能体离线强化学习方法的训练;该方法依据在离线强化学习中将动作约束在离线数据集中可以有效减少外推误差这一特点,通过变分自编码器进行动作约束,并进一步结合中心训练分布式执行的方法。进而达到各智能体在训练中仅依靠所拥有的离线数据去训练智能体,从而达到不需要与环境进行进一步交互和探索的目的。进而提升网络训练效果,降低多智能体算法在离线训练下的难度。
-
公开(公告)号:CN110163945A
公开(公告)日:2019-08-23
申请号:CN201910442598.2
申请日:2019-05-25
Applicant: 北京工业大学
IPC: G06T15/00
Abstract: 本发明涉及一种实时渲染中的水面仿真的方法,属于计算机图形学领域,旨在解决现有水面实时渲染仿真技术中无法兼顾真实感与计算效率的问题。本发明主要包含七个算法模块或部分,即:倒影摄像机、片元法线生成模块、水面反射颜色生成模块、水底颜色生成模块、菲涅尔系数生成方法、高光反射颜色生成方法、水面颜色混合方法。本发明通过上述算法模块或者部分的配合,可以得到最终的水面效果。本发明可应用于主流实时三维编程接口:OpenGL或DirectX。此外,本发明所采用的方法,在不涉及水体本身物理模拟,不涉及水面下观察的三维交互应用中,能够兼顾真实感与计算效率。
-
公开(公告)号:CN106407883A
公开(公告)日:2017-02-15
申请号:CN201610649374.5
申请日:2016-08-10
Abstract: 本发明公开了一种复杂表格及其内部手写数字识别方法,首先对复杂表格模板进行预处理、直线检测、角点集的行列分类排序、模板表格定来实现对单元格的结构描述。在获得电子手写表格后,对其进行倾斜矫正并与模板表格适配,获得其单元格位置描述。随后,对每个单元格进行处理,去除边线的同时,尽可能完整地保留单元格内的字符。然后,提取单元格中数字图像,通过对数据集训练好的分类器,对数字图像进行识别。最后,对手写字符进行后处理,将识别结果填入模板表格中。本发明简单易实现,识别效果较好,为今后自动识别并录入表格提供了良好的解决方案。
-
公开(公告)号:CN120014225A
公开(公告)日:2025-05-16
申请号:CN202411991666.8
申请日:2024-12-31
Applicant: 北京工业大学
IPC: G06V10/24 , G06V10/40 , G06V10/774 , G06V10/80 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开了一种基于双螺旋卷积注意力金字塔的视频时序动作定位方法,具体如下:首先,利用预训练的特征提取器从输入视频中提取特征;其次,利用时空特征优化器通过时间维度降采样,同时在通道维度上进行升采样以增强特征表示,并为多尺度双螺旋注意力卷积模块和双螺旋特征金字塔网络提供处理后的特征;然后,利用多尺度双螺旋注意力卷积模块建立特征序列之间的关联,并通过自适应学习将其整合到注意力机制的输出中;最后,双螺旋特征金字塔网络通过横向特征融合与纵向特征迭代交替进行,以获得多尺度视频表示,并将多尺度特征送入到分类头和回归头中得到最终的定位结果。本发明能够更准确地对未剪辑的视频中存在的动作进行分类和定位。
-
公开(公告)号:CN114386620B
公开(公告)日:2024-07-09
申请号:CN202111683837.7
申请日:2021-12-29
Applicant: 北京工业大学
Abstract: 本发明公开一种基于动作约束的离线多智能体强化学习方法。根据QMIX网络,实现基于动作约束的多智能体离线强化学习方法的训练;该方法依据在离线强化学习中将动作约束在离线数据集中可以有效减少外推误差这一特点,通过变分自编码器进行动作约束,并进一步结合中心训练分布式执行的方法。进而达到各智能体在训练中仅依靠所拥有的离线数据去训练智能体,从而达到不需要与环境进行进一步交互和探索的目的。进而提升网络训练效果,降低多智能体算法在离线训练下的难度。
-
公开(公告)号:CN113963044B
公开(公告)日:2024-04-30
申请号:CN202111160228.3
申请日:2021-09-30
Applicant: 北京工业大学
IPC: G06T7/50 , G06T7/80 , G06V10/762 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08 , B25J9/16
Abstract: 本发明公开了一种基于RGBD相机的货物箱智能装载方法及系统,首先通过RGBD相机采集待装载和目标区域货物箱的颜色和深度信息,生成RGB图像和深度图,并进行相机标定;根据得到的相机内外参,将深度图转化为点云,并对RGB图像和点云进行数据增强;将增强后的RGB图像和点云数据输入到改进版的3D目标检测网络中,检测出每个货物箱的位置和尺寸大小,生成带有中心位置坐标和尺寸大小的三维检测框信息;将得到的货物箱的位置和尺寸信息以及目标区域已装载货物箱装载信息输入到基于强化学习的装载策略生成网络中,生成所有待摆放的货物箱的摆放顺序,并根据摆放顺序生成货物箱的最优摆放位置,形成最终的摆放策略;根据摆放策略计算机械臂的偏转位移和旋转角度,控制机械臂对货物箱进行装载。
-
公开(公告)号:CN114332723A
公开(公告)日:2022-04-12
申请号:CN202111669113.7
申请日:2021-12-31
Applicant: 北京工业大学
Abstract: 本发明公开了基于语义指导的视频行为检测方法,通过特征的下采样来扩大时间感受野,并将线性插值用于上采样环节,从而得到视频时序上的粗略语义信息,用于指导时间卷积模型的输出;同时对模型的主干网络使用参数共享结构,将网络分为了三部分:生成粗略预测、细化和最终预测,以实现网络层数与参数量的最佳搭配;针对模型的时间建模能力,本发明提供了一种不需人工标注的视频速度预测的自监督辅助任务,可通过随机采样率的变换来模拟视频的播放速度,以辅助主干网络生成质量更高的预测。本发明主要针对以人为主体的视频,具有参数量低、精度高,方便对长视频进行操作等特点;对于无人的视频,本发明根据转场对视频进行分割。
-
公开(公告)号:CN113963044A
公开(公告)日:2022-01-21
申请号:CN202111160228.3
申请日:2021-09-30
Applicant: 北京工业大学
IPC: G06T7/50 , G06T7/80 , G06V10/762 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08 , B25J9/16
Abstract: 本发明公开了一种基于RGBD相机的货物箱智能装载方法及系统,首先通过RGBD相机采集待装载和目标区域货物箱的颜色和深度信息,生成RGB图像和深度图,并进行相机标定;根据得到的相机内外参,将深度图转化为点云,并对RGB图像和点云进行数据增强;将增强后的RGB图像和点云数据输入到改进版的3D目标检测网络中,检测出每个货物箱的位置和尺寸大小,生成带有中心位置坐标和尺寸大小的三维检测框信息;将得到的货物箱的位置和尺寸信息以及目标区域已装载货物箱装载信息输入到基于强化学习的装载策略生成网络中,生成所有待摆放的货物箱的摆放顺序,并根据摆放顺序生成货物箱的最优摆放位置,形成最终的摆放策略;根据摆放策略计算机械臂的偏转位移和旋转角度,控制机械臂对货物箱进行装载。
-
公开(公告)号:CN113158735A
公开(公告)日:2021-07-23
申请号:CN202110075596.1
申请日:2021-01-20
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于图神经网络的密集事件描述方法,能够根据视频生成包含全部事件的时间及对应文字描述。该方法包括以下步骤:利用光流法、3D卷积网络和2D卷积网络分别对视频数据提取特征;对2D卷积网络提取的特征建立空间图,通过图卷积网络迭代后生成的特征与光流法、3D卷积特征拼接为长特征;采用锚边框对不同时间段的特征进行检测,划分为不同密集事件时间区域;采用非极大值抑制策略来消除重叠区域过多及分数较低的候选时间区域;对每个候选区域特征构建时间图,通过GAT更新每节点特征;将每个候选区域特征通过LSTM解码成对应文字输出。本发明结合空间信息和时序信息生成更精确的事件发生时间和对应的描述语言。
-
公开(公告)号:CN108681718A
公开(公告)日:2018-10-19
申请号:CN201810484717.6
申请日:2018-05-20
Applicant: 北京工业大学
CPC classification number: G06K9/00664 , G06K9/6202 , G06K2209/21 , G06N3/08 , G06T7/70 , G06T7/75
Abstract: 本发明公开一种无人机低空目标精准检测识别方法,根据全卷积网络(Fully Convolutional Networks,FCN),实现基于尺度估计模型的无人机低空目标精准检测识别;该方法依据低空目标车辆、摩托车、骑车的行人、行人存在明显尺度范围这一特点,通过模型计算出目标的像素尺度,同时计算出锚的参数,提高识别的精度。
-
-
-
-
-
-
-
-
-