-
公开(公告)号:CN112613534A
公开(公告)日:2021-04-06
申请号:CN202011416110.8
申请日:2020-12-07
Applicant: 北京理工大学
IPC: G06K9/62 , G06F16/332
Abstract: 本发明涉及一种多模态信息处理及交互系统,用于解决多模态交互系统中存在的模态融合方式简单,对话机制呆板的问题。包括多模态信息认知模块,多模态信息融合模块,以及多模态对话管理模块,其中,多模态信息认知模块用于对用户各模态交互信息进行识别,多模态信息融合模块利用D‑S证据理论将用户所有模态的交互信息进行意图融合,确定用户的最终交互意图,并得到对应于用户最终交互意图的可供机器识别的形式化指令;多模态对话管理模块针对多模态人机交互场景,采用有限状态机与信息槽填充方法相融合的对话管理模型,用于控制对话流程以及生成应答;本发明有效提高了用户交互意图识别准确率,实现了自然灵活的人机交互。
-
公开(公告)号:CN112613349A
公开(公告)日:2021-04-06
申请号:CN202011402943.9
申请日:2020-12-04
Applicant: 北京理工大学
Abstract: 本发明提供一种基于深度混合卷积神经网络的时序动作检测方法及装置,所述方法包括获取待检测视频;将视频输入训练好的深度混合卷积神经网络,所述深度混合卷积神经网络模型包括特征编码模块、第一子网及第二子网;所述特征编码模块通过双流网络从原始视频数据中提取片段特征,所述第一子网基于所述特征编码模块提取的片段特征,获得一组提议特征,所述第二子网接收所述提议特征,基于所述提议特征之间的关系构建图,将构建的图输入GCN模型,扩大提议特征的接受区域;输出所述待检测视频的动作类别与动作起始、终止时间。根据本发明的方案,有效利用提议之间的关系,提高了时序动作检测的准确率,有效解决了时序动作检测。
-
公开(公告)号:CN110009694B
公开(公告)日:2021-03-23
申请号:CN201910262696.8
申请日:2019-04-02
Applicant: 北京理工大学
IPC: G06T7/80
Abstract: 本发明提出一种高精度摄像机标定方法,弥补了张正友标定方法在空间立体标定中精度不足的缺点,同时也改进了DLT标定方法对摄像机畸变系数计算不足的缺陷。首先利用张正友标定方法计算得到摄像机内、外参数矩阵以及畸变系数矩阵,将摄像机内、外参数矩阵做乘法运算得到摄像机M矩阵,然后利用直接线性变换(DLT)标定方法再次对摄像机进行标定,求出基于DLT方法下的摄像机M矩阵,将基于DLT方法下的摄像机M矩阵与张正友标定方法计算得到的M矩阵进行平均化运算,得到平均化后的M矩阵,以及由张正友标定方法计算得到的摄像机畸变系数矩阵。
-
公开(公告)号:CN110009694A
公开(公告)日:2019-07-12
申请号:CN201910262696.8
申请日:2019-04-02
Applicant: 北京理工大学
IPC: G06T7/80
Abstract: 本发明提出一种高精度摄像机标定方法,弥补了张正友标定方法在空间立体标定中精度不足的缺点,同时也改进了DLT标定方法对摄像机畸变系数计算不足的缺陷。首先利用张正友标定方法计算得到摄像机内、外参数矩阵以及畸变系数矩阵,将摄像机内、外参数矩阵做乘法运算得到摄像机M矩阵,然后利用直接线性变换(DLT)标定方法再次对摄像机进行标定,求出基于DLT方法下的摄像机M矩阵,将基于DLT方法下的摄像机M矩阵与张正友标定方法计算得到的M矩阵进行平均化运算,得到平均化后的M矩阵,以及由张正友标定方法计算得到的摄像机畸变系数矩阵。
-
公开(公告)号:CN109931920A
公开(公告)日:2019-06-25
申请号:CN201910262018.1
申请日:2019-04-02
Applicant: 北京理工大学
IPC: G01C19/02
Abstract: 本发明提供一种基于运动状态识别的瞬时角度感知与测量方法,克服低成本器件长时间测量时存在的漂移问题。包括:步骤一、利用高精度转台对陀螺进行测试,结合地球自转角速度及角速度补偿确定角速度信号检测阈值;步骤二、利用系统较短时间的静态测量数据,得到地球自转角速度分量在平台当前姿态下各轴的分量;步骤三、根据步骤一确定的检测阈值,判断平台是否产生瞬时的调节过程,并判定该调节过程是否为冲击振动产生,得到有效调节过程的角速度测量值和调节时间;步骤四、根据步骤二得到的地球自转角速度分量在平台当前姿态下各轴的分量和步骤三得到的有效调节过程的角速度测量值和调节时间,解算平台调节过程中角度变化量。
-
公开(公告)号:CN106153008B
公开(公告)日:2018-04-06
申请号:CN201610440112.8
申请日:2016-06-17
Applicant: 北京理工大学
Abstract: 本发明公开一种基于视觉的旋翼无人机三维目标定位方法,利用搭载在无人机上的单一摄像机拍摄目标图像,并将图像回传到地面站;选择具有明显特征的标志物,并进行视觉识别;然后对该标志物进行多点图像测量,基于双目视觉模型和相关数据处理方法计算无人机相对于目标所在地形的高度,获得相对高度后,运用线性回归的方法计算航向偏差;接下来,操作人员可选择摄像机视野里的任一静止或运动目标,实现目标的三维精确定位。本发明在同一次的飞行任务进行,飞行前段计算航向偏差和相对高度,飞行后段进行三维精确定位;本发明不依赖数字地形高程图或气压计,仅采用视觉测量方法确定相对高度,有效节约成本,真正意义上实现对目标的三维定位。
-
公开(公告)号:CN107300377A
公开(公告)日:2017-10-27
申请号:CN201610943473.4
申请日:2016-11-01
Applicant: 北京理工大学
Abstract: 本发明公开一种绕飞轨迹下的旋翼无人机三维目标定位方法,利用搭载在无人机上的单一摄像机拍摄目标图像,并将图像回传到地面站;选择具有明显特征的标志物,并进行视觉识别;然后旋翼无人机以该标志物为中心绕飞,进行多点图像测量,基于双目视觉模型和线性回归模型相互迭代的方法计算无人机相对于目标所在地形的高度和航向偏差;接下来,操作人员可选择摄像机视野里的任一静止或运动目标,实现目标的三维精确定位。本发明在同一次的飞行任务进行,飞行前段计算航向偏差和相对高度,飞行后段进行三维精确定位;本发明解决了绕飞轨迹下传统的三角定位方法无法计算相对高度的问题,从而实现对目标的三维定位。
-
公开(公告)号:CN104851112B
公开(公告)日:2017-03-01
申请号:CN201510206654.4
申请日:2015-04-28
Applicant: 北京理工大学
IPC: G06T7/20
Abstract: 本发明公开了一种基于数据集补偿的运动目标检测跟踪算法的评估方法,为数据集自动添加上述八种性能干扰因素的量化因子,可供用户在进行算法评估时方便的选择变化因素;根据具体被评估算法对特定的变化因素的敏感性强弱,可自定义各项变换因素权值大小,使得各数据集对应的综合量化因子真实体现算法应用环境,最终保证评估结果的客观性;最后,由于综合量化因子是对应数据集中影响算法性能的变化因素的综合量化体现,采用各数据集的综合量化因子对评估指标精度OverlapP进行成功判定的阈值进行加权补偿,能够在评估结果里表现不同影响因素的数据集对算法性能带来的不同影响,可以模拟算法在某些干扰条件下的结果,对算法的进一步改进方向提供一定指导作用。
-
公开(公告)号:CN105044676B
公开(公告)日:2016-12-21
申请号:CN201510585249.8
申请日:2015-09-15
Applicant: 北京理工大学
IPC: G01S5/22
Abstract: 本发明公开了一种基于声音能量的声源定位方法,该方法的过程为:包设置定位设备,所述定位设备包括多个无线传感器从节点,所述无线传感器从节点上设有声音传感器阵列;记录各个节点的声音到达时间,使用TDOA算法找出声源坐标;记录各个节点声音的能量值,根据声音能量衰减模型、声源坐标、从节点的坐标计算出声音衰减系数;将声音衰减系数带入声音能量衰减模型;每隔一点时间计算各个节点声音能量值,计算出声源坐标。
-
公开(公告)号:CN104780506A
公开(公告)日:2015-07-15
申请号:CN201510192521.6
申请日:2015-04-22
Applicant: 北京理工大学
CPC classification number: G01S5/12 , H04W64/006
Abstract: 本发明提供一种基于置信水平的三边定位方法,具体过程为:选择3参考节点;针对每一参考节点设圆;判断任意两个圆之间是否相交,针对不相交的两圆,同时逐渐增大互不相交的两圆所对应的距离值,若两圆相交时,所增加的距离在预设置信水平α对应的距离偏差范围内,此时从相交两圆的交点中选定一个作为三角形的一个顶点;将三角形重心作为标签节点的位置估计值;计算每一参考节点组合情况的位置估计值;计算所有标签节点位置估计值的均值,并将其作为标签节点的最终位置,实现标签节点的定位。本发明通过采用基于置信水平的加权三边定位法,可解决两圆无法相交导致的定位不准问题,从而提高目标坐标的估计精度,该方法计算简单,易于实现。
-
-
-
-
-
-
-
-
-