-
公开(公告)号:CN111310508A
公开(公告)日:2020-06-19
申请号:CN202010092621.2
申请日:2020-02-14
Applicant: 北京化工大学
Abstract: 本发明公开了一种二维码识别方法,根据实际识别需要,选择不同背景中的QR二维码并添加不同模糊长度和模糊角度的运动模糊,设计并制作了基于运动模糊的二维码数据集。其次,采用基于生成对抗网络的图像去运动模糊算法,并采用基于特征金字塔的图像特征提取网络提取图像的特征映射,通过设计新的GAN损失函数使得基于生成对抗网络的图像去模糊算法训练速度更快,鲁棒性更高,可以提供非常高效的图像去模糊效果。设计一种基于自适应阈值的图像二值化算法和一系列基于图像处理的算法,更好地提取图像边缘区域和校正图像。本发明能够应用于不同背景的二维码识别环境中。
-
公开(公告)号:CN115294490A
公开(公告)日:2022-11-04
申请号:CN202210782158.3
申请日:2022-07-01
Applicant: 北京化工大学
IPC: G06V20/40 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种间歇性遮挡下的动态多目标识别方法。首先,采集并制作了存在间歇性遮挡影响的用于目标识别的连续图像序列和视频数据集,用于动态多目标识别算法的训练和测试。其次,设计基于中心网络的目标识别模块,获取输入视频相邻两帧图像中目标的边界框、运动偏移量和热点图特征信息。再次,采用基于门控循环单元网络的特征提取模块更新目标在当前帧中的特征信息,结合目标在之前帧中的特征信息获取目标运动轨迹。最后,采用基于匈牙利算法的目标轨迹匹配模块对目标及其运动轨迹进行匹配,并为每个目标分配相应的ID值,进而实现动态多目标识别。本发明能够应用于间歇性遮挡条件下动态多目标识别问题中。
-
公开(公告)号:CN115909396A
公开(公告)日:2023-04-04
申请号:CN202211381024.7
申请日:2022-11-05
Applicant: 北京化工大学
Abstract: 本发明公开了一种足式机器人动态目标跟踪方法。首先,采集佩戴口罩,未佩戴口罩和未正确佩戴口罩的行人行走过程中的图像和视频,搭建用于行人口罩佩戴检测的数据集。其次,采用基于递归神经网络的目标识别模块,判断行人是否佩戴口罩,获取当前帧中未佩戴口罩行人的面部位置坐标。再次,采用残差网络作为基准网络,提取当前图像帧中未佩戴口罩行人的面部语义特征,预测下一图像帧中该行人的面部语义特征。最后,设计基于孪生网络的目标跟踪模块,通过计算当前帧及下一帧中行人面部位置语义特征映射间的相关系数,对未佩戴口罩行人进行跟踪,从而实现足式机器人对动态目标的跟踪。本发明能够应用于疫情防控条件下足式机器人巡检过程中。
-
公开(公告)号:CN115690429A
公开(公告)日:2023-02-03
申请号:CN202211450470.9
申请日:2022-11-07
Applicant: 北京化工大学
IPC: G06V10/26 , G06V10/30 , G06V10/764 , G06V10/774 , G06V10/82 , G06V20/70 , G06T5/00
Abstract: 本发明公开一种足式机器人地形语义分割方法。首先使用足式机器人拍摄不同天气、不同时段的地形和行人的图片,使用卡尔曼滤波去除由于足式机器人行进过程中抖动造成的图片模糊不清,在图片中标注不同地形作为训练集;其次,构建卷积语义分割网络,根据分类损失、定位损失以及分割损失设计损失函数,在高性能服务器上使用地形的训练集训练语义分割网络;最后,通过TensorRT推理引擎在足式机器人上构建与高性能服务器上结构相同的神经网络,将训练好的权重导入神经网络,使四足机器人快速准确的分割地形。本发明解决由于足式机器人行进时抖动严重,导致采集的图像模糊不清;足式机器人上处理器性能较低,语义分割速度不佳导致难以满足实时性要求等问题。
-
公开(公告)号:CN115416047A
公开(公告)日:2022-12-02
申请号:CN202211074959.0
申请日:2022-09-02
Applicant: 北京化工大学
Abstract: 本发明公开了一种基于多传感器四足机器人的助盲系统和方法,主要包括环境感知模块,决策规划模块和人机交互模块,环境感知模块由双GPS确定系统位置信息和航向,多线程雷达扫描环境点云信息,前置深度相机提供语义分割输入,鱼眼双目相机获取地面障碍物图像信息,压力传感器检测四足机器人足底受力情况;决策规划模块由控制器处理多传感器融合数据并规划下一步动作;人机交互部分由震动手环控制震度方向和幅度,弹性牵引绳提供辅助牵引力,配合在云台上的后置深度相机实时跟踪盲人,检测盲人关键点,以此推导盲人动作变化,在盲人摔倒等意外情况发生时由语音模块向外界求助。语音模块接收盲人语音指令,播报障碍物信息、盲人身体状态和规划路径信息等。本发明在保证舒适的前提下做到准确的环境感知,合适的决策规划和便捷的人机交互。
-
公开(公告)号:CN115416047B
公开(公告)日:2024-06-25
申请号:CN202211074959.0
申请日:2022-09-02
Applicant: 北京化工大学
Abstract: 本发明公开了一种基于多传感器四足机器人的助盲系统和方法,主要包括环境感知模块,决策规划模块和人机交互模块,环境感知模块由双GPS确定系统位置信息和航向,多线程雷达扫描环境点云信息,前置深度相机提供语义分割输入,鱼眼双目相机获取地面障碍物图像信息,压力传感器检测四足机器人足底受力情况;决策规划模块由控制器处理多传感器融合数据并规划下一步动作;人机交互部分由震动手环控制震度方向和幅度,弹性牵引绳提供辅助牵引力,配合在云台上的后置深度相机实时跟踪盲人,检测盲人关键点,以此推导盲人动作变化,在盲人摔倒等意外情况发生时由语音模块向外界求助。语音模块接收盲人语音指令,播报障碍物信息、盲人身体状态和规划路径信息等。本发明在保证舒适的前提下做到准确的环境感知,合适的决策规划和便捷的人机交互。
-
公开(公告)号:CN111310508B
公开(公告)日:2021-08-10
申请号:CN202010092621.2
申请日:2020-02-14
Applicant: 北京化工大学
Abstract: 本发明公开了一种二维码识别方法,根据实际识别需要,选择不同背景中的QR二维码并添加不同模糊长度和模糊角度的运动模糊,设计并制作了基于运动模糊的二维码数据集。其次,采用基于生成对抗网络的图像去运动模糊算法,并采用基于特征金字塔的图像特征提取网络提取图像的特征映射,通过设计新的GAN损失函数使得基于生成对抗网络的图像去模糊算法训练速度更快,鲁棒性更高,可以提供非常高效的图像去模糊效果。设计一种基于自适应阈值的图像二值化算法和一系列基于图像处理的算法,更好地提取图像边缘区域和校正图像。本发明能够应用于不同背景的二维码识别环境中。
-
-
-
-
-
-