一种在视觉SLAM前端去除动态特征点的方法

    公开(公告)号:CN114565675B

    公开(公告)日:2024-09-24

    申请号:CN202210202326.7

    申请日:2022-03-03

    Inventor: 程明 朱振

    Abstract: 本发明公开了一种在视觉SLAM前端去除动态特征点的方法,属于计算机视觉技术领域。该方法主要是通过将YOLOv5目标检测算法与传统视觉SLAM前端相结合,通过深度相机采集环境图像信息,对采集到的RGB图像进行ORB特征提取的同时,对其进行目标检测,对检测出的物体分为动态物体和静态物体两类,筛选并剔除仅存在于动态物体框内的特征点。之后,计算相邻两帧之间匹配对的场景流模值,建立高斯混合模型,进一步分离场景中动态物体和静态物体,剔除剩余的动态特征点。剩余的静态特征点用于特征匹配并估计相机位姿。利用本方法在ORBSLAM2前端进行测试,大大提升了其在动态环境中的定位精度,且能够满足实时性要求。

    一种基于改进Yolov8n道路场景的目标检测方法

    公开(公告)号:CN118505971A

    公开(公告)日:2024-08-16

    申请号:CN202410626863.3

    申请日:2024-05-20

    Abstract: 本发明公开了一种基于改进Yolov8n的道路场景的目标检测设计方法;由摄像头和道路场景识别单元组成,其中道路场景识别单元由目标检测模块组成;将Yolov8n中Neck网络的c2f模块引入PConv卷积,在原网络主干的P2层设置特征图流出,增加一层特征图尺寸为160×160的小目标检测层,将CIoU损失函数替换成EIoU损失函数;首先,由摄像头采集实时视频图像信息,并将其发送到道路场景识别单元;根据识别结果判断道路场景中物体类别。本发明采用的识别方法能够提高在嵌入式设备上道路场景识别的实时性,并实现实时检测。

    一种基于度量元学习的小样本图像分类方法

    公开(公告)号:CN118038167A

    公开(公告)日:2024-05-14

    申请号:CN202410231530.0

    申请日:2024-02-29

    Abstract: 本发明提供一种基于度量元学习的小样本图像分类方法,所述方法包括特征映射模块、交叉注意力模块、距离度量模块、损失函数模块四部分构成的度量元学习模型。首先获取图像分类数据集,将数据集按照类别划分为训练集和测试集,且这两个数据集标签类别的交集为空集;从训练集中抽取大量小样本图像分类训练任务,从测试集构建目标小样本图像分类任务;构建由特征映射模块、交叉注意力模块、距离度量模块、损失函数模块组成的度量元学习模型;基于小样本分类训练任务,以最小化总体损失函数为目标,对度量元学习模型进行元训练,得到小样本图像分类模型;对于目标小样本任务,将测试集的支持集和查询集送入训练好的小样本图像分类模型,根据余弦距离度量模块来计算测试集查询样本的标签。本发明提供的基于度量元学习的小样本图像分类方法,减小同类别样本特征之间差异性,提升了特征空间中同类别特征分布的紧凑性,提高了特征提取模块的特征提取能力,从而提升了度量元学习模型在小样本图像分类任务上的分类精度。

    一种基于多传感器数据融合的移动机器人位姿估计算法

    公开(公告)号:CN113052908B

    公开(公告)日:2023-08-04

    申请号:CN202110422808.9

    申请日:2021-04-16

    Inventor: 程明 杨慧蓉

    Abstract: 本发明提供了一种基于多传感器数据融合的移动机器人位姿估计算法,包括如下步骤:Step1:获得激光数据、图像数据以及IMU数据;Step2:将激光打在黑色标定尺上,对激光数据和图像数据进行联合标定,获取激光数据在相机坐标系下的旋转矩阵和平移矩阵;Step3:获取相邻两关键帧之间的图像信息和激光点云数据,将三维激光数据通过旋转矩阵和平移矩阵,投影到图像上,两者进行融合,使得图像数据获得深度信息,形成深度图像数据;Step4:对含深度信息的图像进行特征跟踪和运动估计;Step5:对相邻两关键帧之间的IMU信息进行预积分处理;Stsp6:将IMU信息和深度图像数据进行联合优化,获取位姿估计结果。本发明相比较于传统标定方法,操作简单且标定精度较高。

    一种基于FPGA加速的MobileNet-SSD目标检测装置及方法

    公开(公告)号:CN113051216B

    公开(公告)日:2023-07-11

    申请号:CN202110434593.2

    申请日:2021-04-22

    Inventor: 程明 潘国标

    Abstract: 本发明提供了一种基于FPGA加速的MobileNet‑SSD目标检测装置及方法,方法包括如下步骤:Step1:获取待检测目标初始图像,存储目标初始图像数据和卷积神经网络权值文件;Step2:在Mobilenet‑SSD卷积神经网络中加入检测层,在不同网络层间共享加速器,加速器上设置片上缓冲区;Step3:通过并行分块参数优化法运行Mobilenet‑SSD卷积神经网络,输出目标图像的特征图通道和卷积核通道的分块系数;Step4:通过流水线算法,完成Mobilenet‑SSD卷积神经网络的目标特征提取、边界框回归及物体类别预测;Step5:对卷积神经网络得到的目标特征提取、边界框回归及物体类别预测信息进行后处理;Stsp6:在待检测目标图像上测试目标检测结果。本发明采用改进的Mobilenet‑SSD作为目标检测算法,实现高精度目标检测。

    一种在视觉SLAM前端去除动态特征点的方法

    公开(公告)号:CN114565675A

    公开(公告)日:2022-05-31

    申请号:CN202210202326.7

    申请日:2022-03-03

    Inventor: 程明 朱振

    Abstract: 本发明公开了一种在视觉SLAM前端去除动态特征点的方法,属于计算机视觉技术领域。该方法主要是通过将YOLOv5目标检测算法与传统视觉SLAM前端相结合,通过深度相机采集环境图像信息,对采集到的RGB图像进行ORB特征提取的同时,对其进行目标检测,对检测出的物体分为动态物体和静态物体两类,筛选并剔除仅存在于动态物体框内的特征点。之后,计算相邻两帧之间匹配对的场景流模值,建立高斯混合模型,进一步分离场景中动态物体和静态物体,剔除剩余的动态特征点。剩余的静态特征点用于特征匹配并估计相机位姿。利用本方法在ORBSLAM2前端进行测试,大大提升了其在动态环境中的定位精度,且能够满足实时性要求。

    一种基于FPGA加速的MobileNet-SSD目标检测装置及方法

    公开(公告)号:CN113051216A

    公开(公告)日:2021-06-29

    申请号:CN202110434593.2

    申请日:2021-04-22

    Inventor: 程明 潘国标

    Abstract: 本发明提供了一种基于FPGA加速的MobileNet‑SSD目标检测装置及方法,方法包括如下步骤:Step1:获取待检测目标初始图像,存储目标初始图像数据和卷积神经网络权值文件;Step2:在Mobilenet‑SSD卷积神经网络中加入检测层,在不同网络层间共享加速器,加速器上设置片上缓冲区;Step3:通过并行分块参数优化法运行Mobilenet‑SSD卷积神经网络,输出目标图像的特征图通道和卷积核通道的分块系数;Step4:通过流水线算法,完成Mobilenet‑SSD卷积神经网络的目标特征提取、边界框回归及物体类别预测;Step5:对卷积神经网络得到的目标特征提取、边界框回归及物体类别预测信息进行后处理;Stsp6:在待检测目标图像上测试目标检测结果。本发明采用改进的Mobilenet‑SSD作为目标检测算法,实现高精度目标检测。

    一种生物质乳酸酯脱水生产丙烯酸及其酯的工艺

    公开(公告)号:CN101260035A

    公开(公告)日:2008-09-10

    申请号:CN200810023343.4

    申请日:2008-04-09

    Abstract: 本发明公开了一种生物质乳酸酯脱水制丙烯酸及其酯的工艺,该工艺将乳酸酯水溶液加热至120~200℃气化所得乳酸酯-水混合蒸气与载气混合,将混合气体继续加热到200~450℃后进入气-固相催化反应器经改性的Y沸石分子筛催化剂作用脱水得到反应产物气体,反应产物气体冷却后经水洗再通过酸分离塔得到丙烯酸溶液和丙烯酸酯溶液,丙烯酸溶液依次通过共沸、精馏得到粗丙烯酸,丙烯酸酯溶液依次通过萃取、两步精馏得到粗丙烯酸酯。本发明首次提出乳酸酯脱水制丙烯酸及其酯的工艺过程,该工艺过程能很好地应用到以生物质乳酸酯为原料,改性Y沸石分子筛为催化剂进行催化脱水得到丙烯酸及其酯的放大生产中,具有良好的工业应用价值。

    一种基于视频图像和语音的双模态融合情感识别方法

    公开(公告)号:CN113343860A

    公开(公告)日:2021-09-03

    申请号:CN202110650544.2

    申请日:2021-06-10

    Abstract: 本发明公开了一种基于视频图像和语音的双模态融合情感识别方法;由摄像头、麦克风和情感识别单元组成,其中情感识别单元由视频图像模态和语音模态组成。双模态模型的训练过程为:将图像训练数据集输入到卷积神经网络模型中进行训练,得到视频图像模态模型;将语音训练数据集输入到长短期记忆神经网络模型中进行训练,得到语音模态模型。摄像头采集视频图像发送到情感识别单元,分析人脸表情特征得到识别结果;麦克风采集语音数据发送到情感识别单元,分析语音情感特征得到识别结果;在决策层依据权值准则融合两个模态的识别结果并输出。本发明采用的识别方法能够提高情感识别的准确率并实现实时检测。

Patent Agency Ranking