一种基于脉冲神经网络人体摔倒动作的视频识别方法

    公开(公告)号:CN109829422A

    公开(公告)日:2019-05-31

    申请号:CN201910088572.2

    申请日:2019-01-28

    Abstract: 本发明提供一种基于脉冲神经网络人体摔倒动作的视频识别方法,属于视频识别技术领域。本发明首先将需要识别的视频中基于时间的人体骨骼节点转换为二维彩色图像,并将其转化为二维灰度图像;然后建立人体摔倒动作识别的脉冲神经网络模型;收集人体摔倒动作和未摔倒动作样本,建立人体摔倒动作数据集;并在该人体摔倒动作数据集的基础上,采用STDP算法对所述脉冲神经网络模型进行训练;最后将二维灰度图像作为训练好的脉冲神经网络模型的输入,输出得到识别结果。本发明解决了现有人体摔倒动作的视频识别技术需要进行人工特征提取,导致效率较低的问题。本发明可用于人体摔倒动作的视频识别。

    一种融合全局时空特征的卷积神经网络人体动作识别方法

    公开(公告)号:CN108830252A

    公开(公告)日:2018-11-16

    申请号:CN201810671262.9

    申请日:2018-06-26

    Abstract: 一种融合全局时空特征的卷积神经网络人体动作识别方法,它属于人体动作识别技术领域。本发明解决了传统动作识别方法存在的动作识别的准确率较低的问题。本发明选用InceptionV3基础网络结构,建立空间通道网络和全局时域通道网络,将UCF101视频数据集切割成单帧静态图像,将单帧静态图像分为训练和测试集对空间通道网络训练和测试;计算训练和测试集中单帧静态图像对应的能量运动历史图,对全局时域通道网络进行训练和测试;对训练好的空间通道网络和全局时域通道网络的参数微调,将概率平均值最大的类别作为待识别视频序列的每帧静态图像的动作识别结果,本发明方法的动作识别准确率可以达到87%以上。本发明可以应用于人体动作识别技术领域用。

    一种基于稀疏Transformer的视觉定位方法

    公开(公告)号:CN119559244A

    公开(公告)日:2025-03-04

    申请号:CN202410291900.X

    申请日:2024-03-14

    Inventor: 王珂 蒋志强 康鹏

    Abstract: 本发明属于机器人视觉定位领域,尤其涉及一种基于稀疏Transformer的视觉定位方法。针对但现有技术中Transformer存在因二次计算复杂度高,导致处理密集的回归任务准确率低,从而在场景坐标预测等任务中存在预测结果不准确的问题。本发明提出了一种基于全局感受野的特征聚合网络,通过稀疏Transformer的方式,使得具有相似特征的点以较低的计算量获得丰富的全局信息,解决了现有技术中Transformer存在因二次计算复杂度高,导致处理密集的回归任务准确率低,从而在场景坐标预测等任务中存在预测结果不准确的问题,根据本发明实现了室内服务机器人在光照变化以及低、无纹理或者重复纹理的恶劣室内场景中的开机重启自定位。

    一种机器人位姿数据校正方法、芯片及移动机器人

    公开(公告)号:CN117346817A

    公开(公告)日:2024-01-05

    申请号:CN202311269849.4

    申请日:2023-09-28

    Abstract: 本申请公开一种机器人位姿数据校正方法、芯片及移动机器人,机器人位姿数据校正方法包括:步骤A1、机器人通过感测装置采集待感知测量值;步骤A2、基于运动学方程由待感知测量值计算出当前位姿预测数据;步骤A3、基于采集周期内所采集的待感知测量值形成的统计信息来判断机器人是否处于静止状态,是则执行步骤A4,否则执行步骤A5;步骤A4、对运动学方程中的偏置值进行更新或基于卡尔曼滤波算法校正当前位姿预测数据;步骤A5、从待感知测量值中获取左轮转动测量值和右轮转动测量值,再基于卡尔曼滤波算法计算出左轮预测位姿数据修正值和右轮预测位姿数据修正值,再使用左轮预测位姿数据修正值和右轮预测位姿数据修正值校正当前位姿预测数据。

    跨多种室内场景的视觉定位方法
    25.
    发明公开

    公开(公告)号:CN117058235A

    公开(公告)日:2023-11-14

    申请号:CN202311025048.3

    申请日:2023-08-15

    Abstract: 跨多种室内场景的视觉定位方法,解决了视觉定位场景坐标回归方法只能应用于特定场景的问题,属于视频图像拍摄视觉定位领域。本发明包括:在N个不同的场景中,采集数据,对采集的数据进行预处理;将场景中的RGB图像和深度图作为输入,将深度图中每个像素点所对应的场景坐标作为输出,搭建跨场景视觉定位网络,对跨场景视觉定位网络进行训练时,卷积层权重确定时采用自适应参数共享策略:根据待测的RGB图像和对应深度图像选择相应跨场景视觉定位网络的权值,再利用训练好的跨场景视觉定位网络对待测RGB图像进行预测,得到每个像素点的场景坐标,根据得到的场景坐标及对应深度图像中的像素坐标,计算相机位姿。

    一种基于稠密特征匹配的室内服务机器人重定位方法

    公开(公告)号:CN115578426A

    公开(公告)日:2023-01-06

    申请号:CN202211314225.5

    申请日:2022-10-25

    Abstract: 一种基于稠密特征匹配的室内服务机器人重定位方法,为解决基于关键帧的重定位算法的室内服务机器人在恶劣环境中无法精确定位的问题,根据室内场景的RGB图像和深度图像获取室内服务机器人的位姿,建立关键帧数据库,利用网络提取每张RGB图像的全局描述子组成全局描述子数据库;利用网络提取获得待查询RGB图像的全局描述子,计算全局描述子与全局描述子数据库的余弦相似度,将相似度最高的RGB图像作为检索图像;利用稠密特征匹配网络建立待查询RGB图像和检索图像特征点的关系;根据检索图像对应的位姿计算检索图像的特征点对应的路标点,建立待查询RGB图像特征点与路标点的关系;获得待查询RGB图像对应的室内服务机器人的位姿。

    一种基于高盐螺旋藻渣的氧化石墨烯的制备方法及其应用

    公开(公告)号:CN114314794B

    公开(公告)日:2022-09-16

    申请号:CN202111510772.6

    申请日:2021-12-10

    Abstract: 一种基于高盐螺旋藻渣的氧化石墨烯的制备方法及其应用。本发明属于有机废水处理领域。本发明为解决现有含抗生素废水处理用氧化石墨烯制备成本高以及催化降解效果不好的技术问题。本发明将高盐藻渣采用高温管式炉热解,热解过程分为两步,预碳化和高温热解,然后采用改良Hummers法将所制备藻渣生物炭氧化为藻渣氧化石墨烯。本发明还公开了一种利用该藻渣氧化石墨烯催化降解难降解有机污染物中的应用。本发明以废弃藻渣作为氧化石墨烯原料,降低了成本,有效解决了废弃藻渣的利用问题,具有良好的环境和经济效益。本发明所得的氧化石墨烯材料绿色高效廉价,可应用于过一硫酸盐的活化降解有机污染物领域,具有优异的磺胺类有机污染物降解效果。

    一种基于高盐螺旋藻渣的氧化石墨烯的制备方法及其应用

    公开(公告)号:CN114314794A

    公开(公告)日:2022-04-12

    申请号:CN202111510772.6

    申请日:2021-12-10

    Abstract: 一种基于高盐螺旋藻渣的氧化石墨烯的制备方法及其应用。本发明属于有机废水处理领域。本发明为解决现有含抗生素废水处理用氧化石墨烯制备成本高以及催化降解效果不好的技术问题。本发明将高盐藻渣采用高温管式炉热解,热解过程分为两步,预碳化和高温热解,然后采用改良Hummers法将所制备藻渣生物炭氧化为藻渣氧化石墨烯。本发明还公开了一种利用该藻渣氧化石墨烯催化降解难降解有机污染物中的应用。本发明以废弃藻渣作为氧化石墨烯原料,降低了成本,有效解决了废弃藻渣的利用问题,具有良好的环境和经济效益。本发明所得的氧化石墨烯材料绿色高效廉价,可应用于过一硫酸盐的活化降解有机污染物领域,具有优异的磺胺类有机污染物降解效果。

    基于多线结构光焊缝跟踪传感器的焊枪末端位姿识别方法

    公开(公告)号:CN112975222A

    公开(公告)日:2021-06-18

    申请号:CN202110239920.9

    申请日:2021-03-04

    Abstract: 基于多线结构光焊缝跟踪传感器的焊枪末端位姿识别方法,本发明解决了现有非标准件焊接时存在不易测量焊件与焊枪末端的相对位姿的问题。本发明将基于多线结构光的焊缝跟踪传感器固定在焊枪的末端;并获取基于多线结构光的焊缝跟踪传感器的物理参数;利用所述物理参数及焊接过程中多线结构光的焊缝跟踪传感器拍摄的图像,建立焊缝跟踪传感器的俯仰角和升降高度的解耦方程;获取焊枪末端的俯仰角与升降高度;根据焊枪末端的俯仰角与升降高度,利用奇异值分解方法求解焊枪末端的横滚角。本发明适用于焊枪末端位姿测量。

    一种用于智能机器人RGB-D-T信息感知的传感器集成装置

    公开(公告)号:CN112936348A

    公开(公告)日:2021-06-11

    申请号:CN202110239875.7

    申请日:2021-03-04

    Abstract: 一种用于智能机器人RGB‑D‑T信息感知的传感器集成装置,所述装置包括括固定座、RGB‑D相机舱、RGB‑D相机、水平旋转件和俯仰件;所述固定座与RGB‑D相机舱相连,RGB‑D相机舱的一端设置有开口,RGB‑D相机固定设置在舱内,RGB‑D相机的镜头向开口方向设置;RGB‑D相机舱上有水平旋转件,俯仰件设置在水平旋转件上,水平旋转件带动装置做水平旋转件运动,俯仰件带动装置做俯仰件运动;本发明有效部署深度视觉传感器与热红外传感器,组成一体化装置,易于与移动机器人集成,有效解决服务机器人在RGB‑D‑T多模态信息融合,有效解决在机器人上使用的热红外相机和RGB‑D相机的视场角差异大、匹配尺度不一致问题,提升智能机器人环境感知能力和服务作业水平。

Patent Agency Ranking