-
公开(公告)号:CN117314972B
公开(公告)日:2024-02-13
申请号:CN202311555701.7
申请日:2023-11-21
Applicant: 安徽大学
IPC: G06T7/246 , G06N3/045 , G06N3/0464 , G06N3/049 , G06N3/06 , G06N3/084 , G06V10/25 , G06V10/40 , G06V10/764 , G06V10/80
Abstract: 本发明公开了一种基于多类注意力机制的脉冲神经网络的目标跟踪方法,包括:对事件相机保存的事件数据进行预处理,将事件数据转化成图像事件帧序列,并得到图像事件帧序列中的模板区域和搜索区域;基于具有多类注意力机制的LIF脉冲神经网络模块构造双路目标跟踪网络;模板区域和搜索区域输入双路目标跟踪网络,具有多类注意力机制的LIF脉冲神经网络模块对模板区域和搜索区域进行特征提取和融合,融合结果输入预测头模块,输出目标跟踪结果。本发明更有生物合理性,且在跟踪精度上取得了理想的效果。
-
公开(公告)号:CN117314972A
公开(公告)日:2023-12-29
申请号:CN202311555701.7
申请日:2023-11-21
Applicant: 安徽大学
IPC: G06T7/246 , G06N3/045 , G06N3/0464 , G06N3/049 , G06N3/06 , G06N3/084 , G06V10/25 , G06V10/40 , G06V10/764 , G06V10/80
Abstract: 本发明公开了一种基于多类注意力机制的脉冲神经网络的目标跟踪方法,包括:对事件相机保存的事件数据进行预处理,将事件数据转化成图像事件帧序列,并得到图像事件帧序列中的模板区域和搜索区域;基于具有多类注意力机制的LIF脉冲神经网络模块构造双路目标跟踪网络;模板区域和搜索区域输入双路目标跟踪网络,具有多类注意力机制的LIF脉冲神经网络模块对模板区域和搜索区域进行特征提取和融合,融合结果输入预测头模块,输出目标跟踪结果。本发明更有生物合理性,且在跟踪精度上取得了理想的效果。
-
公开(公告)号:CN116394264A
公开(公告)日:2023-07-07
申请号:CN202310664822.9
申请日:2023-06-07
Applicant: 安徽大学
IPC: B25J9/16
Abstract: 本发明公开了基于群体编码脉冲神经网络的多机械臂协同运动规划方法,所述方法包括以下步骤:从运动场景中任意时刻的任意一个机械臂获取其周边相关机械臂的状态数据,分别设计群体编码模块,脉冲神经网络模块,群体解码模块,输出机械臂每个关节在下一个时刻应该转动的角度,实现该机械臂的自主运动规划。本发明通过基于群体编码脉冲神经网络对多机械臂的协同运动规划,使每个机械臂都考虑了其周边其他机械臂的运动,可以很大程度上减少机械臂之间的碰撞,此外,本发明是基于群体编码脉冲神经网络,只需要在出现脉冲时,将突触权重加到其神经元膜电位上,避免了传统神经网络中大量的浮点数高精度乘法运算。
-
公开(公告)号:CN118627574A
公开(公告)日:2024-09-10
申请号:CN202411102954.3
申请日:2024-08-13
Applicant: 安徽大学
IPC: G06N3/08 , G06N3/04 , G06F18/213
Abstract: 本发明涉及智能体强化学习技术领域,尤其涉及一种基于上下文状态和动作权重的强化学习方法,该方法包括以下步骤:在基于Mujoco框架的连续动作控制环境中,获取机器人与环境进行交互所产生的状态数据信息;基于状态数据信息对执行动作预测模型进行训练以及测试,将由环境反馈的实时状态信息输入执行动作预测模型中输出对应预测的执行动作。本发明加强了网络模型对未来状态的表征能力,可以开阔网络模型在智能体与环境交互过程中的全局视野,以帮助网络模型更好地捕捉到未来状态信息和状态之间的关联,提高了样本数据的利用效率,增强了强化学习方法,使得在连续动作控制环境任务中取得了理想的效果。
-
公开(公告)号:CN118568601A
公开(公告)日:2024-08-30
申请号:CN202411046950.8
申请日:2024-08-01
Applicant: 安徽大学
IPC: G06F18/2415 , G06F18/10 , G06F18/213 , G06F18/25 , G06F18/214 , G06F18/21 , G06N3/0464 , G06N3/045 , G06N3/0475 , G06N3/0499 , G06N3/08 , A61B5/352 , A61B5/00
Abstract: 本发明涉及ECG信号处理技术领域,解决了传统ECG身份识别方法识别效果不理性以及难以应用在移动设备上的技术问题,尤其涉及一种基于自生成异构神经元轻量型网络的ECG身份识别方法,包括:获取单通道的原始ECG信号,并采用带通滤波器对原始ECG信号进行去噪;对去噪后的ECG信号进行R峰点定位,并根据R峰点位置切分ECG信号为ECG心拍片段;将若干个体包含多个ECG心拍片段的数据集按比例划分为训练集和测试集。本发明通过网络自适应的生成不同的神经元,从而提升了神经元的表征能力,使得使用较少的网络层就能得到高的识别性能,提升了识别方法鲁棒性和高性能,在便携式设备应用方面具有广泛前景。
-
公开(公告)号:CN117893873A
公开(公告)日:2024-04-16
申请号:CN202410304634.X
申请日:2024-03-18
Applicant: 安徽大学
Abstract: 本发明涉及一种基于多模态信息融合的主动跟踪方法,包括;获取彩色图像#imgabs0#,深度图像#imgabs1#和法线贴图#imgabs2#三种数据信息;将其输入多模态信息预处理模块中得到三种数据信息的初始特征;多模态信息融合模块采用预训练和正式训练的两阶段的训练方式对初始特征进行特征融合,将正式训练特征输出输入具有信息融合正则化约束的强化学习AC框架网络RACNet中,输出对应预测的执行动作;本发明利用智能体所获取的多模态信息进行融合来更精确地描述当前状态,同时增加对融合后特征的约束来提升强化学习算法训练效率,在训练效率和跟踪精度上取得了理想的效果。
-
公开(公告)号:CN116989800B
公开(公告)日:2023-12-15
申请号:CN202311263699.6
申请日:2023-09-27
Applicant: 安徽大学
Abstract: 本发明涉及一种基于脉冲强化学习的移动机器人视觉导航决策方法,包括:S1、采集机器人视觉图像和导航目标图像,提取每个图像像素点的局部特征;S2、对局部特征的每个元素进行处理,用以生成时间步的脉冲序列;S3、提取移动机器人视觉图像脉冲序列和导航目标图像脉冲序列;S4、设计双突触脉冲神经层,用以实现上述两种脉冲序列集信息融合;S5、设计视觉导航奖励函数,在视觉导航仿真器中优化模型参数,实现移动机器人无图视觉导航决策。本发明的视觉导航模型是基于二进制脉冲序列运算而不是浮点数特征运算,避免了传统强化学习视觉导航模型中大量的浮点数高精度乘法运算,因此在导航过程中,能量消耗极低,极易部署到移动机器人的(56)对比文件丁建川.基于脉冲神经网络的机器人避障导航方法研究.中国优秀硕士学位论文全文数据库.2023,全文.于乃功;李倜;方略.基于直接强化学习的面向目标的仿生导航模型.中国科学:信息科学.2016,(第03期),全文.周云.A Simple Stochastic NeuralNetwork for Improving AdversarialRobustness.2023 IEEE InternationalConference on Multimedia and Expo (ICME).2023,全文.Katerina Maria Oikonomou;IoannisKansizoglou;Antonios Gasteratos.A HybridReinforcement Learning Approach With aSpiking Actor Network for EfficientRobotic Arm Target Reaching.IEEE Roboticsand Automation Letters.2023,全文.
-
公开(公告)号:CN118627574B
公开(公告)日:2024-10-11
申请号:CN202411102954.3
申请日:2024-08-13
Applicant: 安徽大学
IPC: G06N3/08 , G06N3/04 , G06F18/213
Abstract: 本发明涉及智能体强化学习技术领域,尤其涉及一种基于上下文状态和动作权重的强化学习方法,该方法包括以下步骤:在基于Mujoco框架的连续动作控制环境中,获取机器人与环境进行交互所产生的状态数据信息;基于状态数据信息对执行动作预测模型进行训练以及测试,将由环境反馈的实时状态信息输入执行动作预测模型中输出对应预测的执行动作。本发明加强了网络模型对未来状态的表征能力,可以开阔网络模型在智能体与环境交互过程中的全局视野,以帮助网络模型更好地捕捉到未来状态信息和状态之间的关联,提高了样本数据的利用效率,增强了强化学习方法,使得在连续动作控制环境任务中取得了理想的效果。
-
公开(公告)号:CN117893873B
公开(公告)日:2024-06-07
申请号:CN202410304634.X
申请日:2024-03-18
Applicant: 安徽大学
Abstract: 本发明涉及一种基于多模态信息融合的主动跟踪方法,包括;获取彩色图像#imgabs0#,深度图像#imgabs1#和法线贴图#imgabs2#三种数据信息;将其输入多模态信息预处理模块中得到三种数据信息的初始特征;多模态信息融合模块采用预训练和正式训练的两阶段的训练方式对初始特征进行特征融合,将正式训练特征输出输入具有信息融合正则化约束的强化学习AC框架网络RACNet中,输出对应预测的执行动作;本发明利用智能体所获取的多模态信息进行融合来更精确地描述当前状态,同时增加对融合后特征的约束来提升强化学习算法训练效率,在训练效率和跟踪精度上取得了理想的效果。
-
公开(公告)号:CN116989800A
公开(公告)日:2023-11-03
申请号:CN202311263699.6
申请日:2023-09-27
Applicant: 安徽大学
Abstract: 本发明涉及一种基于脉冲强化学习的移动机器人视觉导航决策方法,包括:S1、采集机器人视觉图像和导航目标图像,提取每个图像像素点的局部特征;S2、对局部特征的每个元素进行处理,用以生成时间步的脉冲序列;S3、提取移动机器人视觉图像脉冲序列和导航目标图像脉冲序列;S4、设计双突触脉冲神经层,用以实现上述两种脉冲序列集信息融合;S5、设计视觉导航奖励函数,在视觉导航仿真器中优化模型参数,实现移动机器人无图视觉导航决策。本发明的视觉导航模型是基于二进制脉冲序列运算而不是浮点数特征运算,避免了传统强化学习视觉导航模型中大量的浮点数高精度乘法运算,因此在导航过程中,能量消耗极低,极易部署到移动机器人的嵌入式系统中。
-
-
-
-
-
-
-
-
-