-
公开(公告)号:CN105334518A
公开(公告)日:2016-02-17
申请号:CN201510855161.3
申请日:2015-11-30
Applicant: 南京大学
CPC classification number: G01S17/89 , G01C21/165 , G01S17/023
Abstract: 本发明提供了一种基于室内四旋翼飞行器的激光雷达三维成像方法,步骤包括:读取加速度数据和距离数据,计算获得四旋翼飞行器的位移数据;读取惯性测量数据,计算获得四旋翼飞行器的姿态角度数据;读取深度断层图像数据,计算获得深度断层图像;根据位移数据和姿态角度数据确定深度断层图像数据的采集位置信息,再在相邻位置的深度断层图像之间使用滑动窗口牛顿插值法,从而实现三维成像。该三维成像方法具有高度的灵活性,相对于地面移动机器人能够降低复杂地面对飞行的影响,具有较高的适应能力。
-
公开(公告)号:CN102324196A
公开(公告)日:2012-01-18
申请号:CN201110316680.4
申请日:2011-10-18
Applicant: 南京大学
IPC: G09B9/00
Abstract: 本发明公开了航空液压油泵车模拟训练与考核半物理仿真系统,涉及一种液压油泵车半物理仿真系统。其包括由真实操作面板改造而成的仿真操作面板(1)、实现信号采集和驱动执行的下位机系统(2)、实现虚拟现实技术的以触摸屏工控机为主体的上位机系统(3)、同步投影系统(4)、室内操作和野外操作的电源转换系统(5)和航空液压油泵车模拟训练考核半物理仿真系统的外形及机械架构。本发明在近似实车、实际环境和工作程序下不受天气、时间、环境和设备的影响,随时随地进行训练,使受训者真实地获取所需的能力。本发明不仅有效解决实装同时训练人数少、训练费用高的问题,而且为装备的维护、保养及教学提供了很好的平台。
-
公开(公告)号:CN118309709A
公开(公告)日:2024-07-09
申请号:CN202410550393.7
申请日:2024-05-06
Applicant: 南京大学
Abstract: 一种小型化电动油泵车液压系统控制方法及控制设备,包括以下步骤:根据专家经验选取小型化电动油泵车液压系统模型结构;根据专家经验初始化所述液压系统模型的参数;获取所述液压系统的输入信号和输出信号;根据所述输入信号和所述输出信号获取液压系统的动态特性,基于改进的梯度校正法在线辨识液压系统模型参数;基于辨识的液压系统模型参数,设计基于极点配置的PID控制器,构建液压系统的控制模型;获取液压系统的期望输出;根据所述期望输出及液压系统的控制模型,在线计算更新用于控制液压系统的控制信号。本发明通过智能化、集成化和模块化的设计,提高油泵车的操作效率、安全性和维护便利性,以满足航空工业日益增长的需求。
-
公开(公告)号:CN113239715B
公开(公告)日:2024-05-28
申请号:CN202110158140.1
申请日:2021-02-04
Applicant: 南京大学
Abstract: 基于图像处理的油菜收获喂入量检测方法及装置,利用深度学习设计并搭建了符合油菜生长特性的卷积神经网络模型,在油菜收割机上安装相机拍摄油菜照片,用于对油菜疏密度和高度进行检测,利用卷积神经网络对油菜疏密度等级进行估计,并结合进入喂入口的油菜高度,获得喂入量。本发明能解决由于人工观测不准确带来的对疏密度的错误估计,大大减小了喂入量检测误差,实现了科学的控制收割机的前进速度,提高了收割机的收获效率,降低了收割机阻塞的风险。
-
公开(公告)号:CN117634647A
公开(公告)日:2024-03-01
申请号:CN202311656001.7
申请日:2023-12-04
Applicant: 南京大学
IPC: G06N20/00 , G06F18/214
Abstract: 一种基于扩散的双生成回放的持续离线强化学习方法,首先将持续学习策略解耦为基于扩散的行为生成模型和多头动作评估模型;其次,训练任务‑条件扩散模型来模拟旧任务的状态分布,生成的状态与行为生成模型的相应响应配对,以用高保真回放的伪样本表示旧任务;最后,通过将伪样本与新任务的真实样本交错,不断更新状态和行为生成模型以建模逐渐多样化的行为,并以行为克隆方式规范多头动作评估模型以减少遗忘。本发明提出一种双重生成回放框架,通过生成的伪数据的并发回放来保留旧任务的知识,实验证明了本发明方法在持续离线学习中实现了更好的前向迁移并保持更少的遗忘,并且由于其样本空间的高保真回放而非常接近使用旧任务真实数据的结果。
-
公开(公告)号:CN117634645A
公开(公告)日:2024-03-01
申请号:CN202311645312.3
申请日:2023-12-04
Applicant: 南京大学
IPC: G06N20/00 , G06N3/092 , G06N3/0985 , G06F18/23213
Abstract: 一种用于多智能体强化学习中的对比学习表征方法,配置多智能体系统的环境参数,建立智能体策略网络、值分解系统以及多头注意力机制;通过智能体与环境交互,收集智能体的部分观测和全局状态,获取环境奖励,存放至经验回放池用于训练;然后从经验回放池中采集一个批次的数据,使用多智能体强化学习算法训练策略网络寻找能够获取最大累积奖励的最优策略,并定期使用对比学习约束智能体学习跟行为模式相关的角色表征,实现多智能体强化学习。本发明提出基于注意力引导的对比学习表征方法,在具有更快的收敛,并且具有更高效的探索,能够有效的避免智能体的同质化,从而在复杂动态环境中有效提高多智能体强化学习算法的学习效率和收敛速度。
-
公开(公告)号:CN108528563B
公开(公告)日:2023-11-03
申请号:CN201810452881.9
申请日:2018-05-14
Applicant: 南京大学
IPC: B62D57/032
Abstract: 本发明公开了一种六足机器人,包括机身框架、三组水平推杆机构、六个机械大腿机构、六个机械小腿机构以及六个T型连接机构。该六足机器人通过三组水平推杆机构的六个电推杆机构分别对六只机械腿进行摆动驱动,实现机械腿的水平摆动,并由T型连接机构实现摆动传动;六足机器人中所使用的驱动机构全部采用结构相同的电推杆机构,利用共计十八个模块化的电推杆机构实现六条腿的行走动作驱动,在进行行走控制时只需对这个十八个电推杆机构的电动推杆进行分别控制即可,驱动程序相近,能够明显缩短程序开发周期。
-
公开(公告)号:CN115179280A
公开(公告)日:2022-10-14
申请号:CN202210705509.0
申请日:2022-06-21
Applicant: 南京大学
IPC: B25J9/16
Abstract: 本发明公开一种用于强化学习机械臂控制中基于磁场的奖励塑形方法,包括:S1、设计任务环境,设定机械臂、目标物和障碍物的相关参数,设置强化学习算法的超参数;S2、将目标物和障碍物分别视为与其同等形状的永磁体,确定三维空间磁场强度分布的计算方式;S3、机械臂与环境交互,收集训练数据,计算机械臂末端坐标在目标物和障碍物磁场中的磁场强度,得到磁场奖励函数;S4、利用DPBA算法将磁场奖励函数转换为基于势能的塑形奖励函数,与训练数据一起存放至经验回放池;S5、从经验回放池中采集一个批次的数据,使用强化学习算法训练机械臂完成规定任务。本发明能够为机械臂提供目标物和障碍物更为丰富的方位信息,从而提高强化学习算法的学习效率。
-
公开(公告)号:CN111552183B
公开(公告)日:2021-04-23
申请号:CN202010416376.6
申请日:2020-05-17
Applicant: 南京大学
IPC: G05B13/04
Abstract: 本发明公开了一种基于自适应权重强化学习的六足机器人避障方法,步骤包括:由六足机器人通过测距传感器测量机器人与附近各个障碍物的距离,并通过模糊隶属度函数将测量的障碍物距离转化为有限的状态集合;根据有限的状态集合建立六足机器人避障模型,再利用自适应权重强化学习算法学习出最优网络模型参数θ*;根据上述训练好的最优网络模型参数θ*得到六足机器人避障的最优目标策略,由最优目标策略获得六足机器人在t时刻避障所要采取的动作at。该避障方法能够在障碍物数量较多的位置环境中实现较好的避障效果,具有良好的市场应用前景。
-
公开(公告)号:CN111552183A
公开(公告)日:2020-08-18
申请号:CN202010416376.6
申请日:2020-05-17
Applicant: 南京大学
IPC: G05B13/04
Abstract: 本发明公开了一种基于自适应权重强化学习的六足机器人避障方法,步骤包括:由六足机器人通过测距传感器测量机器人与附近各个障碍物的距离,并通过模糊隶属度函数将测量的障碍物距离转化为有限的状态集合;根据有限的状态集合建立六足机器人避障模型,再利用自适应权重强化学习算法学习出最优网络模型参数θ*;根据上述训练好的最优网络模型参数θ*得到六足机器人避障的最优目标策略,由最优目标策略获得六足机器人在t时刻避障所要采取的动作at。该避障方法能够在障碍物数量较多的位置环境中实现较好的避障效果,具有良好的市场应用前景。
-
-
-
-
-
-
-
-
-