基于OpenBCI的特征集优化在线训练方法

    公开(公告)号:CN108509869A

    公开(公告)日:2018-09-07

    申请号:CN201810206898.6

    申请日:2018-03-14

    Abstract: 本发明公开了一种基于OpenBCI的特征集优化在线训练方法,涉及生物医学信号处理技术领域,该基于OpenBCI的特征集优化在线训练方法采用时域分割的方法对采集到的脑电信号进行提取,扩展样本集,减少训练样本采集时间;采用遗传算法以及交叉验证的方式,优化特征集,完成特征选择,得到最优特征选择因子;使用特征优化选择之后的特征集训练分类器,得到脑电信号的分类器模型。本发明主要使用了信号的时域特性,进行了样本集的扩展,这不仅减轻了训练数据的采集压力,同时也保证了样本集的质量,没有提高模型过拟合的风险,另外本发明优化了采集通道与特征集,降低了特征集的冗余度,也提高了识别的性能。

    基于人类视觉注意机制的多仿射目标的检测与识别方法

    公开(公告)号:CN109711420B

    公开(公告)日:2022-08-09

    申请号:CN201811560332.X

    申请日:2018-12-20

    Abstract: 本发明公开了一种基于人类视觉注意机制的多仿射目标的检测与识别方法,选择扫描窗口尺寸,对于由多个目标图像组成的原始场景图,每平移一次扫描窗口,对当前窗口W内的目标图像进行生物变换,得到目标特征图M,选取区域N,与模板特征图进行区域匹配,获取与区域N匹配度r>0.95的模板特征图为候选目标;根据候选目标与M匹配区域的水平或垂直位置,判断窗口W下的目标图像相较于模板图像旋转的角度或缩放的倍数,将窗口W下的目标图像根据当前旋转角度或缩放倍数;将还原后的目标图像再次进行一次生物变换,利用特征变换图对候选目标特征图进行验证,将与特征变换图距离最小的候选目标作为最终识别目标。本发明得到的识别图像有较高的准确性。

    一种用于复杂场景图像识别的多通道仿生视觉方法

    公开(公告)号:CN106446833B

    公开(公告)日:2019-08-02

    申请号:CN201610854533.5

    申请日:2016-09-27

    Abstract: 本发明公开了一种用于复杂场景图像识别的多通道仿生视觉方法,其步骤主要包括三个变换通道。对于第一通道,通过模拟人类大脑的多通道视觉处理机制,对原图像进行前向通道计算,得到候选目标集,同时产生两个阶段的记忆信息。对于第二通道,依次对每个候选目标,利用这些记忆信息进行反向通道计算,得到原图像中的击中图,以此构成目标边缘图。对于第三通道,最后利用第二前向通道算法,对该目标边缘图进行两次变换,得到特征变换图并在候选集中进行验证,以此完成图像识别。通过模拟人类大脑的多通道视觉处理机制,提取视觉记忆信息,并利用反向通道计算,有效模拟人类大脑对目标的视觉信息处理过程,得到的识别图像准确度高。

    基于主动消防预警的自主车

    公开(公告)号:CN102716562A

    公开(公告)日:2012-10-10

    申请号:CN201210209641.9

    申请日:2012-06-25

    Abstract: 本发明公开了一种基于主动消防预警的自主车,包括车体、微处理器、行进系统、火源探测装置及灭火系统;行进系统包括左轮、右轮、万向轮、3个红外避障传感器、两个用于分别控制左轮和右轮的360°舵机和3个用于识别导航路径的红外光电传感器;红外避障传感器以及红外光电传感器均与微处理器连接;火源探测装置包括4个远红外火焰传感器;灭火系统设置在车体后端,包括支架、电风扇、干粉灭火装置及火焰探测器。系统具有成本低廉、自主性强、实时性好、体积小特点,适于群体微型自主车作业,优化消防人力投入。本发明可用于楼宇自动化、社区、仓库等火灾防治领域。

    基于人类视觉注意机制的多仿射目标的检测与识别方法

    公开(公告)号:CN109711420A

    公开(公告)日:2019-05-03

    申请号:CN201811560332.X

    申请日:2018-12-20

    Abstract: 本发明公开了一种基于人类视觉注意机制的多仿射目标的检测与识别方法,选择扫描窗口尺寸,对于由多个目标图像组成的原始场景图,每平移一次扫描窗口,对当前窗口W内的目标图像进行生物变换,得到目标特征图M,选取区域N,与模板特征图进行区域匹配,获取与区域N匹配度r>0.95的模板特征图为候选目标;根据候选目标与M匹配区域的水平或垂直位置,判断窗口W下的目标图像相较于模板图像旋转的角度或缩放的倍数,将窗口W下的目标图像根据当前旋转角度或缩放倍数;将还原后的目标图像再次进行一次生物变换,利用特征变换图对候选目标特征图进行验证,将与特征变换图距离最小的候选目标作为最终识别目标。本发明得到的识别图像有较高的准确性。

    一种用于复杂场景图像识别的多通道仿生视觉方法

    公开(公告)号:CN106446833A

    公开(公告)日:2017-02-22

    申请号:CN201610854533.5

    申请日:2016-09-27

    CPC classification number: G06K9/00624 G06T3/005

    Abstract: 本发明公开了一种用于复杂场景图像识别的多通道仿生视觉方法,其步骤主要包括三个变换通道。对于第一通道,通过模拟人类大脑的多通道视觉处理机制,对原图像进行前向通道计算,得到候选目标集,同时产生两个阶段的记忆信息。对于第二通道,依次对每个候选目标,利用这些记忆信息进行反向通道计算,得到原图像中的击中图,以此构成目标边缘图。对于第三通道,最后利用第二前向通道算法,对该目标边缘图进行两次变换,得到特征变换图并在候选集中进行验证,以此完成图像识别。通过模拟人类大脑的多通道视觉处理机制,提取视觉记忆信息,并利用反向通道计算,有效模拟人类大脑对目标的视觉信息处理过程,得到的识别图像准确度高。

    物料搅拌槽内物料液面高度测量方法及系统

    公开(公告)号:CN113160143B

    公开(公告)日:2022-05-24

    申请号:CN202110316958.1

    申请日:2021-03-23

    Applicant: 中南大学

    Abstract: 本发明公开了一种物料搅拌槽内物料液面高度测量方法及系统,获取卸料至物料搅拌槽工况的原始三维点云数据并构建三维点云图;在激光雷达坐标系内对物料搅拌槽模型关键点进行标定,并依据物料搅拌槽模型的关键点位置范围,对原始三维点云数据进行第一次滤波,仅保留物料搅拌槽内的激光点;通过分割理想激光面并根据激光点的远近来筛选种子点;构建多个不规则三角网来提取新的特征点;根据当前数据帧之前和之后的两帧滤波后的点云数据对特征点进行修正、筛选;将特征点进行曲线拟合,通过采样并计算采样点到筛网面的距离取平均值的方式获取不同液面位置与筛网面的距离。本发明可提高物料搅拌槽内搅拌工作的效率与安全度。

    棚内垄间农药喷洒智能车的倒车导航控制方法及系统

    公开(公告)号:CN114063615A

    公开(公告)日:2022-02-18

    申请号:CN202111299516.7

    申请日:2021-11-04

    Applicant: 中南大学

    Abstract: 本发明公开了一种棚内垄间农药喷洒智能车的倒车导航控制方法及系统,采集温室大棚内道路环境信息,构建原点不变的全局静态栅格地图;农药喷洒智能车在垄间倒车驶出时通过多线激光雷达感知温室大棚内田垄两旁农作物,采集智能车倒车行驶时的障碍物信息,构建以车辆为中心的局部代价地图,将动态障碍物实时投影到局部地图上并进行膨胀处理;确定可通行道路边界,生成倒车中心参考线;根据车辆定位信息、倒车中心参考线信息、动态障碍物约束以及车辆运动学约束规划局部倒车轨迹;从倒车轨迹中提取航迹点,在横向与纵向上分别采用PI控制器生成角加速度与线加速度控制指令。本发明可避免与农作物发生碰撞。

    一种基于DQN的车辆自动泊车方法

    公开(公告)号:CN108407805B

    公开(公告)日:2019-07-30

    申请号:CN201810277016.5

    申请日:2018-03-30

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于DQN的车辆自动泊车方法,包括以下步骤:步骤一,获取当前时刻的车辆位置、障碍物信息及泊车位信息,并将车辆停到相对合理的泊车起始位置;步骤二,根据当前时刻的车辆位置、障碍物信息及泊车位信息,使用训练好的DQN计算期望车辆前轮摆角;步骤三,按照根据期望车辆前轮摆角,控制车辆前轮转动并移动车辆;步骤四,更新当前时刻车辆位置,判断是否进入泊车位,如果到达泊车位则泊车结束,否则更新障碍物信息,返回步骤二重新计算车辆前轮摆角。该方法采用DQN计算期望车辆前轮摆角,能够自主学习相关参数,大大减少了泊车系统参数调试的工作;使系统有较好的容错能力和鲁棒性,极大提高了车辆一次性泊车的成功率。

    一种基于自组织行为的集群机器人图形组建方法

    公开(公告)号:CN106155057B

    公开(公告)日:2018-12-25

    申请号:CN201610637658.2

    申请日:2016-08-05

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于自组织行为的集群机器人图形组建方法,该方法包括以下步骤:步骤1:向集群机器人发送路径信息;步骤2:将多个单体机器人排随机列成一个紧密的机器人群体,并初始化4个初始机器人信息;步骤3:根据路径信息、机器人之间传输的信息、状态控制算法和基本行为对单体机器人的运动状态进行控制,实现对群机器人运动和组成图形的控制。该方法能够解决大规划微粒群集机器人的自组织图形生成问题,硬件性能要求低,容易实现;其定位方法具有一定容错性。

Patent Agency Ranking