一种基于多传感器紧耦合的立面凸出物智能检测方法

    公开(公告)号:CN119832057A

    公开(公告)日:2025-04-15

    申请号:CN202510295892.0

    申请日:2025-03-13

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于多传感器紧耦合的立面凸出物智能检测方法,对待检测的立面采集包括点云和图像在内的多模态数据,然后对图像进行全景分割获取语义信息,并将语义信息传递到点云中;对点云进行降采样,并结合语义信息进行密度聚类,计算投影置信向量,利用随机抽样一致性算法计算立面所在平面方程,对凸出物计算包围框,完成基于点云的凸出物粗估计;对凸出物使用点云计算表面方程,并将凸出物表面方程变换到相机坐标系中,利用图像中凸出物的像素位置,结合立面方程,拟合凸出物在空间中的边界;根据投影置信向量调整点云的粗估计结果和基于图像拟合的边界,对两类结果进行组合滤波以耦合,完成对凸出物的精确检测,得到凸出物队列。

    一种基于局部方向特征和关联矩阵的金属模具跟踪方法

    公开(公告)号:CN114708298A

    公开(公告)日:2022-07-05

    申请号:CN202210155145.3

    申请日:2022-02-21

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于局部方向特征和关联矩阵的金属模具跟踪方法,包括特征提取,目标定位,目标跟踪三部分。首先,对多个单一模具图像进行高斯滤波并提取出模具的局部方向特征。其次,由局部方向特征建立模具模板,在实际图像中通过相似性度量确定满足条件的目标点,进而通过非极大值抑制确定得到目标模具的位置。通过帧间数据关系获取目标帧间的关联矩阵,结合关联矩阵完成模具ID的标注和跟踪。最后,将获得的模具轨迹映射到三维空间。本发明提出的算法在工业模具跟踪领域获得了较高的准确率、可靠性和实时性,体现了本发明在该场景下的适用性和优越性,可以为工业机器人的工作提供技术支撑。

    一种基于STAR算法优化的快速BI_RRT避障轨迹规划方法

    公开(公告)号:CN111678523B

    公开(公告)日:2022-05-17

    申请号:CN202010613627.X

    申请日:2020-06-30

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于STAR算法优化的快速BI_RRT避障轨迹规划方法。方法分为两步进行,第一步主要完成两个结构树快速向对方的方向扩展并产生新的节点;第二步主要完成对生长后的节点集合进行最优路径选择。本发明通过对双向生长树的生长规律进行设计,使得双向生长树的随机性更弱,更快的离开初始区域,利用对生成的路径进行重选父节点以及重新焊接树的操作,使得最终路径趋近于最优路径,提升了避障轨迹规划的效率。

    一种基于二元状态转换的惩罚B样条平滑光谱基线校正方法

    公开(公告)号:CN108801944B

    公开(公告)日:2021-02-09

    申请号:CN201810813401.7

    申请日:2018-07-23

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于二元状态转换的惩罚B样条平滑光谱基线校正方法。通过二元数据集合表示光谱数据点是否为背景点,初始化二元数据集合为随机产生的数据集。取二元数据集合中元素为1的数据所对应的光谱数据点作为基线数据,采用惩罚B样条拟合基线数据得到光谱基线。通过状态转换算法以及将拟合基线和最佳估计基线比较,不断更新光谱二元数据集合,从而拟合得到最佳基线。本算法获得的背景基线准确度高,算法适用性强,并且所需确定的参数较少,能够有效地消除背景光谱,从而获得良好的基线校正效果,为进一步分析光谱数据提供准确可靠的数据。

    一种浮选工况分类方法和系统

    公开(公告)号:CN107392232B

    公开(公告)日:2020-09-29

    申请号:CN201710492626.2

    申请日:2017-06-23

    Applicant: 中南大学

    Abstract: 本发明涉及泡沫浮选自动化领域,公开了一种浮选工况分类方法和系统,以为后续加药等操作提供指导,从而提高浮选过程的经济和技术指标、减轻工人劳动强度。本发明首先对泡沫图像进行预处理和分割得到所有由单个泡泡构成的图像,提取单个泡泡图像的形态特征向量,再根据深度卷积神经网络模型提取各泡泡图像的像素集特征并结合泡泡图像对应的形态特征向量以对泡泡图像进行精分类,然后统计泡沫图像中各类泡泡的出现频率形成单帧泡沫图像的泡泡分类频率集,分析泡沫图像的泡泡分类频率集与浮选典型工况之间的对应关系,从而得到泡沫图像所反应的浮选工况类别。

    一种基于估计动力学模型的双臂机器人协同阻抗控制方法

    公开(公告)号:CN110421547A

    公开(公告)日:2019-11-08

    申请号:CN201910630375.9

    申请日:2019-07-12

    Applicant: 中南大学

    Abstract: 本发明公开一种基于估计动力学模型的双臂机器人协同阻抗控制方法。首先根据目标物体在笛卡尔空间中的期望轨迹,计算得到机器人双臂末端笛卡尔空间期望轨迹,然后测量得到两台机械臂的末端与目标物体产生的实际接触力,将实际接触力和期望接触力求偏差,再对期望轨迹进行修正。然后计算得到双臂机器人关节角度轨迹。借助时间延时估计、期望速度反馈、期望位置反馈得到双臂机器人的估计动力学模型,并由此得到双臂机器人各关节的控制力矩,控制双臂机器人完成的运动。本发明可以实现双臂机器人与外界环境交互过程中的运动学和动力学协调,能够通过估计动力学模型快速生成控制力矩,可应用于双臂机器人协同作业的运动控制中。

    一种基于快速扩展随机树和势场法的视觉伺服路径规划方法

    公开(公告)号:CN109976347A

    公开(公告)日:2019-07-05

    申请号:CN201910287276.5

    申请日:2019-04-11

    Applicant: 中南大学

    Abstract: 本发明公开了一种结合快速扩展随机树和势场法的视觉伺服路径规划方法。先给出机器人任意位姿下目标物特征点的任务空间坐标与图像平面像素坐标的映射关系;然后在任务空间随机生产新的位姿,新的位姿要保证与最近的原有位姿之间没有障碍物,同时计算出相应位姿下目标物特征点图像平面像素坐标,使其保持在相机视野范围内;使用基于快速扩展随机树和势场法的路径规划方法在任务空间搜索可行的相机路径,得到相应的图像平面特征轨迹,最后利用基于图像的视觉伺服(IBVS)进行跟踪控制使机器人实现初始位姿到期望位姿的避障并满足视野约束的运动。本发明通过在机器人视觉伺服中引入路径规划技术,解决了机器人视觉伺服中的避障和特征可视问题。

    一种基于扇形邻域差异直方图的匣钵裂纹检测方法

    公开(公告)号:CN108846839A

    公开(公告)日:2018-11-20

    申请号:CN201810569477.X

    申请日:2018-06-05

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于扇形邻域差异直方图的匣钵裂纹检测方法。首先采集待检测匣钵的表面图像;再通过细节提取和阈值分割粗略提取到带有大量噪声的裂纹二值图像;然后根据裂纹像素点在邻域内的空间聚集特征和方向特征的特点,构造扇形滤波器并与图像卷积得到扇形邻域差异直方图;通过扇形邻域差异直方图分析裂纹像素点和非裂纹像素点的裂纹分布概率特征差异,对裂纹像素点和非裂纹像素点进行分离,实现裂纹的提取;最后,通过提取所得裂纹的全局以及局部的长度和面积特征,得到一个反映龟裂程度的评估因子,进行龟裂程度等级评估。本发明对复杂的匣钵底面上各种类型的裂纹都能实现准确完整的检测效果,可以应用于匣钵裂纹的自动化检测。

    基于重要点双重评价因子时间序列趋势特征提取方法

    公开(公告)号:CN108804731A

    公开(公告)日:2018-11-13

    申请号:CN201710818994.1

    申请日:2017-09-12

    Applicant: 中南大学

    CPC classification number: G06N3/006

    Abstract: 本发明公开了一种基于重要点双重评价因子的时间序列趋势特征提取方法,以时间序列分段线性表示为基础,并定义重要点作为时间序列分段点的备选集,计算重要点距离因子和趋势因子,用距离因子度量其相对差异程度,用趋势因子在全局上度量其对整体趋势的影响程度,用综合评价模型评价每个重要点对整体趋势的重要程度来选取分段点,最后将相邻分段点连接得到时间序列的分段趋势表示。本发明提出了时间序列重要点距离因子的概念,并将两种评价因子相结合对时间序列重要点进行评价,克服了现有分段线性化方法评价函数单一和具有局部性的缺点,可以有效削弱噪声干扰,保留时间序列变化趋势特征,处理速度快,在分段数相同的情况下提取精度比现有方法高。

    一种基于图像混合矩的机器人视觉伺服控制方法

    公开(公告)号:CN107901041A

    公开(公告)日:2018-04-13

    申请号:CN201711345292.2

    申请日:2017-12-15

    Applicant: 中南大学

    CPC classification number: B25J9/1671 B25J9/1607 B25J9/1697

    Abstract: 本发明公开了一种基于图像混合矩的机器人视觉伺服控制方法。先给出机器人期望位姿下对目标物成像后与空间姿态一一对应的混合矩特征构建;然后在任意姿态下获取目标物图像,计算当前的混合矩特征信息值,并根据期望图像与当前图像的信息计算混合矩特征值的偏差,如果偏差小于预设阈值,说明机器人已经到达期望位姿,否则推导与混合矩特征相关的图像雅克比矩阵,利用视觉伺服控制器使得机器人朝向期望的位姿运动,直到特征偏差小于预设阈值,结束控制流程。本发明通过引入与机器人空间运动轨迹相对应的图像域混合矩特征作为控制输入,完成对眼在手机器人系统在工作空间模型未知情形下的视觉伺服控制,可以广泛应用基于机器视觉的机器人智能控制。

Patent Agency Ranking