一种视觉智能数控系统的数据融合方法

    公开(公告)号:CN104200469A

    公开(公告)日:2014-12-10

    申请号:CN201410436174.2

    申请日:2014-08-29

    Abstract: 本发明涉及一种视觉智能数控系统的数据融合方法,包括以下步骤,步骤一:对目标物体所在的环境进行图像采集;步骤二:建立视觉单元中的像素坐标系和目标物体所在的世界坐标系;步骤三:获取目标物体在像素坐标系中的像素单元尺度的多个点的坐标值和在世界坐标系中对应点的坐标值;步骤四:根据所确定的像素坐标系的坐标值和世界坐标系的坐标值,建立像素坐标系与世界坐标系的映射关系;步骤五:获取在像素邻域内的点所在像素坐标系的坐标值;根据映射关系,计算其世界坐标系的坐标值;步骤六:重复步骤三到步骤五,直至完成整个像素坐标系的每个像素单元坐标值与世界坐标系对应坐标值的映射关系。

    一种数控绗缝加工工序的生成方法

    公开(公告)号:CN101781833B

    公开(公告)日:2012-09-05

    申请号:CN201010113535.1

    申请日:2010-02-10

    Inventor: 柳宁 王高 叶文生

    Abstract: 本发明涉及的一种数控绗缝加工程序的生成方法,包括以下顺序的步骤:(1)采用相机获取数字图像数据,并对其进行图像预处理;(2)人工绘制引导线,并在引导线上生成等间隔的检测线,在检测线上寻找其与图案轮廓的交点,并将交点坐标组织成坐标数据链表;(3)分段拟合第(2)步中的坐标数据,形成图元数据链表;(4)采用三阶Hermite参数曲线作为连接图元平滑连接第(3)步形成的图元数据链表,并将该连接图元填充到图元数据链表内;(5)将第(4)步形成的图元数据链表后处理成数控绗缝机的控制指令。本发明采用人机交互,直接提取面料图案的轮廓,使得最终形成的绗缝图案与纺织物的表面轮廓吻合,增加了绗缝产品的立体感和视觉感染力。

    一种多轴联动运动控制器
    23.
    发明授权

    公开(公告)号:CN100541374C

    公开(公告)日:2009-09-16

    申请号:CN200710029514.X

    申请日:2007-08-01

    Applicant: 暨南大学

    Inventor: 柳宁 王高 王思华

    Abstract: 本发明提供一种多轴联动运动控制器,其特点是采用多CPU并行控制系统,其中一个主CPU计算各轴的插补坐标,各个从CPU分别控制2-4个运动轴,CPU之间采用串行总线方式联接,CPU个数可以扩展;每个CPU管理一个插补数据缓冲队列,插补数据以统一的格式存贮在本地数据缓冲队列中,主CPU提前进行插补计算,并在本地缓冲队列中保持一定的缓冲数据量,主CPU定时以数据块方式广播插补数据,从CPU接收到数据广播后,在本地缓冲队列中保留本地需要的插补数据;各个从CPU定时从本地缓冲区中读取插补数据,执行位置跟踪控制;各CPU的时钟同步采用广播同步信号实现。本发明可以用于5轴以上的多轴数控系统的联动。

    基于深度强化学习的机器人自动化手眼标定方法及系统

    公开(公告)号:CN119658701B

    公开(公告)日:2025-04-22

    申请号:CN202510173902.3

    申请日:2025-02-18

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。

    基于深度强化学习的机器人自动化手眼标定方法及系统

    公开(公告)号:CN119658701A

    公开(公告)日:2025-03-21

    申请号:CN202510173902.3

    申请日:2025-02-18

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。

    一种从三维点云中提取二次曲面的方法

    公开(公告)号:CN110111430B

    公开(公告)日:2023-03-10

    申请号:CN201910289385.0

    申请日:2019-04-11

    Applicant: 暨南大学

    Abstract: 本发明公开了一种从三维点云中提取二次曲面的方法,首先利用每个点的K邻域点集拟合每个点对应的曲面并计算其对应的曲面参数标准差;其次按曲面参数标准差从小到大的顺序排列点集;然后从排序后的点集中依序取出每个点,当取出点对应的曲面参数标准小于设置的阈值且未被标记为已生长点时,视为初始种子点;从初始种子点开始进行区域生长,并以当前区域的序号对属于该曲面的生长点进行标记,同时对该曲面的特征参数进行动态拟合,直到一个曲面生长完毕;重复步骤从点集中取出点并进行动态拟合,直到曲面参数标准差大于阈值,最后按点云中的标记序号提取对应曲面。本发明能从三维点云中快速准确地提取二次曲面,获得最优的曲面参数。

    一种基于MIMO-NOMA的增强型小蜂窝下行通信方法

    公开(公告)号:CN112566159B

    公开(公告)日:2022-12-27

    申请号:CN202011361675.0

    申请日:2020-11-27

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于MIMO‑NOMA的增强型小蜂窝下行通信方法,该方法包含以下步骤:首先,获取基站、NOMA用户以及NOMA配对策略等相关初始化参数以及信道的统计状态信息;然后利用干扰对齐技术进行NOMA远近用户的接收线性滤波器的设计;继而确定基站端的预编码矩阵;最后,在给定最大可容许的中断概率条件下,通过最大化长期平均吞吐量来优化设计所有NOMA用户的传输速率。与现有的方法如有预编码的MIMO‑OMA、无预编码MIMO‑OMA、以及无预编码MIMO‑NOMA相对比,本发明所提出方法可以有效提升吞吐量,尤其在NOMA用户对的信道差异越显著时表现更优。

    一种基于PVFH特征的三维物体位姿估计方法

    公开(公告)号:CN110097598B

    公开(公告)日:2021-09-07

    申请号:CN201910289406.9

    申请日:2019-04-11

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于PVFH特征的三维物体位姿估计方法,本发明涉及三维点云物体位姿估计方法。本发明提出一种改进的全局特征描述符PVFH,利用该描述符实现三维点云物体位姿估计。在离线阶段从CAD模型渲染得到多个视角的点云,并提取部分点云的PVFH特征建立模型库。在在线识别阶段从场景分割出点云物体,然后提取被识别物体的PVFH特征,与模型库进行特征匹配获得粗匹配的位姿,最后用ICP算法进行优化得到精确的姿态。本发明克服了传统全局特征描述符无法识别旋转对称或镜像对称物体的缺点,鲁棒性高。

    一种视觉智能数控系统的数据交换方法

    公开(公告)号:CN104267665A

    公开(公告)日:2015-01-07

    申请号:CN201410436929.9

    申请日:2014-08-29

    Applicant: 暨南大学

    Inventor: 王高 柳宁 叶文生

    CPC classification number: G05B19/19

    Abstract: 本发明公开了一种视觉智能数控系统的数据交换方法,所述系统包括数控子系统和视觉子系统,所述数控子系统与视觉子系统之间以通信线路连接;该系统的数据交换方法包括:将数控子系统与视觉子系统的底层数据交互部分设置为公共数据区,每个子系统的公共数据区包含该子系统内部必要状态数据和用户设定数据,并划分为系统数据区和用户数据区;每个子系统的公共数据区在控制周期内刷新系统数据及用户数据,并在通信周期内采用广播形式对全部子系统或目标子系统进行数据传输,实现数据交换。本发明方法可以解决目前数控系统和机器视觉体系封闭、各自独立、二者集成难度大、开发效率不高的问题,便于行业数控装备应用推广。

    一种基于运动伺服校正的高精度机器视觉二维定位方法

    公开(公告)号:CN101788805B

    公开(公告)日:2012-10-31

    申请号:CN201010103482.5

    申请日:2010-01-27

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于运动伺服校正的高精度机器视觉二维定位方法,将相机固联到激光切割机等设备的运动机头上,选定加工对象上的几何图形作为定位几何特征,设备的运动控制器将相机移动到定位几何特征上方,获取定位几何特征的数字图像,采用模板匹配或边缘检测的方法计算几何中心坐标,再将该中心坐标作为机头运动的目标地址,移动相机使相机轴线与该坐标重合,并重新获取定位几何特征图像,再计算中心坐标。如重新计算所得的中心坐标与当前的相机轴线坐标偏差大于许用值,重新移动机头,获取图像,计算该中心坐标,如此迭代直到达到满意的精度为止。该定位方法定位精度高,同时却对相机光学器件的性能要求不高。

Patent Agency Ranking