-
公开(公告)号:CN119369420A
公开(公告)日:2025-01-28
申请号:CN202411947228.1
申请日:2024-12-27
Applicant: 湖南大学
IPC: B25J9/16
Abstract: 本发明公开了一种面向多机协作共融的双臂机器人协同运动规划方法及系统,包括:构建机‑机‑环境共融碰撞信息估计模型:将双臂机器人整体可达空间进行离散化,并利用深度相机获取环境信息;采用间隙估计神经网络模型获取双臂机器人与环境的交互信息,同时获取左右机械臂交互信息,实现机器人与机器人、机器人与环境同步碰撞检测;在机‑机‑环境共融碰撞信息估计模型的基础上,进行双臂机器人协同路径规划,获取一条预估的可行路径;基于几何碰撞检查器进行双臂机器人运动路径安全检查与路径修复,确保规划路径绝对安全。解决现有双臂机器人运动规划方法效率低,难以有效实现多机器人协同作业的问题。
-
公开(公告)号:CN119359939A
公开(公告)日:2025-01-24
申请号:CN202411943433.0
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06T7/80 , G06T7/13 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。
-
公开(公告)号:CN119359778A
公开(公告)日:2025-01-24
申请号:CN202411944424.3
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T7/33 , G06T7/00 , G06T5/80 , G06V10/774
Abstract: 本发明公开了一种基于特征分离的大基线图像配准方法及系统,以预设的重叠率对电路板进行图像采集,得到若干张电路板局部图像,对若干张电路板局部图像进行畸变矫正,将畸变矫正后的电路板局部图像组成图像对并构建训练集,搭建图像配准网络,使用训练集对图像配准网络进行训练并计算重构损失,得到训练后的图像配准网络,获取真实场景下待配准的大基线图像,将待配准的大基线图像进行畸变矫正后组成图像对输入至训练后的图像配准网络处理,输出真实场景下待配准的大基线图像对的图像变换矩阵,根据图像变换矩阵实现真实场景下待配准大基线图像对的配准。该方法能够在实际的工业应用中显著提高图像配准的精度、效率和稳定性。
-
公开(公告)号:CN118848998B
公开(公告)日:2025-01-21
申请号:CN202411347391.4
申请日:2024-09-26
Applicant: 湖南大学
Abstract: 本发明公开了一种基于贝叶斯交互基元的双臂机器人技能学习方法,搭建双臂机器人技能学习平台,以控制双臂机器人和采集数据;通过遥操作对双臂机器人进行示教,采集专家示教数据;建立贝叶斯交互基元学习框架,使用基函数拟合示教轨迹;通过多传感器获取当前状态的多模态数据,采用序列对齐和动态捕捉的方法进行时空推理,得到当前状态的相位,贝叶斯交互基元根据当前相位输出双臂机器人未来动作序列的后验分布;每个时间步都根据当前和历史输出的动作序列的相应动作进行加权平均后执行,直到完成相位估计任务。技能学习效率高、示教方式简单易行、技能学习效果优异,有效解决了双臂机器人技能发育慢、双臂操作协同性差、操作流畅性低的问题。
-
公开(公告)号:CN119205748A
公开(公告)日:2024-12-27
申请号:CN202411697688.3
申请日:2024-11-26
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/0464 , G06V10/44 , G06V10/58 , G06V10/764 , G06V10/774 , G06V10/82 , G06F15/78
Abstract: 一种光谱图像检测模型、检测方法和片上计算的相机处理器,其中光谱图像检测模型包括N个串联的KAM块以及连在N个KAM块之后的分类器块;KAM块包括依次连接的深度可分离卷积层、批归一化层、改进的三重注意力层以及ReLU激活函数层;深度可分离卷积层用于提取图像特征,改进的三重注意力层用于增强特征图内和特征图之间的信息交互;分类器块包括依次连接的深度可分离卷积层、批归一化层、普通卷积层和Sigmoid激活函数层。本发明中的光谱图像检测模型具有轻量化、计算量小等特点,可部署在相机中的相机处理器中,以满足移动端、边缘端高光谱图像处理需求。
-
公开(公告)号:CN119205493A
公开(公告)日:2024-12-27
申请号:CN202411699618.1
申请日:2024-11-26
Applicant: 湖南大学
Abstract: 本发明涉及计算机技术领域,具体为一种基于深度双先验渐进融合的高光谱压缩感知重建方法,包括如下步骤:1、拍摄获取原始的压缩测量图像,然后对原始的压缩测量图像进行归一化处理,得到归一化处理后的压缩测量图像;2、基于压缩感知重构问题构建目标函数,并对目标函数进行优化,得到优化后最终的目标函数;3、根据归一化处理后的压缩测量图像建立用于高光谱压缩感知重建的自监督学习模型;自监督学习模型包括外循环迭代优化和两个内循环网络训练;4、利用自监督学习模型对优化后最终的目标函数进行求解,通过融合两个内循环网络训练过程得到的深度先验项,得到最终的重构图像。本发明解决了现有自监督光谱重建方法成像质量低的问题。
-
公开(公告)号:CN119188784A
公开(公告)日:2024-12-27
申请号:CN202411698119.0
申请日:2024-11-26
Applicant: 湖南大学
Abstract: 本发明公开了一种基于动态运动基元的双臂机器人自适应技能学习方法,获取示教数据,建立动态运动基元模型,通过动态运动基元模型,双臂分别从示教数据中学习轨迹的形状特征,生成对应的轨迹形状函数,得到初始的轨迹控制权重;获取新的任务目标点,将学习到的初始的轨迹控制权重、轨迹形状函数,结合新的任务目标点,生成与示教轨迹相似的初始轨迹;对初始轨迹进行优化得到优化后的轨迹形状,得到优化后的轨迹控制权重;将优化后的轨迹控制权重带入动态运动基元模型,并利用基于轨迹变化率的自适应时间缩放因子进行自适应调整,生成双臂的优化轨迹。确保机器人高效、精确地完成任务。
-
公开(公告)号:CN119169606A
公开(公告)日:2024-12-20
申请号:CN202411241486.8
申请日:2024-09-05
Applicant: 湖南大学
IPC: G06V20/64 , G06V10/80 , G06V10/25 , G06V10/44 , G06N3/0464 , G06N3/0495 , G06N3/08
Abstract: 本发明属于大范围制造场景机器人协同三维感知领域,具体涉及一种基于视觉状态空间模型的多机器人协同三维目标检测方法,包括:搭建多机器人激光雷达三维感知平台,采集飞机制造与装配大范围场景中的三维点云数据;对所采集的三维点云数据进行数据标注,制作三维点云检测数据集,并将三维点云检测数据集进行划分;构建基于视觉状态空间模型的点云三维目标检测模型;将训练集代入到点云三维目标检测模型中进行迭代训练,并采用验证集进行模型验证,得到最优点云三维目标检测模型;将测试集代入到最优点云三维目标检测模型中进行预测,得到三维点云检测结果,实现多机器人在大范围场景中的协同三维目标检测。
-
公开(公告)号:CN118550313B
公开(公告)日:2024-12-06
申请号:CN202411009923.3
申请日:2024-07-26
Applicant: 湖南大学
Abstract: 一种绳索牵引飞行机器人抗扰动控制方法,包括:1、推算移行机构期望轨迹和机械臂关节角、无人机平台中心期望轨迹和移行机构初始位置;2、计算机械臂运动对无人机平台带来的扰动力和扰动力矩,并计算绳索引起的扰动力和扰动力矩,得到总扰动方程;3、建立飞行机器人系统的动力学方程,进行解耦设计,得到解耦后的动力学方程,并得到旋翼升力、旋翼力矩、俯仰角期望值和横滚角期望值的计算公式;4、构建系统状态误差动力学方程,解算出飞行机器人旋翼升力和旋翼力矩;5、设计旋翼转速分配矩阵,根据旋翼升力、旋翼力矩以及旋翼转速分配矩阵计算旋翼转速,实现飞行机器人抗扰动运行。本发明解决了飞行机器人工作过程中的平稳性和安全性问题。
-
公开(公告)号:CN118864827A
公开(公告)日:2024-10-29
申请号:CN202411345989.X
申请日:2024-09-26
Applicant: 湖南大学
IPC: G06V10/25 , G06N3/0464 , G06N3/084 , G06V10/764 , G06V10/80 , G06V10/82 , G06V20/64
Abstract: 一种针对大型装配过程全场景的统一化三维目标检测方法,包括:1、构建全场景激光雷达感知平台,采集三维点云数据;2、制作装配制造场景的检测数据集;3、构建三维目标检测模型;4、将训练集中的数据输入到三维目标检测模型中,得到目标分类结果和目标边界框回归结果;5、构建总损失函数,计算目标分类结果与目标边界框回归结果的损失值,循环4至5,直至总损失函数收敛,更新权重,得到训练后的三维目标检测模型;6、对训练后的三维目标检测模型进行测试,得到检测结果。本发明增加了装配效率,提高了装配质量,能及时发现和处理装配过程中的问题,避免了制造业中传统人工装配过程的安全隐患,有助于推动工业智能制造快速且高质量的发展。
-
-
-
-
-
-
-
-
-