-
公开(公告)号:CN117359626A
公开(公告)日:2024-01-09
申请号:CN202311386039.7
申请日:2023-10-23
IPC: B25J9/16
Abstract: 本发明涉及人机协同运动轨迹模仿学习领域,公开一种基于核化运动基元的人机协同铺盖轨迹模仿学习方法,包括以下步骤:1)采集人机协同铺盖过程中的人机联合示教轨迹,并进行预处理,从而构建训练样本。2)采用核化运动基元模型,在训练样本中学习人手位置与机械臂末端位置间的非线性关系。3)采用基于语义分割的织物抓取点检测方法识别并抓取布匹一角;4)在预测阶段,依据由RGB‑D相机检测获取的人手位置,实时地预测机械臂末端的响应位置,为机器人生成与人手当前位置及其运动趋势相协调的末端运动轨迹,从而完成人机协同铺盖动作。
-
公开(公告)号:CN116402164B
公开(公告)日:2023-09-05
申请号:CN202310658638.3
申请日:2023-06-06
Applicant: 之江实验室
Abstract: 本发明涉及一种基于预训练语言模型的机器人任务生成方法、装置及介质,所述方法包括以下步骤:基于预先设计的Prompt模板,添加所述自然语言文本和场景感知描述文本,生成输入数据;基于输入数据采用预训练语言模型获得对应的预测结果列表,抽取推理结果语言描述列表;获取机器人技能列表,将推理结果语言描述列表与机器人技能列表进行对比分析;以机器人技能列表中相似度最大的一个机器人技能作为当前机器人推理决策结果;判断是否推理结束,若是,则以当前未完成的机器人技能作为机器人任务输出,若否,则将当前机器人推理决策结果更新到Prompt模板中。与现有技术相比,本发明具有操作性更强、方便易用等优点。
-
公开(公告)号:CN113077515B
公开(公告)日:2021-09-21
申请号:CN202110629765.1
申请日:2021-06-07
Applicant: 之江实验室
Abstract: 本发明属于机器人定位领域,尤其涉及一种水下视觉惯导压力定位的紧耦合初始化方法,通过传统单目SLAM的方法获得欠尺度的机器人位姿和地图特征点,将相邻图像之间的IMU数据进行预积分建立图像之间的预积分残差,将相邻图像与压力测量之间的IMU数据进行预积分建立图像与压力测量之间的预积分残差,通过非线性优化的方法求解系统的初始化参数,利用初始化参数更新地图,将更新后的系统进行光束平差优化,完成初始化过程,获得更精确的结果,以此推动系统的运行。本发明利用高频的IMU信息耦合不同时间步下的图像信息和压力信息,加强了各初始化参数之间的耦合度,提高了初始化算法的求解精度。
-
公开(公告)号:CN113247135A
公开(公告)日:2021-08-13
申请号:CN202110571512.3
申请日:2021-05-25
Applicant: 之江实验室
IPC: B62D57/024 , E01D19/10
Abstract: 本发明属于爬壁机器人领域,涉及一种面向钢板梁结构的桥梁检测机器人,包括磁轮、底板、抬升系统、运动系统、控制单元、摄像头,所述控制单元和摄像头设置在底板的上方,摄像头位于上方一侧的中间,所述磁轮通过联轴器与运动系统输出轴连接,所述运动系统通过螺栓与底板连接,所述抬升系统通过螺栓与底板连接,用于帮助机器人过渡内直角壁面。本发明的机器人同时具备钢板梁内外直角壁面过渡和加强肋结构翻越功能,进一步改善了机器人壁面运动能力,有效提高桥梁检测效率。
-
公开(公告)号:CN113256594B
公开(公告)日:2021-12-07
申请号:CN202110629853.1
申请日:2021-06-07
Applicant: 之江实验室
Abstract: 本发明公开了基于区域特征度量学习的小样本模型生成及焊缝检测方法,包括离线阶段和在线阶段,离线阶段,即小样本模型生成方法包括:S1:将焊缝样本图像数据集构造为小样本任务集合;S2:使用小样本任务集合训练目标检测模型;所述在线阶段包括:S3:加载训练后的目标检测模型;S4:将待测焊缝画面输入目标检测模型;S5:使用目标检测模型预测画面中的焊缝;本发明利用距离度量和元学习方法,通过改变目标检测模型及训练阶段参数优化策略,使模型可基于少量焊缝样本更快地完成训练,提高了目标检测方法在小样本焊缝上的检测准确率。
-
公开(公告)号:CN113096188B
公开(公告)日:2021-09-21
申请号:CN202110642779.7
申请日:2021-06-09
Applicant: 之江实验室
IPC: G06T7/73
Abstract: 本发明公开了一种基于高光像素检测的视觉里程计位姿优化方法,主要步骤包括:高光像素检测、权重矩阵计算、特征描述子计算、最小二乘优化。在金属、部分光滑物体表面常常发生镜面反射,导致相机捕获到的图像存在高光像素。而高光像素位置会随相机视角移动而改变,导致视觉定位中相邻图像匹配错误,从而定位精度下降。本发明的核心在于引入了高光像素检测,将检测结果转换成权重矩阵加入到位姿优化过程中,该方法剔除高光像素带来的错误匹配,有效提高了视觉定位的精度。
-
公开(公告)号:CN113256594A
公开(公告)日:2021-08-13
申请号:CN202110629853.1
申请日:2021-06-07
Applicant: 之江实验室
Abstract: 本发明公开了基于区域特征度量学习的小样本模型生成及焊缝检测方法,包括离线阶段和在线阶段,离线阶段,即小样本模型生成方法包括:S1:将焊缝样本图像数据集构造为小样本任务集合;S2:使用小样本任务集合训练目标检测模型;所述在线阶段包括:S3:加载训练后的目标检测模型;S4:将待测焊缝画面输入目标检测模型;S5:使用目标检测模型预测画面中的焊缝;本发明利用距离度量和元学习方法,通过改变目标检测模型及训练阶段参数优化策略,使模型可基于少量焊缝样本更快地完成训练,提高了目标检测方法在小样本焊缝上的检测准确率。
-
公开(公告)号:CN117392493A
公开(公告)日:2024-01-12
申请号:CN202311372830.2
申请日:2023-10-23
Abstract: 本发明公开了一种融合凝视的视听协同物品指代表达理解与分割方法、系统、设备及存储介质,所述方法包括以下步骤:(1)通过对物品指代OCID‑Ref数据集进行预处理,构建指代意图欠明确表达的数据集OCID‑underRef;(2)构造凝视引导的视觉定位网络GVG;(3)在真实人机交互场景下通过部署凝视引导的视觉定位网络来实现交互式人机物品递送;本发明减轻了数据集采集与标注的人力工作量;能够在语言描述的物品指代意图欠明确的情况下,结合人的凝视注意力检测来克服不确定性,尽量避免了因物品指代意图模糊而造成的人机多次问答交互。
-
公开(公告)号:CN117260730A
公开(公告)日:2023-12-22
申请号:CN202311426975.6
申请日:2023-10-30
Abstract: 本发明涉及人机协同领域,公开一种人机物品交递意图预测方法,包括以下步骤:1)采集物品交递过程中的人机联合轨迹,划分空间子区域。2)训练三级核化运动基元模型。3)在预测阶段,通过相机采集含人脸部和桌面物品的场景图像,采用凝视估计网络预测凝视区域热力图,从凝视区域热力图中定位人注视的桌面某个物品。在被锁定物体上计算抓取姿态并变换到机械臂基坐标系下,控制机械臂抓取该物品。4)同时通过相机实时检测人手位置,采用训练好的三级核化运动基元模型来针对人手位置预测机械臂末端的响应位置,为机器人生成与人伸手动作当前位置及其趋势相协调的末端运动轨迹,从而完成机器人与人之间的交递动作。
-
公开(公告)号:CN116402164A
公开(公告)日:2023-07-07
申请号:CN202310658638.3
申请日:2023-06-06
Applicant: 之江实验室
Abstract: 本发明涉及一种基于预训练语言模型的机器人任务生成方法、装置及介质,所述方法包括以下步骤:基于预先设计的Prompt模板,添加所述自然语言文本和场景感知描述文本,生成输入数据;基于输入数据采用预训练语言模型获得对应的预测结果列表,抽取推理结果语言描述列表;获取机器人技能列表,将推理结果语言描述列表与机器人技能列表进行对比分析;以机器人技能列表中相似度最大的一个机器人技能作为当前机器人推理决策结果;判断是否推理结束,若是,则以当前未完成的机器人技能作为机器人任务输出,若否,则将当前机器人推理决策结果更新到Prompt模板中。与现有技术相比,本发明具有操作性更强、方便易用等优点。
-
-
-
-
-
-
-
-
-