一种视觉传感器与触觉传感器位置关系的标定方法及其应用

    公开(公告)号:CN118429431A

    公开(公告)日:2024-08-02

    申请号:CN202410454554.2

    申请日:2024-04-16

    Abstract: 本发明属于多模态传感器位置关系标定相关技术领域,其公开了一种视觉传感器与触觉传感器位置关系的标定方法及其应用,包括以下步骤:(1)装配标定块;(2)触觉传感器测量其与标定块接触区域的点云模型,采用ICP算法与预先导入的模型原始点云模型进行配准以得到标定块坐标系相对于触觉传感器坐标系的旋转矩阵#imgabs0#以及平移向量#imgabs1#相机拍摄含有所述标定块的图像A1,基于所述标定块的参考图及图像A1提取标定块坐标系及所述相机坐标系中3组以上的对应点,以计算得到标定块坐标系相对于相机坐标系的旋转矩阵#imgabs2#与平移向量#imgabs3#本发明解决了视觉传感器与触觉传感器相互之间位置关系的标定过程繁杂的问题。

    一种基于分光棱镜的双相机视触觉传感器

    公开(公告)号:CN117804528A

    公开(公告)日:2024-04-02

    申请号:CN202311831332.X

    申请日:2023-12-28

    Abstract: 本发明属于触觉传感器领域,具体涉及一种基于分光棱镜的双相机视触觉传感器,旨在解决现有视触觉传感器空间尺寸要求高、空间分辨率不足、生产成本高的问题。本发明通过透明凝胶层接触物体后表面产生的形变来反映空间信息,然后光源为透明凝胶层表面提供照明,透明凝胶层将表面反射的光线通过分光棱镜传递给两个相机,相机将捕捉得到的图像数据进行处理,空间分辨率较高。本发明所有部件安装在支撑框架内,空间尺寸要求较低,生产成本较低,可进行高分辨率(高于0.01mm)的三维空间重建,能应用于高精度的触觉感知,对于机器人的力控制、抓取控制等任务具有潜在的应用价值。

    一种基于立体视觉与TOF融合的三维视觉感知方法及系统

    公开(公告)号:CN115714855A

    公开(公告)日:2023-02-24

    申请号:CN202211240792.0

    申请日:2022-10-11

    Abstract: 本发明属于机器人数字图像采集与处理领域,具体涉及一种基于立体视觉与TOF融合的三维视觉感知方法及系统,包括:采用两路视觉成像单元,采集两路RGB图像;采用TOF成像设备,采集TOF深度图像;采用FPGA板卡和高速图像采集处理模块,对任一路RGB图像进行立体视觉计算,得到该路RGB图像对应的立体视觉深度图;采用GPU板卡以及基于CUDA的深度融合模块,对立体视觉深度图和TOF深度图进行融合处理,得到融合后的深度图;将两路RGB图像、立体视觉深度图和融合后的深度图作为三维视觉感知的结果,完成三维视觉感知。本发明研制了一种基于立体视觉与TOF融合的高速高精视觉系统,充分发挥两种传感器优势,改善输出深度图质量,具有高速高鲁棒高精度的特点。

    一种用于自然场景图像匹配的局部描述子网络的训练方法

    公开(公告)号:CN115018056A

    公开(公告)日:2022-09-06

    申请号:CN202210722014.9

    申请日:2022-06-17

    Abstract: 本发明属于图像处理领域,具体涉及一种用于自然场景图像匹配的局部描述子网络的训练方法,包括:采用原始样本和生成样本训练描述子网络;每次训练中先采用以下方式生成样本:通过几何扰动方式对各原始样本采样,生成各新样本;并使用当前描述子网络计算各新样本及其对应的原始样本的描述子,并通过描述子计算对抗生成损失函数,基于对抗生成损失函数反向传播,优化控制参数,以产生具有更大对抗生成损失函数的生成样本;且每次迭代训练所用损失函数包括原始样本三输入损失和生成样本三输入损失,每个损失中的距离采用混合距离进行计算,且混合距离中的混合系数采用最大似然估计求取。本发明方法能提升描述子在自然场景中较大干扰条件下的性能。

    一种用于自然场景图像匹配的局部描述子网络的训练方法

    公开(公告)号:CN115018056B

    公开(公告)日:2024-09-06

    申请号:CN202210722014.9

    申请日:2022-06-17

    Abstract: 本发明属于图像处理领域,具体涉及一种用于自然场景图像匹配的局部描述子网络的训练方法,包括:采用原始样本和生成样本训练描述子网络;每次训练中先采用以下方式生成样本:通过几何扰动方式对各原始样本采样,生成各新样本;并使用当前描述子网络计算各新样本及其对应的原始样本的描述子,并通过描述子计算对抗生成损失函数,基于对抗生成损失函数反向传播,优化控制参数,以产生具有更大对抗生成损失函数的生成样本;且每次迭代训练所用损失函数包括原始样本三输入损失和生成样本三输入损失,每个损失中的距离采用混合距离进行计算,且混合距离中的混合系数采用最大似然估计求取。本发明方法能提升描述子在自然场景中较大干扰条件下的性能。

    基于多层特征自身差异融合的动态特征提取与描述方法

    公开(公告)号:CN115331021A

    公开(公告)日:2022-11-11

    申请号:CN202210849429.2

    申请日:2022-07-19

    Abstract: 本发明属于图像处理领域,并公开了一种基于多层特征自身差异融合的动态特征提取与描述方法。首先,基于特征提取模块对输入的图像进行特征提取;其次,多层特征自身差异检测模块对不同网络层的输出计算对应的特征自身差异图,然后将它们融合来获得具有多层信息的检测分值图;在训练方面,近似关键点距离检测损失函数使用softargmax近似回归局部区域极大值点坐标作为关键点坐标,使得涉及关键点坐标的计算能够被反向传播;最后,提出正匹配与误匹配比例描述损失函数指导网络学习可靠的描述子,进一步提升匹配性能。如此,本发明能够提高当前联合特征提取与描述方法的关键点检测精度与匹配精度,对光照变化、仿射变换等干扰都有较高鲁棒性。

Patent Agency Ranking