一种超分辨率触觉传感器
    1.
    发明公开

    公开(公告)号:CN115290247A

    公开(公告)日:2022-11-04

    申请号:CN202210889532.X

    申请日:2022-07-25

    Abstract: 本发明公开了一种超分辨率触觉传感器,包括PCB板,设于PCB板上的MCU芯片和覆盖于PCB板上的柔性壳体;柔性壳体在PCB板上形成的空间被划分为若干独立腔室;各个独立腔室内均设有MEMS气压传感器,每一MEMS气压传感器的信号端均与MCU芯片连接;MCU芯片被配置为:在柔性壳体受到外界激励时,构建独立腔室对应的感受野;依次绘制各个感受野对应的等值曲线,等值曲线反映壳体应变力和触摸点坐标之间的关系,重叠各个等值曲线,根据各个等值曲线的相交位置,得到外界激励对应的触摸点坐标。本发明实施例提供的超分辨率触觉传感器,通过重叠相邻感知单元的感受野,并求解等值曲线的交点位置,以实现触觉超分辨。

    一种行人重识别的方法和装置

    公开(公告)号:CN112926487B

    公开(公告)日:2022-02-11

    申请号:CN202110285142.7

    申请日:2021-03-17

    Abstract: 本发明公开了一种行人重识别的方法和装置,所述方法包括:获取行走特征数据库,通过对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,当存在第一特征向量与第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,以此更新每一所述行走特征,得到更新后的行走特征数据库,进而对待识别行人的行走特征进行行人重识别,得到行人重识别结果。采用本发明实施例,能够实现对模糊、遮挡和重复序列帧的筛查,有效地提高了每一行走特征的判别性,提高行人重识别的准确性。

    目标检测模型训练方法、模型性能检测方法及装置

    公开(公告)号:CN113807407A

    公开(公告)日:2021-12-17

    申请号:CN202110984344.0

    申请日:2021-08-25

    Abstract: 本发明公开了一种目标检测模型训练方法,其通过深度强化学习网络实现对区域的对焦,生成目标更容易检测的最优区域,并用所述最优区域生成训练效果更好的混合训练样本,以通过所述混合训练样本训练目标检测模型,其能够使得不同的目标对象能够自适应调整到目标检测模型容易学习的尺度来进行训练,提升了目标检测模型的检测性能。相应地,本发明还提供一种目标检测模型装置、目标检测模型性能检测方法及装置。

    一种全向触觉机械手
    4.
    发明公开

    公开(公告)号:CN113715044A

    公开(公告)日:2021-11-30

    申请号:CN202110984752.6

    申请日:2021-08-25

    Abstract: 本发明涉及机器人技术领域,公开了一种全向触觉机械手,其包括手掌以及设于手掌上的三根手指,手指包括指根、指中和指尖和驱动装置,指根通过第一转轴与手掌铆接,指中通过第二转轴与指根铆接,指尖通过第三转轴与指中铆接,驱动装置包括驱动电机、蜗杆、蜗轮和连杆组件,蜗杆安装于驱动电机的输出轴上,蜗轮套设于第一转轴上并与第一转轴固定连接,连杆组件分别与蜗轮、指根、指中和指尖相连接,指根、指中、指尖的表面均设有触觉传感器。与现有技术相比,该全向触觉机械手在指根、指中和指尖的表面均设置触觉传感器,以使上位机能够根据接收到的触觉信息判断出施加在触觉传感器上的力的种类、大小、位置,提高了机械手的感知灵敏度。

    一种技能基元提取方法、装置、设备、存储介质及产品

    公开(公告)号:CN118196685A

    公开(公告)日:2024-06-14

    申请号:CN202410317400.9

    申请日:2024-03-20

    Abstract: 本发明公开了一种技能基元提取方法、装置、设备、存储介质及产品,包括:获取示教数据;其中,示教数据包括操作人员手部的RGB示教视频、深度数据和触觉压力数据;对每一帧示教视频中的手部多关键点进行检测,得到手部多关键点的二维坐标,并根据深度数据将二维坐标转换为三维坐标,得到运动轨迹;根据三维坐标,计算手部多关键点的运动特征;根据运动特征和触觉压力数据,对运动轨迹进行分割,得到视频片段;对视频片段中手部多关键点的运动特征及对应的触觉压力数据进行相似性度量,提取技能基元。采用本发明实施例,能够精准对运动轨迹进行提取和分割,并通过改变相似性度量方式,提高技能基元提取的准确性。

    目标检测模型训练方法、模型性能检测方法及装置

    公开(公告)号:CN113807407B

    公开(公告)日:2023-04-18

    申请号:CN202110984344.0

    申请日:2021-08-25

    Abstract: 本发明公开了一种目标检测模型训练方法,其通过深度强化学习网络实现对区域的对焦,生成目标更容易检测的最优区域,并用所述最优区域生成训练效果更好的混合训练样本,以通过所述混合训练样本训练目标检测模型,其能够使得不同的目标对象能够自适应调整到目标检测模型容易学习的尺度来进行训练,提升了目标检测模型的检测性能。相应地,本发明还提供一种目标检测模型装置、目标检测模型性能检测方法及装置。

    基于场景语义的目标检测方法、装置、设备及存储介质

    公开(公告)号:CN112966697A

    公开(公告)日:2021-06-15

    申请号:CN202110286154.1

    申请日:2021-03-17

    Abstract: 本发明公开了一种基于场景语义的目标检测方法、装置、终端设备及存储介质,该方法包括:构建目标检测模型;将训练图像输入特征图提取网络中,得到多尺度特征图;将多尺度特征图输入场景语义特征提取网络,得到场景语义特征;根据场景语义特征,计算场景预测的多标签分类损失;将多尺度特征图输入候选目标特征提取网络,得到候选目标特征集合;将场景语义特征和候选目标特征集合输入融合网络进行融合,得到新候选目标特征集合;再输入检测头部网络进行分类与回归操作,计算分类损失与回归损失;联合三个损失函数对目标检测模型进行训练;将待测图像输入训练好的目标检测模型中,得到检测结果。本发明能解决目前难以识别具有模糊外观的目标的问题。

    一种应用于机器人交互的多模态数据处理方法

    公开(公告)号:CN113894779B

    公开(公告)日:2023-10-17

    申请号:CN202111066753.9

    申请日:2021-09-10

    Abstract: 本发明公开了一种应用于机器人交互的多模态数据处理方法,其中方法包括获取目标视觉信息数据,并获取目标触觉信息数据;基于多模态数据融合模型对所述目标视觉信息数据和所述目标触觉信息数据进行融合处理,得到融合后的指令信息数据,其中,所述多模态数据融合模型通过对能够反映机器人动作指令的视觉信息样本数据和触觉信息样本数据进行训练得到;识别所述指令信息数据,输出所述指令信息数据至与所述指令信息数据相关联的机器人的动作构件中。本发明实施例提供的应用于机器人交互的多模态数据处理方法,通过对视觉数据和触觉数据进行多模态的融合,提高了数据处理的精度,推进了机器人的智能化进程。

    一种脉搏复现方法、装置、存储介质、终端设备及系统

    公开(公告)号:CN114847889B

    公开(公告)日:2023-07-18

    申请号:CN202210436310.2

    申请日:2022-04-20

    Inventor: 石超 李旭阳

    Abstract: 本发明公开了一种脉搏复现方法、装置、存储介质、终端设备及系统,所述方法包括:获得待复现脉搏信号的N种脉搏频率分量,N≥2;将N种脉搏频率分量映射到N个电机上,以控制N个电机进行往复运动,使得N个电机连接的N个密封腔内的液体压强发生变化,脉搏频率分量与电机一一对应,电机与密封腔一一对应;获取由N个密封腔内的液体压强变化通过液体扩散到仿生手臂的模拟血管中产生的模拟脉搏信号;将待复现脉搏信号与模拟脉搏信号进行时序维度对齐,并计算对齐后的脉搏信号差值;根据脉搏信号差值和预设算法对N个电机的往复运动进行调节,以对模拟脉搏信号进行校准,获得复现脉搏信号,从而能够提高脉搏复现的准确性。

Patent Agency Ranking