一种基于自监督训练的视频点位跟踪方法

    公开(公告)号:CN112084952B

    公开(公告)日:2023-08-15

    申请号:CN202010946922.7

    申请日:2020-09-10

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于自监督训练的视频点位跟踪方法,包括获取训练数据集;构建神经网络模型提取特征点的位置、描述子并计算keypoint的置信度分数;对神经网络模型进行自监督训练得到训练后的视频网络模型;提取目标视频的特征描述子;对目标视频的前后帧的特征描述子进行匹配和筛选,并构建单应性矩阵;根据目标视频的第一帧所给出的目标点和单应性矩阵得到转换后的目标位置,完成视频点位跟踪。本发明通过构建神经网络并进行训练,得到视频网络模型,并采用视频网络模型对目标视频的目标点进行定位和跟踪,从而实现了目标视频的视频点跟踪,而且跟踪的过程不会产生畸变和变形,可靠性高、实时性好且效果好。

    一种将旋转和平移相解耦的6D位姿估计方法

    公开(公告)号:CN114862951A

    公开(公告)日:2022-08-05

    申请号:CN202210456048.8

    申请日:2022-04-24

    Applicant: 湖南大学

    Abstract: 本发明公开了一种将旋转和平移相解耦的6D位姿估计方法,包括将RGBD图片进行图像分割得到包含目标的点云和RGB图片;分别提取包含目标的点云和RGB图片的特征,并根据特征估计目标的旋转;使用得到的目标的旋转对包含目标的点云进行旋转,得到与相机点云同方向的目标点云,然后估计点云的平移;点云平移为与相机点云同方向的目标点云,和相机点云之间的平移;通过迭代对目标的旋转和点云的平移进行优化,得到最终优化的6D位姿估计结果。本发明设计了一种将目标旋转和平移分开进行估计的网络框架,该框架通过先估计目标旋转,然后通过该旋转进行精确的平移估计,然后往返执行上两步操作以不断提高精度,拟合效果好,准确度高。

    一种曲面阵列式触觉传感器及其工作方法和机械手

    公开(公告)号:CN114636489A

    公开(公告)日:2022-06-17

    申请号:CN202210537071.X

    申请日:2022-05-18

    Applicant: 湖南大学

    Abstract: 一种曲面阵列式触觉传感器及其工作方法和机械手,触觉传感器包括:指尖底座层、中间电路层、表面皮肤层;指尖底座层安装在机械手的手指上;中间电路层包括集成电路板和多个压强感知芯片,集成电路板安装在指尖底座层上,多个压强感知芯片布设在集成电路板上,所述集成电路板上布置有单片机和串口模块,串口模块连接单片机和上位机,每个压强感知芯片均与单片机独立电连接,单片机和上位机电连接;表面皮肤层包裹在中间电路层的表面。本发明提出了一种触觉传感器,将本发明安装在机械手上后,可提升机械手的抓握能力,且每个压强感知芯片均与单片机独立连接,便于信息获取,避免了各压强感知芯片间的信号串扰问题。

    零售货柜商品搜索识别方法、系统及计算机可读存储介质

    公开(公告)号:CN113591811A

    公开(公告)日:2021-11-02

    申请号:CN202111143607.1

    申请日:2021-09-28

    Applicant: 湖南大学

    Abstract: 本发明提供一种零售货柜商品搜索识别方法,对零售货柜顶部相机获取的商品图像进行人工标注获取数据集,将训练集送入模型进行训练,训练过程主要包括特征聚合、Re‑id优先的搜索方法;其次,对模型进行消溶实验并进行微调,以获得最优模型;最终,将得到的最优搜索模型用于零售货柜的商品搜索任务,实现了一种可添加、精度高、速度快的商品搜索识别方法,有效降低了零售货柜的成本,加快相关产业布局。本发明还提供了一种零售货柜商品搜索识别系统及一种计算机可读存储介质。

    面向机器人RGBD视觉感知的6D位姿估计方法及系统

    公开(公告)号:CN113284184A

    公开(公告)日:2021-08-20

    申请号:CN202110565705.8

    申请日:2021-05-24

    Applicant: 湖南大学

    Abstract: 本发明公开了一种面向机器人RGBD视觉感知的6D位姿估计方法,包括获取物体在不同环境和不同光照下的RGBD图片;对得到的RGBD图片进行物体图像分隔;训练分割的物体图像,生成位姿估计模型,对物体进行位姿估计。本发明还提供一种面向机器人RGBD视觉感知的6D位姿估计系统。本发明利用物体图像分割和特征提取进行位姿估计,有效的减少背景对结果的干扰并大大减少计算量,并能够在50ms内快速估计出相机坐标下所有待抓取物体的3D位置和3D旋转,以便做出多样的抓握手势和找出准确的抓取点。

    基于服务的车联网任务卸载方法及其卸载装置

    公开(公告)号:CN111355779B

    公开(公告)日:2021-05-28

    申请号:CN202010099216.3

    申请日:2020-02-18

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于服务的车联网任务卸载方法,包括初始化;缓存服务请求并确定新生成的待处理任务的任务信息;获取服务节点的服务节点信息并将所有已缓存的任务开始调度;获取车辆本身的当前位置和当前速度;确定当前时刻的最小化时间和任务卸载风险优化方程并求解得到任务卸载策略;根据任务卸载策略对车联网任务进行卸载。本发明还提供了实现所述基于服务的车联网任务卸载方法的卸载装置。本发明首次在车联网中实现车辆协同的同时,考虑了任务时延要求和系统效率,因此本发明方法能够减小任务执行时间和降低任务失败的几率,而且可靠性高,实用性好。

    3D目标检测方法及装置
    38.
    发明公开

    公开(公告)号:CN112464905A

    公开(公告)日:2021-03-09

    申请号:CN202011494753.4

    申请日:2020-12-17

    Applicant: 湖南大学

    Abstract: 本发明公开了一种3D目标检测方法,包括获取原始的RGB图像;在RGB图像上进行2D目标检测得到2D边界框和目标类别;利用2D边界框进行分割和重采样得到包含目标的视锥点云数据;利用2D边界框对RGB图像进行裁剪得到目标RGB图像;将目标RGB图像输入到特征提取网络得到RGB深度特征;将视锥点云数据和RGB深度特征输入到分割网络得到分割掩膜并转换为目标点云;将目标点云进行重采样并输入到3D框预测网络得到最终的目标3D边界框。本发明还提供了一种实现所述3D目标检测方法的装置。本发明方法融合了RGB深度特征与视锥点云数据,因此可靠性更高,而且准确性更好。

    一种基于自监督训练的视频点位跟踪方法

    公开(公告)号:CN112084952A

    公开(公告)日:2020-12-15

    申请号:CN202010946922.7

    申请日:2020-09-10

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于自监督训练的视频点位跟踪方法,包括获取训练数据集;构建神经网络模型提取特征点的位置、描述子并计算keypoint的置信度分数;对神经网络模型进行自监督训练得到训练后的视频网络模型;提取目标视频的特征描述子;对目标视频的前后帧的特征描述子进行匹配和筛选,并构建单应性矩阵;根据目标视频的第一帧所给出的目标点和单应性矩阵得到转换后的目标位置,完成视频点位跟踪。本发明通过构建神经网络并进行训练,得到视频网络模型,并采用视频网络模型对目标视频的目标点进行定位和跟踪,从而实现了目标视频的视频点跟踪,而且跟踪的过程不会产生畸变和变形,可靠性高、实时性好且效果好。

    Hadoop平台下基于预释放资源列表的任务调度方法

    公开(公告)号:CN106201681B

    公开(公告)日:2019-04-26

    申请号:CN201610503282.6

    申请日:2016-06-30

    Applicant: 湖南大学

    Abstract: 本发明提出一种Hadoop平台下基于预释放资源列表的任务调度方法,充分利用了Hadoop记录的历史信息和集群当前状况监控信息来更好地帮助资源调度。本方法无需手动设置延迟等待时间。并通过对预释放资源列表中的资源进行预调度,解决了公平性和本地性之间的矛盾。另外,本发明提出的任务调度算法可以像延迟调度算法一样,同时应用于公平调度器和计算能力调度器。本发明的调度算法使用了预释放资源列表,通过资源列表与任务列表的匹配调度,无论在Hadoop完成时间、任务本地性,还是平均作业响应时间方面,都取得了更好的效果。

Patent Agency Ranking