一种基于联合检测和关联的在线多目标跟踪方法

    公开(公告)号:CN114820723B

    公开(公告)日:2024-09-27

    申请号:CN202210430025.X

    申请日:2022-04-22

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于联合检测和关联的在线多目标跟踪方法,设计了一个端到端架构来联合处理对象检测和在线MOT任务;将目标检测和关联结合到一个单一的神经网络中,为了解决目标检测子模块的输出与关联子模块的输入之间的边界框不一致问题,提出了联合子模块和合适的训练数据生成方法,直接利用目标表示将不同帧中的对象关联起来,同时设计了一个两阶段的训练方法来训练检测子模块和关联子模块,并完全以端到端模式执行在线MOT过程。本发明结构简单高效。

    一种基于双标签学习的人脸表情识别方法

    公开(公告)号:CN114973357B

    公开(公告)日:2024-07-09

    申请号:CN202210494303.8

    申请日:2022-05-07

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于双标签学习的人脸表情识别方法,包括获取训练数据集,生成第二标签,进行预处理;构建初始神经网络模型的骨干网络;采用获取的全部表情图片,进行第一阶段的训练;获取表情图片的分类概率的各个类别概率进行逆序排列,得到第一个逆序分类概率和第二个逆序分类概率,当概率满足设计的高置信度样本选择规则,选择该样本进入下一阶段;进行再标注,若满足标注规则,则修改标签,并进行下一轮的训练;训练结束时,进行测试,得到测试好的最终人脸识别模型,并对当前人脸表情进行识别。本发明提供的双标签学习方法容易训练,能有效的抑制标签噪声对训练的负面影响,并能对复合表情进行识别,可靠性高,有效性好。

    基于特征增强的红外-可见光融合方法、系统及可读存储介质

    公开(公告)号:CN116258934A

    公开(公告)日:2023-06-13

    申请号:CN202310267771.6

    申请日:2023-03-20

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于特征增强的红外‑可见光融合方法,采用双流主干的YOLOv5的特征提取网络,从可见光和红外图像中提取深层特征,通过对称互补掩模减少对单一模态的偏差;针对可见光‑红外图像之间的差异,在融合模块中加入了交叉特征增强模块改进模式内特征表示,以及加入了长距离依赖融合模块,通过关联多模态特征的位置编码来融合增强的特征,能够提高多模态图像的联合利用率以及复杂场景的检测效果。本申请还提供一种基于特征增强的红外‑可见光融合系统及可读存储介质。

    一种基于双标签学习的人脸表情识别方法

    公开(公告)号:CN114973357A

    公开(公告)日:2022-08-30

    申请号:CN202210494303.8

    申请日:2022-05-07

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于双标签学习的人脸表情识别方法,包括获取训练数据集,生成第二标签,进行预处理;构建初始神经网络模型的骨干网络;采用获取的全部表情图片,进行第一阶段的训练;获取表情图片的分类概率的各个类别概率进行逆序排列,得到第一个逆序分类概率和第二个逆序分类概率,当概率满足设计的高置信度样本选择规则,选择该样本进入下一阶段;进行再标注,若满足标注规则,则修改标签,并进行下一轮的训练;训练结束时,进行测试,得到测试好的最终人脸识别模型,并对当前人脸表情进行识别。本发明提供的双标签学习方法容易训练,能有效的抑制标签噪声对训练的负面影响,并能对复合表情进行识别,可靠性高,有效性好。

    一种基于联合检测和关联的在线多目标跟踪方法

    公开(公告)号:CN114820723A

    公开(公告)日:2022-07-29

    申请号:CN202210430025.X

    申请日:2022-04-22

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于联合检测和关联的在线多目标跟踪方法,设计了一个端到端架构来联合处理对象检测和在线MOT任务;将目标检测和关联结合到一个单一的神经网络中,为了解决目标检测子模块的输出与关联子模块的输入之间的边界框不一致问题,提出了联合子模块和合适的训练数据生成方法,直接利用目标表示将不同帧中的对象关联起来,同时设计了一个两阶段的训练方法来训练检测子模块和关联子模块,并完全以端到端模式执行在线MOT过程。本发明结构简单高效。

    一种基于多特征融合的人手轨迹预测与意图识别方法

    公开(公告)号:CN114663982A

    公开(公告)日:2022-06-24

    申请号:CN202210425154.X

    申请日:2022-04-21

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于多特征融合的人手轨迹预测与意图识别方法,包括获取人的脸部和肩部关键点数据;获取手掌轨迹数据;将人的脸部和肩部关键点数据输入支持向量机,得到人脸朝向模态信息;将手掌轨迹数据序列输入到SG滤波器,消除轨迹数据波动,得到平滑的轨迹数据;将两种模态信息进行平行融合,得到多模态融合信息;输入到LSTM网络中,输出手掌的预测轨迹。本发明利用部分人脸部关键点提取人脸朝向特征,进一步将人脸朝向特征与人手臂轨迹数据融合,预测人手臂在空间中的移动轨迹和人手臂最终到达位置,高效准确的预测到了移动轨迹。

    一种基于孪生网络单目标图像跟踪器的模板更新方法

    公开(公告)号:CN114581479A

    公开(公告)日:2022-06-03

    申请号:CN202210266386.5

    申请日:2022-03-17

    Applicant: 湖南大学

    Inventor: 李智勇 张奎

    Abstract: 本发明公开了一种基于孪生网络单目标图像跟踪器的模板更新方法,包括采集图像数据,进行数据裁切,获取训练数据集;构建图像跟踪模型,用于提取特征;将训练数据集输入到图像跟踪模型中进行训练,得到训练后的图像跟踪模型;计算候选模板特征;通过训练后的图像跟踪模型为候选模板特征进行评价,计算更新的模板和下一帧的真值特征之间的欧式距离,并对欧式距离进行排序;选择欧式距离最小的锚框,并对当前图像中选取的目标进行跟踪。本发明利用累计模板的特征,使得物体每帧变化的内容会在累计模板体现,预测下一帧模板比简单的线性插值更加准确。

    基于孪生网络的多模板视觉目标跟踪方法

    公开(公告)号:CN112464900B

    公开(公告)日:2022-04-29

    申请号:CN202011485768.4

    申请日:2020-12-16

    Applicant: 湖南大学

    Inventor: 李智勇 胡晨明

    Abstract: 本发明公开了一种基于孪生网络的视觉目标跟踪方法,包括选择一个现有的孪生网络跟踪器;获取当前的模板池;计算各个模板的可靠性分数并从模板池中筛选出可靠模块集合;计算可靠模块集合中各个模板的匹配性分数并筛选出处理当前帧的最佳模板;采用最佳模板进行视觉目标跟踪。本发明提供的这种基于孪生网络的视觉目标跟踪方法,不需要重新训练网络,只需要进行额外的模板选择即可实现视觉目标跟踪,同时本发明还更新模板来提高跟踪精度;因此本发明方法不仅能够实现更好的跟踪性能,而且易于实施,可靠性高,有效性好。

    一种应用于人机协作的基于各向异性过滤的模板匹配方法

    公开(公告)号:CN113361609B

    公开(公告)日:2022-04-26

    申请号:CN202110643303.5

    申请日:2021-06-09

    Applicant: 湖南大学

    Abstract: 本发明公开了一种应用于人机协作的基于各向异性过滤的模板匹配方法,包括选择模板匹配算法;输入初始模板图片和源图片;根据输入的模板图片,通过各向异性过滤得到若干个层级模板图片集合;采用层级模板图片集合,通过模板匹配算法,计算集合中最佳匹配的层级;选择最佳匹配层级中所有模板图片作为输入,通过模板匹配算法,计算得到最佳匹配模板图片并输出匹配结果。本发明只需要提供一张待识别物体模板的图片,再采用各向异性过滤技术对此模板图片进行处理,自动生成多张各个角度、各种大小的模板图片。在人机协作过程中,能够对人手掌图片进行处理,高效、快捷,并且提高了工业生产的安全性和效率。

Patent Agency Ranking