一种重识别辅助的多阶段视频行人多目标跟踪方法及模型

    公开(公告)号:CN116363579A

    公开(公告)日:2023-06-30

    申请号:CN202310211972.4

    申请日:2023-03-07

    Abstract: 本发明公开了一种重识别辅助的多阶段视频行人多目标跟踪方法及模型,搭建包括作为骨干网络的ResNet50、多层特征聚合模块、包括一个上下文抓取模块和一个注意力引导模块的注意力引导的上下文聚合模块、IDAUP子模块的MSMOT模型,并用其检测得到行人的检测边界框,并提取行人的重识别特征;注意力引导模块包括上下文注意力模块和内容注意力模块,IDAUP子模块输出浅层特征信息和深层特征信息分别作为重识别分支和检测分支的输入,检测分支采用三个并行的Head分别用于估计HeatMap、中心点的偏移以及边界框的尺寸;通过以卡尔曼滤波和匈牙利算法为基础的数据关联算法,依托检测边界框与重识别特征,完成检测边界框与相对应的行人轨迹之间的匹配。

    一种面向动态场景的双目视觉SLAM方法、电子设备和存储介质

    公开(公告)号:CN119169086A

    公开(公告)日:2024-12-20

    申请号:CN202410469578.5

    申请日:2024-04-18

    Abstract: 本发明公开了一种面向动态场景的双目视觉SLAM方法、电子设备和存储介质,针对从双目相机获取的当前帧图像和先前帧图像,所述方法包括以下步骤:获取所述当前帧图像和所述先前帧图像;分别提取当前帧图像的静态特征点和动态特征点、先前帧图像的静态特征点和动态特征点;得到当前帧图像和先前帧图像的位姿;连续跟踪关联物体;输出当前帧图像中所有物体的运动状态;根据当前帧图像中所有物体的运动状态,进行特征点的重过滤;基于更新特征点后的当前帧图像进行定位和建图。本发明充分利用了相机获得的有效信息,能够实现在动态场景下的相机位姿的准确估计和地图建立,具有较强的鲁棒性和稳定性。

    一种自动驾驶场景的多目标跟踪方法、系统、存储介质及终端

    公开(公告)号:CN117132620A

    公开(公告)日:2023-11-28

    申请号:CN202311089704.6

    申请日:2023-08-28

    Abstract: 本发明公开了一种自动驾驶场景的多目标跟踪方法、系统、存储介质及终端,属于自动驾驶领域,包括:对每一帧输入图像进行三维目标检测;将当前的所有三维目标框投影至鸟瞰图,得到检测框;判断历史生成的物体对象是否在视野范围内,将在视野范围内的物体投影至鸟瞰图,得到目标框;计算所述检测框与目标框的交并比;根据所述交并比的计算结果判断物体是否被成功跟踪;剔除被成功跟踪的动态物体内的特征点。本发明将三维目标检测结果投影至鸟瞰图中,建立当前检测物体与历史生成物体的匹配关系,并根据该匹配关系跟踪多目标,同时剔除动态框内特征点,不受动态物体的的干扰,估计准确。

    一种基于聚类的语义雷达生成及建图方法

    公开(公告)号:CN117115493A

    公开(公告)日:2023-11-24

    申请号:CN202311086436.2

    申请日:2023-08-25

    Abstract: 本发明公开了一种基于聚类的语义雷达生成及建图方法,包括以下步骤:获取输入数据;聚类与目标检测;将雷达簇和检测框进行匹配;优化匹配结果;语义雷达生成;双路雷达生成。本发明根据距离聚类,能有效将雷达点根据距离分成不同的类别,实时性高,为后续区分物体和背景做好基础;同时,根据每一簇雷达点与目标框的比例信息能够有效给雷达点赋上语义信息,再根据每一簇落入检测框的雷达计算其相对于框内所有雷达点数量的比例来区分该簇雷达点是物体还是背景;另外,带语义信息的雷达点,只有在视觉范围内观测到了才会做更新避免刚建完的语义物体随着机器人的移动而消失的问题。

Patent Agency Ranking