一种基于2D-3D坐标匹配策略的行人检测与姿态估计方法

    公开(公告)号:CN116311514A

    公开(公告)日:2023-06-23

    申请号:CN202310243337.4

    申请日:2023-03-14

    Applicant: 同济大学

    Inventor: 田炜 高众 艾文瑾

    Abstract: 本发明涉及一种基于2D‑3D坐标匹配策略的行人检测与姿态估计方法,将包含多人的待检测图像作为输入图像,输入预先构建并训练的检测网络中,输出行人检测及2D人体姿态估计结果;检测网络包括:主干网络:用以输出多个不同尺度的第一特征图;信息恢复分支:用以进行多次上采样,生成多个不同尺度的第二特征图;检测器:用以执行检测任务,输出单人检测框和单人关键点坐标;2D预测分支:用以根据所有第二特征图以及单人检测框,输出2D人体表征参数;矫正优化模块:用以对2D预测分支输出的2D人体表征参数进行优化,输出最终的2D人体姿态坐标点。与现有技术相比,本发明能够矫正关键点坐标,进而缓解现有技术2D姿态估计中错匹配的问题,提高检测效率。

    一种基于行人姿态估计的多帧轨迹跟踪系统及其方法

    公开(公告)号:CN116109673A

    公开(公告)日:2023-05-12

    申请号:CN202310095186.2

    申请日:2023-01-20

    Applicant: 同济大学

    Inventor: 田炜 高众 艾文瑾

    Abstract: 本发明涉及一种基于行人姿态估计的多帧轨迹跟踪系统及其方法,该系统基于Tracking by Object Detection跟踪框架实现,在单帧object detection的基础上增加pose detection,同时将pose的信息引入tracking,以通过目标及其姿态检测范式进行跟踪;该方法包括:将单帧图像经过特征提取后输入检测器,输出检测置信度和检测框的坐标;分别对不同检测框中的行人进行姿态预测;根据视频第一帧图像的相应单帧模型输出数据初始化跟踪器;在基于检测框的匹配和基于姿态信息的匹配的基础上,基于检测器的参考点进行跟踪优化,利用姿态的相关判断和检测器的参考点在两帧图像之间建立目标关联。与现有技术相比,本发明能够优化整体跟踪效果,提高在具有遮挡和运动的场景下的检测和关联性能,有效提高跟踪效果。

    一种人体姿态估计方法、电子设备及介质

    公开(公告)号:CN115083013A

    公开(公告)日:2022-09-20

    申请号:CN202210579335.8

    申请日:2022-05-25

    Applicant: 同济大学

    Abstract: 本发明涉及一种人体姿态估计方法,包括以下步骤:S1:获取多张待识别图像和每张待识别图像所对应的标注信息,将待识别图像分为训练集图像和测试集图像,根据测试集图像以及测试集图像所对应的标注信息获取热力图;S2:将训练集图像和训练集图像所对应的标注信息输入训练好的人体关键点检测模型,获取尺度因子;S3:根据尺度因子修正S1获取的热力图,然后根据修正后的热力图获取待识别图像中所有关键点的位置;S4:采用训练好的生成对抗网络模型对S3中所有关键点进行分组组合,获取待识别图像中所有人物的人体姿态信息图。与现有技术相比,本发明能够高效提升多尺度实例的关键点检测以及关键点组合。

    一种面向地库泊车的鲁棒视觉特征匹配和检测方法

    公开(公告)号:CN114782913A

    公开(公告)日:2022-07-22

    申请号:CN202210303258.3

    申请日:2022-03-24

    Applicant: 同济大学

    Abstract: 本发明涉及一种面向地库泊车的鲁棒视觉特征匹配和检测方法,包括:采集原始RGB图像对特征点检测深度学习模型进行离线训练,得到训练好的特征点检测模型;将待测的数据输入特征点检测深度学习模型,进行特征点检测,得到对应的特征点检测结果;将待测RGB图像与真值标签输入库位检测深度学习模型进行离线训练,得到训练好的库位检测模型;将待测RGB图像输入库位检测深度学习模型,进行库位检测,得到对应的库位检测结果;将特征点检测结果与库位检测结果进行匹配,得到匹配结果。与现有技术相比,本发明能够在光照昏暗或纹理不明显的情况下检测特征点,从而实现精度较高的定位及建图,进而协助车辆完成自动泊车。

    一种基于多传感器融合的无锚框3D目标检测方法

    公开(公告)号:CN114118247A

    公开(公告)日:2022-03-01

    申请号:CN202111384455.4

    申请日:2021-11-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多传感器融合的无锚框3D目标检测方法,包括:获取彩色RGB图像和激光点云;对彩色RGB图像进行语义分割,得到各像素的类别信息;利用类别信息对激光点云的特征进行增强,得到增强激光点云;对增强激光点云分别进行点云几何特征编码、点云可见性特征编码,得到几何特征和可见性特征;将几何特征与可见性特征进行堆叠,得到堆叠特征;将堆叠特征输入多层特征提取网络,提取不同层级的特征信息,再将各层级的特征信息进行堆叠,得到融合特征;将融合特征输出给无锚框目标检测器,以得到3D目标检测结果。与现有技术相比,本发明通过多模态数据的融合,利用传感器之间的优势互补来增强3D目标检测性能,从而实现准确快速检测的目的。

    一种基于不确定性估计的车辆轨迹预测方法

    公开(公告)号:CN114005280A

    公开(公告)日:2022-02-01

    申请号:CN202111360841.X

    申请日:2021-11-17

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于不确定性估计的车辆轨迹预测方法,包括:实时采集周围车辆的位姿信息和局部语义地图信息,并得到车辆历史位姿信息;根据采集的车辆位置信息,结合高精地图、车道连通关系以及交通规则,确定出未来轨迹终点的所有候选车道;根据车辆位姿和局部语义地图评估车辆历史位姿的不确定性;将车辆历史位姿转换至各车道坐标系下,结合车道走向等信息进行特征编码,预测车辆行驶终点在各候选车道上的概率;根据特征编码预测目标车辆的未来行驶路线的概率分布。与现有技术相比,本发明解决了现有技术中忽视输入车辆历史位姿不确定性和轨迹多模态建模不完整的问题,能够为自动驾驶的下游决策规划提供准确可靠的信息来源、降低风险。

    一种用于融合红外和RGB信息的相机标定方法

    公开(公告)号:CN113870362A

    公开(公告)日:2021-12-31

    申请号:CN202111152944.7

    申请日:2021-09-29

    Applicant: 同济大学

    Abstract: 本发明涉及一种用于融合红外和RGB信息的相机标定方法,包括底座、红外相机、RGB相机、分束器和标定板,红外相机通过第二三轴相机夹具设置在底座上,RGB相机通过第一三轴相机夹具设置在底座上,分束器通过分束器夹具设置在底座上,标定板为双色棋盘,双色棋盘上两种颜色的棋盘格上分别覆盖有高导热性材料和低导热性材料;分束器包括透镜,透镜的前、后表面分别镀有红外增透膜和可见光反射膜。与现有技术相比,本发明对红外相机和RGB相机进行联合标定,能直接采集实现空间对齐的红外和RGB图像对,避免视差导致的对齐图像出现空洞,促进红外和RGB信息融合的相关工作。

Patent Agency Ranking