基于逆透视映射和同步学习的在线地图构建方法和系统

    公开(公告)号:CN119559345A

    公开(公告)日:2025-03-04

    申请号:CN202411620948.7

    申请日:2024-11-14

    Applicant: 湖南大学

    Abstract: 本发明涉及基于逆透视映射和同步学习的在线地图构建方法和系统,获取透视图像并预处理,经变换得到多尺度逆透视映射图像,经多尺度条状卷积解码,利用不同方向的条状卷积残差连接,经逐层解码和特征融合,得到全局鸟瞰特征;预处理后透视图像经同步学习序列和语义分割网络得到透视特征;将透视特征转换到鸟瞰坐标系,并与全局鸟瞰特征在空间上对齐,得到增强后的透视特征,通过卷积操作融合全局鸟瞰特征和增强后的透视特征,融合后的特征经解码器输出所构建地图的当前帧。结合逆透视映射和同步学习,融合多帧的鸟瞰特征和透视特征,保留鸟瞰视角下的道路结构,透视补充透视图像中的环境细节。

    一种基于多特征融合的人手轨迹预测与意图识别方法

    公开(公告)号:CN114663982B

    公开(公告)日:2024-06-25

    申请号:CN202210425154.X

    申请日:2022-04-21

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于多特征融合的人手轨迹预测与意图识别方法,包括获取人的脸部和肩部关键点数据;获取手掌轨迹数据;将人的脸部和肩部关键点数据输入支持向量机,得到人脸朝向模态信息;将手掌轨迹数据序列输入到SG滤波器,消除轨迹数据波动,得到平滑的轨迹数据;将两种模态信息进行平行融合,得到多模态融合信息;输入到LSTM网络中,输出手掌的预测轨迹。本发明利用部分人脸部关键点提取人脸朝向特征,进一步将人脸朝向特征与人手臂轨迹数据融合,预测人手臂在空间中的移动轨迹和人手臂最终到达位置,高效准确的预测到了移动轨迹。

    大幅图像小目标检测下的后处理方法、设备及系统

    公开(公告)号:CN116152627A

    公开(公告)日:2023-05-23

    申请号:CN202310107987.6

    申请日:2023-02-13

    Applicant: 湖南大学

    Abstract: 本发明提供了一种大幅图像小目标检测下的后处理方法、设备及系统,方法包括:通过并行的方式循环执行如下步骤,直至遍历所有的特征图数组:S1,读取由NPU推理得到的特征图数组;S2,对所述特征图数组中的特征图按照置信度和类别进行排序;其中,在排序时,采用非递归的归并排序专用电路结构,对于每一个归并步长并行执行排序;S3,采用专用电路结构计算交并比,并根据交并比筛选排序后的特征图数组,获得符合要求的候选目标;S4,传输筛选后的候选目标至NPU。本实施例用多级流水线方法展开,实现特征图中候选框排序算法的并行展开,从而可以优化循环的时序关系,尽量减少循环耗时,提高了后处理速度。

    一种机械手指尖式触觉传感器的标定装置及其标定方法

    公开(公告)号:CN114894379B

    公开(公告)日:2023-03-07

    申请号:CN202210580449.4

    申请日:2022-05-26

    Applicant: 湖南大学

    Abstract: 本发明涉及传感器标定技术领域,具体为一种机械手指尖式触觉传感器的标定装置及其标定方法,所述标定装置包括压力试验机、多轴移动机构、角度调节机构和数据分析模块;压力试验机包括推拉力计和试验平台;多轴移动机构安装在试验平台上,且位于推拉力计的下方;角度调节机构安装在多轴移动机构的活动端上,触觉传感器安装在角度调节机构的活动端上,多轴移动机构和角度调节机构分别用于调节触觉传感器的位置和角度,以使推拉力计的检测端与触觉传感器接触;数据分析模块与触觉传感器电连接;本发明结合触觉传感器的曲面特性,设计了针对曲面标定的基于BP神经网络的标定算法,并提供了一种依据该方法的标定装置。

    3D目标检测方法及装置
    5.
    发明授权

    公开(公告)号:CN112464905B

    公开(公告)日:2022-07-26

    申请号:CN202011494753.4

    申请日:2020-12-17

    Applicant: 湖南大学

    Abstract: 本发明公开了一种3D目标检测方法,包括获取原始的RGB图像;在RGB图像上进行2D目标检测得到2D边界框和目标类别;利用2D边界框进行分割和重采样得到包含目标的视锥点云数据;利用2D边界框对RGB图像进行裁剪得到目标RGB图像;将目标RGB图像输入到特征提取网络得到RGB深度特征;将视锥点云数据和RGB深度特征输入到分割网络得到分割掩膜并转换为目标点云;将目标点云进行重采样并输入到3D框预测网络得到最终的目标3D边界框。本发明还提供了一种实现所述3D目标检测方法的装置。本发明方法融合了RGB深度特征与视锥点云数据,因此可靠性更高,而且准确性更好。

    一种基于线性拟合的目标点云3D边界框拟合方法

    公开(公告)号:CN110728753B

    公开(公告)日:2022-04-15

    申请号:CN201910954492.0

    申请日:2019-10-09

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于线性拟合的目标点云3D边界框拟合方法,包括以下步骤:1)地面点过滤;2)平面检测与分割;3)参照面优化;4)线性拟合;5)3D边界框的确立。本发明首先剔除了目标点云中的地面点,避免地面点对最终拟合结果的影响,使拟合的结果更精确。本发明利用车身侧面获得的激光点在XYO平面上的投影近似直线的特性,得到了与车身长度非常相近的3D边框长度,然后根据车辆相邻面互相垂直的关系,得到3D边界框的矩形底面,最后根据车身高度,得出3D边界框。本发明的计算方法简单,且拟合出的3D边界框与车体真实尺寸非常接近,准确度更高,在自动驾驶领域有很好的应用前景。

    基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质

    公开(公告)号:CN113591810B

    公开(公告)日:2021-12-07

    申请号:CN202111141461.7

    申请日:2021-09-28

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质,涉及遥感图像目标检测技术,考虑到在实际道路交通场景应用环境中,使用垂直框进行车辆密集度检测即目标检测易受到道路环境复杂、车辆密集度高等因素的影响,造成误检、漏检等情况,而使用旋转矩形框进行车辆检测可以改善这一情况,因此,在YOLOv5的网络结构上新增加旋转分支,将多尺度特征和原检测结果转化为带有角度信息的旋转框检测结果,基于原损失函数和旋转分支重新定义了多任务损失函数,在满足实时性的需求下提升检测准确率。

    基于视图交互聚合的矢量地图构建方法和系统

    公开(公告)号:CN119478876A

    公开(公告)日:2025-02-18

    申请号:CN202411690133.6

    申请日:2024-11-25

    Applicant: 湖南大学

    Abstract: 本发明涉及基于视图交互聚合的矢量地图构建方法和系统,获取可见光图像,分别提取可见光图像在像素级坐标系和摄像机坐标系下的特征,通过异步互学习融合模块得到融合特征;融合特征通过关键点预选取模块,得到深度实例特征和几何位置特征,并作为初始参考点;以融合特征,和基于关键点预选取模块得到的关键点查询与实例查询,作为目标检测算法的输入,得到的初始参考点作为目标检测算法额外的提示特征,得到预测的矢量地图元素标签以及所在的位置;预测的矢量地图元素标签以及所在的位置形成单帧的矢量地图,将历史帧中的丰富特征信息与当前帧中的稀疏特征进行聚合,以增强当前帧的稀疏特征,进一步通过检测头得到矢量地图。

    基于红外-可见光图像对的非配准多模态融合的实时目标检测方法

    公开(公告)号:CN119048731A

    公开(公告)日:2024-11-29

    申请号:CN202411050121.7

    申请日:2024-08-01

    Applicant: 湖南大学

    Abstract: 本发明提供一种基于红外‑可见光图像对的非配准跨模态特征交互学习网络的融合检测方法。通过从FLIR数据集与LLVIP数据集选取红外‑可见光图像对进行数据预处理;构建特征提取网络,将预处理后的红外‑可见光图像对输入特征提取网络获取图像特征;构建非配准跨模态特征交互学习网络NRCMFINet,输入图像特征进行训练提取增强特征;构建特征增强拼接模块ESM,输入增强特征进行运算得到多尺度融合特征;最终输出多尺度融合特征。本发明为特征增强拼接模块ESM设计了空间和通道注意力机制,可再次增强NRCMFINet中得到的增强特征,从而带来性能改进,解决多光谱车辆检测数据中弱对齐图像对中的位置移动问题。

Patent Agency Ranking