-
公开(公告)号:CN113128308B
公开(公告)日:2022-05-20
申请号:CN202010027137.1
申请日:2020-01-10
Applicant: 中南大学
Abstract: 本发明公开了一种港口场景下的行人检测方法、装置、设备及介质,其方法为:获取若干已知行人框的预处理图像,计算行人框中心在行人检测网络输出端的映射值;在行人检测网络的所有预测框中,选择与映射值匹配的预测框为正样本,其余预测框为负样本;以预处理图像作为输入、预测框的标签值作为学习目标,训练行人检测网络,得到行人检测系统;计算负样本预测框与预处理图像中所有行人框的交并比,若最大值大于0.5,则该负样本不参与训练;将待检测的预处理图像输入到行人检测系统,提取检测框;去掉行人置信度低于阈值的检测框以及重叠框,剩余的检测框即为待检测的行人框。本发明可解决目前检测方法中需要人为设计anchor的问题。
-
公开(公告)号:CN112822633B
公开(公告)日:2021-12-14
申请号:CN202110234144.3
申请日:2021-03-03
Applicant: 中南大学
Abstract: 本发明公开了一种基于误差补偿的定位方法、系统、终端设备及可读存储介质,该方法包括如下步骤:S1:获取锚点的坐标信息以及锚点与定位节点的角度信息;S2:基于步骤S1获取的锚点的坐标信息以及角度信息采用最小二乘法计算出状态矩阵A和B;S3:利用步骤S2的状态矩阵A和B构造辅助公式计算出带有误差补偿的定位节点的二维精确解;S4:基于三维空间结构利用步骤S3获得的二维精确解得到定位节点的另一维精确解,进而得到定位节点的三维精确解。本发明所述方法通过获取的角度和距离信息进行方差的补偿处理,实现室内三维空间的目标定位,有效的提高了目标定位精度。
-
公开(公告)号:CN114234982B
公开(公告)日:2024-04-16
申请号:CN202111562286.9
申请日:2021-12-20
Applicant: 中南大学
Abstract: 本公开实施例中提供了一种基于方位角定位的三维轨迹规划方法、系统、设备及介质,属于控制技术领域,具体包括:获取位置信息以及角度信息;利用极大似然函数计算定位点的估计位置;根据估计位置,最大化FIM行列式作为求解下一时刻所述角度传感器位置的目标函数,并在目标函数中添加多个约束条件后求解目标传感器在下一时刻的最佳位置;在获取最佳位置后,更新位置信息和角度信息并计算下一相邻时刻的最佳位置直到角度传感器满足最大采样次数,输出轨迹数据。通过本公开的方案,利用过去所有时刻的传感器位置信息,有效地估计定位点位置,并在三维空间中添加必要约束的前提下规划传感器的运动轨迹,提高了轨迹规划方法的效率、精准度和适应性。
-
公开(公告)号:CN114234982A
公开(公告)日:2022-03-25
申请号:CN202111562286.9
申请日:2021-12-20
Applicant: 中南大学
Abstract: 本公开实施例中提供了一种基于方位角定位的三维轨迹规划方法、系统、设备及介质,属于控制技术领域,具体包括:获取位置信息以及角度信息;利用极大似然函数计算定位点的估计位置;根据估计位置,最大化FIM行列式作为求解下一时刻所述角度传感器位置的目标函数,并在目标函数中添加多个约束条件后求解目标传感器在下一时刻的最佳位置;在获取最佳位置后,更新位置信息和角度信息并计算下一相邻时刻的最佳位置直到角度传感器满足最大采样次数,输出轨迹数据。通过本公开的方案,利用过去所有时刻的传感器位置信息,有效地估计定位点位置,并在三维空间中添加必要约束的前提下规划传感器的运动轨迹,提高了轨迹规划方法的效率、精准度和适应性。
-
公开(公告)号:CN112836354B
公开(公告)日:2022-08-30
申请号:CN202110038824.8
申请日:2021-01-12
Applicant: 中南大学
IPC: G06F30/20 , G06K9/62 , G06F111/04 , G06F111/08
Abstract: 本发明公开了一种目标跟踪定位方法、系统、装置及可读存储介质,所述方法包括:构建目标的运动模型,并获取目标的跟踪初始状态;其中,所述运动模型包括约束条件、目标的状态更新方程以及目标的测量更新方程;利用有所述约束条件的卡尔曼滤波器对目标进行跟踪定位;其中,利用卡尔曼滤波器进行跟踪得到目标的状态估计值,再基于概率密度函数截断法对目标的状态估计值进行约束得到有约束下的目标状态估计值,实现目标跟踪。本发明利用所述方法可以实现利用道路约束信息来提高机动目标的跟踪精度。
-
公开(公告)号:CN113128308A
公开(公告)日:2021-07-16
申请号:CN202010027137.1
申请日:2020-01-10
Applicant: 中南大学
Abstract: 本发明公开了一种港口场景下的行人检测方法、装置、设备及介质,其方法为:获取若干已知行人框的预处理图像,计算行人框中心在行人检测网络输出端的映射值;在行人检测网络的所有预测框中,选择与映射值匹配的预测框为正样本,其余预测框为负样本;以预处理图像作为输入、预测框的标签值作为学习目标,训练行人检测网络,得到行人检测系统;计算负样本预测框与预处理图像中所有行人框的交并比,若最大值大于0.5,则该负样本不参与训练;将待检测的预处理图像输入到行人检测系统,提取检测框;去掉行人置信度低于阈值的检测框以及重叠框,剩余的检测框即为待检测的行人框。本发明可解决目前检测方法中需要人为设计anchor的问题。
-
公开(公告)号:CN109559576B
公开(公告)日:2020-07-28
申请号:CN201811367002.9
申请日:2018-11-16
Applicant: 中南大学
Abstract: 本发明公开了一种儿童伴学机器人及其早教系统自学习方法,自学习方法包括:步骤A10,训练卷积神经网络;步骤A20,采用卷积神经网络对输入的图像提取特征向量;步骤A30,采用乘积量化技术对特征向量分组量化;步骤A40,根据Imagenet数据集生成基准字母表;步骤A50,获取未知的新事物的图像和类别,提取新事物图像的特征向量并分组量化,并在基准字母表中查找匹配的新事物字符串;在联想记忆模型中将新事物字符串与类别匹配连接,实现将新事物学习到早教系统中;步骤A60,获取待识别事物的图像,早教系统识别得到待识别事物的类别。本发明可以实现与儿童一起学习新知识,共同竞赛,提高儿童学习的乐趣。
-
公开(公告)号:CN109559576A
公开(公告)日:2019-04-02
申请号:CN201811367002.9
申请日:2018-11-16
Applicant: 中南大学
CPC classification number: G09B5/065 , G06N3/0454
Abstract: 本发明公开了一种儿童伴学机器人及其早教系统自学习方法,自学习方法包括:步骤A10,训练卷积神经网络;步骤A20,采用卷积神经网络对输入的图像提取特征向量;步骤A30,采用乘积量化技术对特征向量分组量化;步骤A40,根据Imagenet数据集生成基准字母表;步骤A50,获取未知的新事物的图像和类别,提取新事物图像的特征向量并分组量化,并在基准字母表中查找匹配的新事物字符串;在联想记忆模型中将新事物字符串与类别匹配连接,实现将新事物学习到早教系统中;步骤A60,获取待识别事物的图像,早教系统识别得到待识别事物的类别。本发明可以实现与儿童一起学习新知识,共同竞赛,提高儿童学习的乐趣。
-
公开(公告)号:CN115082675A
公开(公告)日:2022-09-20
申请号:CN202210633162.3
申请日:2022-06-07
Applicant: 中南大学
Abstract: 本发明公开了一种透明物体图像分割方法,包括以下步骤:S1:建立含有高分辨率分支和低分辨率分支的双分辨率特征提取模块,得到高分辨率特征图和多尺度融合的低分辨特征图;S2:利用差分边界注意力模块对S1中提取到的不同维度的特征图分别进行差分卷积和空间注意力操作,提取多尺度的边缘特征图并进行融合;S3:利用区域注意力模块对高分辨率特征图和多尺度融合的低分辨特征图进行类别层面的上下文关系建模,得到像素‑区域增强特征图;融合高分辨率特征图、多尺度的边缘特征图和像素‑区域增强特征图,经过特征降维后得到最终的透明物体分割结果,有效解决透明物体因环境、遮挡等因素造成语义信息缺失的情况。
-
公开(公告)号:CN115082675B
公开(公告)日:2024-06-04
申请号:CN202210633162.3
申请日:2022-06-07
Applicant: 中南大学
IPC: G06V10/26 , G06V10/44 , G06V10/82 , G06T3/4007 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明公开了一种透明物体图像分割方法,包括以下步骤:S1:建立含有高分辨率分支和低分辨率分支的双分辨率特征提取模块,得到高分辨率特征图和多尺度融合的低分辨特征图;S2:利用差分边界注意力模块对S1中提取到的不同维度的特征图分别进行差分卷积和空间注意力操作,提取多尺度的边缘特征图并进行融合;S3:利用区域注意力模块对高分辨率特征图和多尺度融合的低分辨特征图进行类别层面的上下文关系建模,得到像素‑区域增强特征图;融合高分辨率特征图、多尺度的边缘特征图和像素‑区域增强特征图,经过特征降维后得到最终的透明物体分割结果,有效解决透明物体因环境、遮挡等因素造成语义信息缺失的情况。
-
-
-
-
-
-
-
-
-