一种融合语义信息的激光雷达目标检测方法及系统

    公开(公告)号:CN113128348B

    公开(公告)日:2023-11-24

    申请号:CN202110317542.1

    申请日:2021-03-25

    Abstract: 本发明公开了一种融合语义信息的激光雷达目标检测方法及系统,所述方法包括:对每一时间戳下的图像帧进行语义分割处理,获得语义分割分数;在每一帧点云数据中添加相应摄像机坐标下的图像RGB特征;将添加所述图像RGB特征的所述点云数据投影到分割网络的输出中,并将所述语义分割分数附加到所述点云数据中;对附加所述语义分割分数和所述图像RGB特征的所述点云数据进行基于图卷积的目标分类与3D框回归,获得目标位置框和目标类别。解决了现有技术中存在对目标的特征的检测效果不够准确,进而导致对车辆、行人的目标检测不够准确和高效的技术问题。

    一种基于空间注意的面部表情识别方法和装置

    公开(公告)号:CN110781760B

    公开(公告)日:2022-11-29

    申请号:CN201910935281.2

    申请日:2019-09-29

    Abstract: 本发明公开了一种基于空间注意的面部表情识别方法和装置,通过获得空间注意模块;根据所述空间注意模块,搭建深度特征提取网络;在公开的自然面部表情数据集上训练所述深度特征提取网络,获得人脸表情识别模型;将目标人脸图像输入所述人脸表情识别模型进行识别。解决了现有技术中的面部表情特征提取中对局部细节特征提取不充分的技术问题,达到了在面部表情特征提取时加入了空间注意机制,可以自适应地学习面部特征在空间上权重分配,不仅可以加强面部表情中有鉴别信息区域的权重,还可以降低背景和无关区域的负面影响,提升面部表情识别结果的技术效果。

    基于生成对抗网络的图像去模糊方法

    公开(公告)号:CN111223062A

    公开(公告)日:2020-06-02

    申请号:CN202010018444.3

    申请日:2020-01-08

    Abstract: 本发明公开了一种基于生成对抗网络的图像去模糊方法,主要解决现有技术需要估计模糊核,反卷积迭代求取清晰图像时运行速度缓慢、重建效果差的问题。其实现方案是:1)选择实验数据集,确定与其相关的训练数据集和测试数据集;2)分别构建15层结构的生成网络和6层结构的对抗网络;3)根据对抗损失、像素损失和特征损失构建联合损失函数;4)通过联合损失函数对生成网络和对抗网络进行交互训练,得到生成对抗网络模型;5)将对测试样本输入到生成对抗网络模型中,得到去模糊后的清晰图像。本发明具有无需估计模糊核、去模糊速度快、去模糊效果好的优点,可用于由于相机抖动而拍摄的模糊图像的去模糊处理。

    一种基于空间注意的面部表情识别方法和装置

    公开(公告)号:CN110781760A

    公开(公告)日:2020-02-11

    申请号:CN201910935281.2

    申请日:2019-09-29

    Abstract: 本发明公开了一种基于空间注意的面部表情识别方法和装置,通过获得空间注意模块;根据所述空间注意模块,搭建深度特征提取网络;在公开的自然面部表情数据集上训练所述深度特征提取网络,获得人脸表情识别模型;将目标人脸图像输入所述人脸表情识别模型进行识别。解决了现有技术中的面部表情特征提取中对局部细节特征提取不充分的技术问题,达到了在面部表情特征提取时加入了空间注意机制,可以自适应地学习面部特征在空间上权重分配,不仅可以加强面部表情中有鉴别信息区域的权重,还可以降低背景和无关区域的负面影响,提升面部表情识别结果的技术效果。

    基于深度学习的自然场景证件图像文字识别方法

    公开(公告)号:CN110532855A

    公开(公告)日:2019-12-03

    申请号:CN201910630252.5

    申请日:2019-07-12

    Abstract: 本发明公开了一种基于深度学习的自然场景证件图像文字识别方法,实现的步骤为:(1)构建图像特征提取模块;(2)构建文字前景预测模块;(3)构建文字区域定位模块;(4)组成文字定位网络;(5)构建字符特征提取模块;(6)组成文字识别网络;(7)构建文字定位数据集;(8)构建文字识别数据集;(9)训练文字定位网络;(10)训练文字识别网络;(11)识别证件图像中的文字。本发明克服了现有证件图像文字识别技术对拍摄环境要求苛刻,在复杂场景中识别准确率低的问题,使得本发明能够在任意自然场景下都能精准的识别证件图像中的文字。

    一种AR系统中用于显示检测信息的坐标变换方法

    公开(公告)号:CN110298924A

    公开(公告)日:2019-10-01

    申请号:CN201910394854.5

    申请日:2019-05-13

    Abstract: 本发明公开了一种AR系统中用于显示检测信息的坐标变换方法,包括:确定人眼观测位置与感兴趣目标所在位置;将感兴趣目标真实位置到所述感兴趣目标在AR显示设备上投影所在位置进行坐标变换;将感兴趣目标在AR显示设备上的位置坐标到感兴趣目标在AR投影设备上的坐标进行变换。解决AR系统缺乏位置坐标的精确计算,当虚拟信息与真实信息同时叠加时会有错位等现象,降低虚拟信息真实感的技术问题。达到进行精确的位置坐标变换计算,再结合对观看者眼睛的实时定位技术就可以做到自动调整AR系统的影像显示位置,并且保证在观看者的视野中,AR显示设备上的虚拟投影可以跟真实场景中的目标有精确位置匹配,实现真正的虚拟与现实的无缝融合的技术效果。

    一种基于RGB-D约束的双目图像目标分割方法和装置

    公开(公告)号:CN108830860A

    公开(公告)日:2018-11-16

    申请号:CN201810332846.3

    申请日:2018-04-13

    Abstract: 本发明提供了一种基于RGB-D约束的双目图像目标分割方法和装置,通过获得双目图像的视差信息;获得所述双目图像的颜色数据模型;根据所述视差信息获得视差图的深度数据模型;计算所述双目图像相邻像素点的相似性;获得所述双目图像目标分割的网络流图与能量函数表达式;根据计算所述能量函数的最小解获得所述网络流图的分割结果,其中,所述网络流图的分割结果即所述双目图像的目标分割结果。解决现有技术中双目图像目标分割的准确率较低、实时性差、完整性不太理想的技术问题,实现了减少概率计算的依赖性,增强概率模型的通用性,有助于提升分割的结果,同时考虑像素点的视差信息,利用前景和背景处于不同深度中的特征,提升分割结果的技术效果。

    适于高性能视频编码标准HEVC的变换编码器

    公开(公告)号:CN103369326B

    公开(公告)日:2016-06-29

    申请号:CN201310283390.3

    申请日:2013-07-05

    Abstract: 本发明公开了一种适于高性能视频编码标准HEVC的变换编码器,主要解决现有技术中乘法器使用过多,电路复杂的问题。其包括:一维DCT模块(1)、转置缓冲模块(2)和顶层控制模块(3),其中一维DCT模块(1)采用多个蝶形运算单元与多个奇系数处理单元完成HEVC标准中的各种DCT变换,该奇系数处理单元,通过将复杂的乘法操作分解至多级电路并使用移位器、加法器和减法器实现,即使用多级移位器、加法器和减法器替代矩阵乘法器,以简化电路结构。本发明具有结构简单规整,复用度高,关键路径短,时钟频率高,易于集成的优点,可在不使用乘法器的情况下高效地实现对视频残差数据的变换编码。

    基于凸组合的目标测角定位方法

    公开(公告)号:CN103630874A

    公开(公告)日:2014-03-12

    申请号:CN201310653551.3

    申请日:2013-12-04

    CPC classification number: G01S5/04 G01S5/12

    Abstract: 本发明公开了一种基于凸组合的目标测角定位方法,主要解决现有技术在到达角测量存在误差情况下定位精度与定位效率低的问题。其实现步骤是:1.初始化到达角置信参数和测角噪声系数;2.测量目标定位点与物理基准点之间的到达角度;3.获取目标定位点的可行域,并选取可行域的顶点作为虚拟基准点;4.根据虚拟基准点坐标和物理基准点坐标计算到达角矩阵;5.根据到达角矩阵建立用虚拟基准点的凸组合表示目标定位点的目标函数,优化求解该目标函数得到最优组合系数;6.根据最优组合系数与虚拟基准点坐标,算出目标定位点坐标。本发明仅根据测量的到达角,就能获得比现有技术更高精度和更高效率的定位结果,可用于航空航天的定位。

Patent Agency Ranking