-
公开(公告)号:CN109583483A
公开(公告)日:2019-04-05
申请号:CN201811347546.9
申请日:2018-11-13
Applicant: 中国科学院计算技术研究所
IPC: G06K9/62
Abstract: 本发明涉及一种基于卷积神经网络的目标检测方法和系统,包括:使用多种尺度的卷积核分别提取待测图片的卷积特征图;使用全连接层调节卷积特征图每一个空间位置的特征向量,得到第一特征图,将其拼接得到拼接特征图,使用全连接层调节拼接特征图每个通道的特征信息,得到第二特征图;为第二特征图的每个空间位置上设定不同尺度和长宽比的锚点框,锚点框的坐标和大小是相对于待测图片的坐标系;将每个锚点框投影到第二特征图上,使用区域特征提取操作提取投影之后锚点框内部的特征,并将框选有物体的锚点框作为目标候选框;使用目标识别网络对目标候选框中的物体进行分类以及回归目标候选框的准确位置和大小。
-
公开(公告)号:CN109168003A
公开(公告)日:2019-01-08
申请号:CN201811024913.1
申请日:2018-09-04
Applicant: 中国科学院计算技术研究所
IPC: H04N19/503 , H04N19/70 , H04N19/44
Abstract: 本发明提供一种训练用于视频预测的生成器模型G的方法,使得使用该模型可以以较少的计算量获得更好的、长时间的视频预测效果。所述生成器模型G中包括采用神经网络模型结构的编码器与解码器,所述编码器与所述解码器之间采用跳变连接,用于生成预测的帧间差ΔX,所述预测的帧间差ΔX与训练样本求和的结果为预测帧 所述方法,包括:1)选择连续的视频帧作为训练样本,并提取训练样本的帧间差;2)将所述帧间差作为生成器模型G中编码器的输入,基于第一损失函数训练获得所述编码器与所述解码器的神经网络权值: 其中,ΔXi-1为与第i个帧间差相关的值,Xi为训练样本中的第i帧,为第i个预测帧,Xi和与所述编码器与所述解码器的神经网络权值相关。
-
公开(公告)号:CN109581338B
公开(公告)日:2021-01-08
申请号:CN201910030941.2
申请日:2019-01-14
Applicant: 中国科学院计算技术研究所
IPC: G01S7/497
Abstract: 本发明公开了一种标定多激光雷达外参数的系统及其方法,该系统包括:数据采集模块,用于通过待标定系统中的激光雷达对标定板进行扫描,获得每一个激光雷达对标定板的扫描结果;坐标变换模块,用于根据扫描结果计算各激光雷达坐标系与标定板坐标系之间的坐标变换关系,并根据该坐标变换关系计算出任意两个激光雷达坐标系之间的坐标变换关系;及坐标变换整合模块,用于对得到的任意两个激光雷达坐标系之间的坐标变换关系进行整合,得到该待标定系统的外参数。该系统获得空间标定点容易,求解过程简单、快速。
-
公开(公告)号:CN107204010A
公开(公告)日:2017-09-26
申请号:CN201710293908.X
申请日:2017-04-28
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及单目图像深度估计方法和系统,包括:构建仅具有特征摄取部分的CNN模型架构,作为特征摄取架构;按所需深度图的分辨率设置多个全连接层;将全连接层连接至特征摄取架构,组成初级估计网络模型;使用训练数据集训练初级估计网络模型,并提取初级估计网络模型各层的特征图;计算特征图和其相应深度图的平均相对局部几何结构误差,并根据平均相对局部几何结构误差生成最终估计模型;使用训练数据集并结合损失函数对最终估计模型进行训练,并用训练完成后的最终估计模型对输入图像进行深度预测。本发明根据平均相对局部几何结构误差并基于损失函数训练CNN,进而提高CNN回归深度图像的精度与清晰度,生成的深度图保留了更多场景的几何结构特征。
-
公开(公告)号:CN110021046B
公开(公告)日:2021-11-19
申请号:CN201910164594.2
申请日:2019-03-05
Applicant: 中国科学院计算技术研究所
IPC: G06T7/80
Abstract: 本发明涉及一种相机与激光雷达组合传感器的外参数标定方法,包括:将该组合传感器对准一个标定装置,进行一次扫描,获得该标定装置在激光雷达坐标系中的第一坐标、在图像坐标系中的第二坐标和在相机坐标系中的第三坐标;通过该第一坐标和该第二坐标,获取标定装置坐标系至该激光雷达坐标系的第一变换矩阵;通过第三坐标和该第二坐标,获取该相机坐标系至该标定装置坐标系的第二变换矩阵;通过该第一变换矩阵和该第二变换矩阵,获得该相机坐标系至该激光雷达坐标系的外参数矩阵。本发明操作简便、计算简单,标定设备易获得,提高了结果的精度和方法的可优化性。
-
公开(公告)号:CN107204010B
公开(公告)日:2019-11-19
申请号:CN201710293908.X
申请日:2017-04-28
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及单目图像深度估计方法和系统,包括:构建仅具有特征摄取部分的CNN模型架构,作为特征摄取架构;按所需深度图的分辨率设置多个全连接层;将全连接层连接至特征摄取架构,组成初级估计网络模型;使用训练数据集训练初级估计网络模型,并提取初级估计网络模型各层的特征图;计算特征图和其相应深度图的平均相对局部几何结构误差,并根据平均相对局部几何结构误差生成最终估计模型;使用训练数据集并结合损失函数对最终估计模型进行训练,并用训练完成后的最终估计模型对输入图像进行深度预测。本发明根据平均相对局部几何结构误差并基于损失函数训练CNN,进而提高CNN回归深度图像的精度与清晰度,生成的深度图保留了更多场景的几何结构特征。
-
公开(公告)号:CN109581338A
公开(公告)日:2019-04-05
申请号:CN201910030941.2
申请日:2019-01-14
Applicant: 中国科学院计算技术研究所
IPC: G01S7/497
Abstract: 本发明公开了一种标定多激光雷达外参数的系统及其方法,该系统包括:数据采集模块,用于通过待标定系统中的激光雷达对标定板进行扫描,获得每一个激光雷达对标定板的扫描结果;坐标变换模块,用于根据扫描结果计算各激光雷达坐标系与标定板坐标系之间的坐标变换关系,并根据该坐标变换关系计算出任意两个激光雷达坐标系之间的坐标变换关系;及坐标变换整合模块,用于对得到的任意两个激光雷达坐标系之间的坐标变换关系进行整合,得到该待标定系统的外参数。该系统获得空间标定点容易,求解过程简单、快速。
-
公开(公告)号:CN109168003B
公开(公告)日:2020-11-03
申请号:CN201811024913.1
申请日:2018-09-04
Applicant: 中国科学院计算技术研究所
IPC: H04N19/503 , H04N19/70 , H04N19/44
Abstract: 本发明提供一种训练用于视频预测的生成器模型G的方法,使得使用该模型可以以较少的计算量获得更好的、长时间的视频预测效果。所述生成器模型G中包括采用神经网络模型结构的编码器与解码器,所述编码器与所述解码器之间采用跳变连接,用于生成预测的帧间差ΔX,所述预测的帧间差ΔX与训练样本求和的结果为预测帧所述方法,包括:1)选择连续的视频帧作为训练样本,并提取训练样本的帧间差;2)将所述帧间差作为生成器模型G中编码器的输入,基于第一损失函数训练获得所述编码器与所述解码器的神经网络权值:其中,ΔXi‑1为与第i个帧间差相关的值,Xi为训练样本中的第i帧,为第i个预测帧,Xi和与所述编码器与所述解码器的神经网络权值相关。
-
公开(公告)号:CN109447923A
公开(公告)日:2019-03-08
申请号:CN201811129666.1
申请日:2018-09-27
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种语义场景补全方法和系统,包括:获取已标注的彩色图像和深度图像,作为训练数据,其中彩色图像和深度图像已标注语义分割标签和语义场景补全标签;使用训练数据训练卷积神经网络,得到语义分割模型和语义场景补全模型,将待语义场景补全的待补全图像输入至语义分割模型,得到语义分割结果;根据拍摄彩色图像的相机参数和深度图像,得到彩色图像中像素和深度图像中体素的映射关系,根据映射关系将语义分割结果投影到三维空间,得到待补全图像的语义场景表面;对语义场景表面进行离散化处理后输入至语义场景补全模型,得到待补全图像的三维结构和待补全图像中物体的类别,输出三维结构和类别作为待补全图像的语义场景补全结果。
-
公开(公告)号:CN109583483B
公开(公告)日:2020-12-11
申请号:CN201811347546.9
申请日:2018-11-13
Applicant: 中国科学院计算技术研究所
IPC: G06K9/62
Abstract: 本发明涉及一种基于卷积神经网络的目标检测方法和系统,包括:使用多种尺度的卷积核分别提取待测图片的卷积特征图;使用全连接层调节卷积特征图每一个空间位置的特征向量,得到第一特征图,将其拼接得到拼接特征图,使用全连接层调节拼接特征图每个通道的特征信息,得到第二特征图;为第二特征图的每个空间位置上设定不同尺度和长宽比的锚点框,锚点框的坐标和大小是相对于待测图片的坐标系;将每个锚点框投影到第二特征图上,使用区域特征提取操作提取投影之后锚点框内部的特征,并将框选有物体的锚点框作为目标候选框;使用目标识别网络对目标候选框中的物体进行分类以及回归目标候选框的准确位置和大小。
-
-
-
-
-
-
-
-
-