基于生成对抗网络的卫星视频车辆数目估计方法

    公开(公告)号:CN110503049A

    公开(公告)日:2019-11-26

    申请号:CN201910791912.8

    申请日:2019-08-26

    Abstract: 本发明属于属于图像处理与计算机视觉技术领域,特别涉及一种基于生成对抗网络的卫星视频车辆数目估计方法,包括将卫星视频进行抽帧处理,获得原始图像以及原始图像对应的真实标签图像;对原始图像进行分块操作获得子图,将子图以及原始图像分别送入具有相同结构的生成器生成特征图;分别将子图以及原始图像的特征图送入生成对抗网络,获得由子图生成的特征图和由原始图像生成的特征图;计算由子图生成的特征图和由原始图像生成的特征图之间的距离,最小化该距离以获得最优结果,根据最优结果获得车流量密度图;本发明不仅充分利用图像信息,避免了数据缺乏的问题;还利用生成对抗网络将整个网络框架定义为一个回归问题,有效避免了检测困难的问题。

    基于深度轮廓感知的牙齿分割方法、装置及计算机设备

    公开(公告)号:CN110473243B

    公开(公告)日:2021-11-30

    申请号:CN201910733040.X

    申请日:2019-08-09

    Abstract: 本发明属于医学图像处理与计算机视觉技术领域,涉及一种基于深度轮廓感知的牙齿分割方法、装置及计算机设备。所述分割方法包括对数据集中的图片进行预处理操作,将其中的原始掩膜提取出轮廓掩膜,并进行数据膨胀处理从而加粗轮廓;将轮廓掩膜作为监督信息,使原始图像经过全卷积网络,得到轮廓预测概率图;构造U形深度轮廓感知网络;将原始掩膜作为监督信息,使原始图像和轮廓预测概率图融合后经U形深度轮廓感知网络,得到分割网络;将测试集的原始图像送入训练好的U形网络中,得到牙齿分割结果,并用圆盘过滤器使分割结果更加清晰。本发明增加了轮廓信息,使得在牙齿和牙齿周围组织界限不清晰的情况下,提高分割的准确率和分割的视觉效果。

    基于深度轮廓感知的牙齿分割方法、装置及计算机设备

    公开(公告)号:CN110473243A

    公开(公告)日:2019-11-19

    申请号:CN201910733040.X

    申请日:2019-08-09

    Abstract: 本发明属于医学图像处理与计算机视觉技术领域,涉及一种基于深度轮廓感知的牙齿分割方法、装置及计算机设备。所述分割方法包括对数据集中的图片进行预处理操作,将其中的原始掩膜提取出轮廓掩膜,并进行数据膨胀处理从而加粗轮廓;将轮廓掩膜作为监督信息,使原始图像经过全卷积网络,得到轮廓预测概率图;构造U形深度轮廓感知网络;将原始掩膜作为监督信息,使原始图像和轮廓预测概率图融合后经U形深度轮廓感知网络,得到分割网络;将测试集的原始图像送入训练好的U形网络中,得到牙齿分割结果,并用圆盘过滤器使分割结果更加清晰。本发明增加了轮廓信息,使得在牙齿和牙齿周围组织界限不清晰的情况下,提高分割的准确率和分割的视觉效果。

    快速适应新场景的教室姿态检测模型参数训练方法

    公开(公告)号:CN112016506B

    公开(公告)日:2022-10-11

    申请号:CN202010926300.8

    申请日:2020-09-07

    Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置,所述方法包括:将教室姿态检测模型的参数进行随机初始化;将教室姿态检测数据集按场景划分为小目标数据集;随机选取其中n个小目标数据集,复制模型参数并在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失,并计算各个小目标数据集损失的平均值;将平均值用作是模型参数的教室姿态检测模型的损失,利用该损失对模型参数进行梯度下降,得到新的模型参数;本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。

    基于生成对抗网络的卫星视频车辆数目估计方法

    公开(公告)号:CN110503049B

    公开(公告)日:2022-05-03

    申请号:CN201910791912.8

    申请日:2019-08-26

    Abstract: 本发明属于属于图像处理与计算机视觉技术领域,特别涉及一种基于生成对抗网络的卫星视频车辆数目估计方法,包括将卫星视频进行抽帧处理,获得原始图像以及原始图像对应的真实标签图像;对原始图像进行分块操作获得子图,将子图以及原始图像分别送入具有相同结构的生成器生成特征图;分别将子图以及原始图像的特征图送入生成对抗网络,获得由子图生成的特征图和由原始图像生成的特征图;计算由子图生成的特征图和由原始图像生成的特征图之间的距离,最小化该距离以获得最优结果,根据最优结果获得车流量密度图;本发明不仅充分利用图像信息,避免了数据缺乏的问题;还利用生成对抗网络将整个网络框架定义为一个回归问题,有效避免了检测困难的问题。

    一种基于对抗生成网络的红外和可见光图像检索方法

    公开(公告)号:CN110472089B

    公开(公告)日:2022-03-11

    申请号:CN201910758621.9

    申请日:2019-08-16

    Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种基于对抗生成网络的红外和可见光图像检索方法,包括将相同场景下的红外图像和可见光图像固定到同样的大小拼接在一起;将拼接的图像送入对抗生成网络进行训练,获得红外生成图像和可见光生成图像;将拼接的图像送入实例分割网络,计算图像中人的数量以及红外图像与可见光图像中的人数差,根据平均人数差,指定人数差的允许范围;对人数差在允许范围内的红外图像和可见光图像的图像特征进行欧式距离计算,根据欧式距离从小到大排序得到检索结果;本发明克服了红外图像和可见光图像的视觉差异,在仅需要提供场景配对图片的情况下,有效的将具有相同语义的红外图像和可见光图像进行匹配和检索。

    快速适应新场景的教室姿态检测模型参数训练方法

    公开(公告)号:CN112016506A

    公开(公告)日:2020-12-01

    申请号:CN202010926300.8

    申请日:2020-09-07

    Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置,所述方法包括:将教室姿态检测模型的参数进行随机初始化;将教室姿态检测数据集按场景划分为小目标数据集;随机选取其中n个小目标数据集,复制模型参数并在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失,并计算各个小目标数据集损失的平均值;将平均值用作是模型参数的教室姿态检测模型的损失,利用该损失对模型参数进行梯度下降,得到新的模型参数;本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。

    一种基于对抗生成网络的红外和可见光图像检索方法

    公开(公告)号:CN110472089A

    公开(公告)日:2019-11-19

    申请号:CN201910758621.9

    申请日:2019-08-16

    Abstract: 本发明属于图像处理与计算机视觉技术领域,涉及一种基于对抗生成网络的红外和可见光图像检索方法,包括将相同场景下的红外图像和可见光图像固定到同样的大小拼接在一起;将拼接的图像送入对抗生成网络进行训练,获得红外生成图像和可见光生成图像;将拼接的图像送入实例分割网络,计算图像中人的数量以及红外图像与可见光图像中的人数差,根据平均人数差,指定人数差的允许范围;对人数差在允许范围内的红外图像和可见光图像的图像特征进行欧式距离计算,根据欧式距离从小到大排序得到检索结果;本发明克服了红外图像和可见光图像的视觉差异,在仅需要提供场景配对图片的情况下,有效的将具有相同语义的红外图像和可见光图像进行匹配和检索。

Patent Agency Ranking