一种基于深度学习的全景分割方法

    公开(公告)号:CN113096136A

    公开(公告)日:2021-07-09

    申请号:CN202110337987.6

    申请日:2021-03-30

    Abstract: 本发明公开了一种基于深度学习的全景分割技术。该发明在全景分割方向上具有一定的通用性与泛化能力。在全景分割中子网络之间即存在着较大的差异性,又存在着紧密的联系。一方面语义分割应用于图像背景类别的像素分割,其更关注场景的语义信息;而实例分割注重图像中个体实例的分割,在特征上关注于图像的结构信息。因此本发明根据子网络特点设计相应的注意力模块,使子网络能更好的关注于各自的分割对象。另一方面,图像中背景于前景往往具有丰富的语义关系,合理应用背景与前景的上下文语义能够更好的促进子网络的分割。因此本发明设计语义辅助实例分割模块,使子网络间的特征信息能够更好的交流,达到相互促进的效果。本发明的方法具有良好的通用性,能够很好的运用在各种全景分割网络中。

    一种基于实例分割的行人属性识别方法

    公开(公告)号:CN113033428A

    公开(公告)日:2021-06-25

    申请号:CN202110339871.6

    申请日:2021-03-30

    Abstract: 本发明属于图像处理领域,具体为一种基于实例分割的行人属性识别方法。大多数行人属性识别算法都会将图像中的背景信息包含进来,并将背景信息一起进行识别。然而这些背景信息对于属性识别来说具有一定的影响性。因此本发明使用YOLACT算法对行人属性识别过程中的背景信息进行抑制处理。首先针对背景噪声问题,本发明采用YOLACT算法进行背景抑制处理,并得到了很好的效果;另外本发明提出将不同大小的特征图拼接后再进行多任务网络预测的方法提高识别准确度;最后为了平衡多任务训练过程中不同任务具有不同的训练速度,本发明提出了梯度权重损失函数很好的解决了该问题。

    一种基于改进的RetinaNet小目标检测方法

    公开(公告)号:CN113159063B

    公开(公告)日:2022-11-18

    申请号:CN202110344831.0

    申请日:2021-03-30

    Abstract: 本发明公开了一种基于改进RetinaNet的小目标检测技术。该发明在许多基于深度学习的目标检测模型都具有一定的实用性,该专利以行人与车辆检测为说明案例。行人与车辆的检测在计算机视觉的实际较为广泛,且两类目标都呈现出目标尺寸下、检测场景复杂的特点。针对检测场景复杂的问题,在RetinaNet模型结构中的FPN加入了多层融合模块,多层融合可以一定程度解决特征金字塔结构中顶层语义信息被稀释的问题;针对小目标的问题,由于多尺度检测中小目标在特征层的选择灵活性较低,较大程度上依赖金字塔底层的细节信息,利用超分辨SR技术对底层特征信息进行补偿,使底层的细节信息和纹理信息等更加丰富。基于改进后的RetinaNet算法模型能够精准识别小尺寸目标,且模型也取得较高检测精度。

    一种基于语义流的全景分割方法

    公开(公告)号:CN113052858A

    公开(公告)日:2021-06-29

    申请号:CN202110307902.X

    申请日:2021-03-23

    Abstract: 本发明公开了一种基于语义流的全景分割技术。该发明在全景分割方向上具有一定的通用性与泛化能力。在全景分割中高层语义与高分辨率之间存在着矛盾。通常全景分割中采用简单的双线性插值方法对特征图反卷积‑上采样将高层特征与低层特征相融合。但是这种操作存在特征不对齐的缺点。本发明通过引入语义流的方法使全景分割过程中的特征图能够更好的对齐,从而提升全景分割的准确性,该方法具有很好的泛化能力,能够方便的迁移到其他全景分割网络中。

    一种基于YOLACT实例分割的改进方法

    公开(公告)号:CN113160263A

    公开(公告)日:2021-07-23

    申请号:CN202110341105.3

    申请日:2021-03-30

    Abstract: 本发明属于图像实例分割领域,具体涉及一种基于YOLACT实例分割的改进方法。随着目标检测和语义分割任务的发展,作为两者任务的结合体实例分割任务也越来越多的受到研究者们的关注,但目前为止实例分割任务依然没有达到令人满意的效果。实例分割任务主要受限于两个评价指标:精度和时间复杂度。虽然YOLACT实例分割算法达到了实时性,但精度却达不到一个较好的水平。因此本文对YOLACT算法进行了相应改进,提高的网络的精度。综合考虑准确性和实时性本发明都具备了较好的效果。

    一种基于单目视觉的无监督深度估计方法

    公开(公告)号:CN112465888A

    公开(公告)日:2021-03-09

    申请号:CN202011275547.4

    申请日:2020-11-16

    Abstract: 本发明属于图像深度估计技术领域,具体涉及一种单目图像深度估计方法。近年来有监督深度学习的方法已经证明了神经网络在单目视图深度估计中的结果。然而,有监督的深度学习需要大量的深度真值数据进行训练,以达到较高的准确性,而在一系列环境中采集记录深度数据是一件很困难的事。这些数据的获取通常要求昂贵的硬件和精确的采集。同时,各类深度传感器也有自己的误差和噪声特性。在制作深度图像数据集时,由于各种各样的外部条件干扰,例如光照、天气变化等,深度传感器不等得到可靠而又准确的图像深度信息,这可能会给深度估计模型估计出结果的精度带来影响。

    一种基于改进的Faster R-CNN小目标检测方法

    公开(公告)号:CN112465752A

    公开(公告)日:2021-03-09

    申请号:CN202011275521.X

    申请日:2020-11-16

    Abstract: 本发明公开了一种基于改进的Faster R‑CNN的小目标识别技术。该发明在小目标检测方向上具有一定的通用性,该专利以布匹缺陷检测为说明案例。布匹缺陷中存在大量的小目标缺陷以及极端长宽比缺陷。针对小目标问题,在Faster R‑CNN中加入了特征金字塔融合的多尺度检测,多尺度检测算法对于小目标检测具有一定的通用性和可移植性;针对极端长宽比的问题,需要通过对实际布匹缺陷数据集的长宽比和面积进行初步统计,然后在算法框架中进行聚类,对Faster R‑CNN锚框大小通过K‑means++的方法进行重新设定。基于改进后的Faster R‑CNN算法模型能够精准的识别布匹缺陷,且对于小目标缺陷和极端长宽比缺陷也能够取得较好的识别效果。

    一种基于改进的RetinaNet小目标检测方法

    公开(公告)号:CN113159063A

    公开(公告)日:2021-07-23

    申请号:CN202110344831.0

    申请日:2021-03-30

    Abstract: 本发明公开了一种基于改进RetinaNet的小目标检测技术。该发明在许多基于深度学习的目标检测模型都具有一定的实用性,该专利以行人与车辆检测为说明案例。行人与车辆的检测在计算机视觉的实际较为广泛,且两类目标都呈现出目标尺寸下、检测场景复杂的特点。针对检测场景复杂的问题,在RetinaNet模型结构中的FPN加入了多层融合模块,多层融合可以一定程度解决特征金字塔结构中顶层语义信息被稀释的问题;针对小目标的问题,由于多尺度检测中小目标在特征层的选择灵活性较低,较大程度上依赖金字塔底层的细节信息,利用超分辨SR技术对底层特征信息进行补偿,使底层的细节信息和纹理信息等更加丰富。基于改进后的RetinaNet算法模型能够精准识别小尺寸目标,且模型也取得较高检测精度。

Patent Agency Ranking