基于多任务学习的低光照行人检测方法及系统

    公开(公告)号:CN111814595B

    公开(公告)日:2022-05-10

    申请号:CN202010568470.3

    申请日:2020-06-19

    Abstract: 本发明公开了一种基于多任务学习的低光照行人检测方法及系统,包括获取正常、低光照行人数据集;构建光照增强网络,并利用正常、低光照行人数据集进行预训练;构建行人检测网络,利用正常光照行人数据集进行预训练;基于多任务学习,设计一个能够融合不同任务之间特征的多任务学习模块,对两个网络进行特征共享,构建多任务特征共享的低光照行人检测网络;将两个预训练模型导入到该低光照行人检测网络,并利用正常、低光照行人数据集进行训练,得到多任务特征共享的低光照行人检测模型;利用多任务特征共享的低光照行人检测模型对被检测图像进行检测,得到图像中行人的位置。本发明能够准确、高效的在低光照的图像中检测出行人的位置。

    一种目标检测方法
    164.
    发明公开

    公开(公告)号:CN113657225A

    公开(公告)日:2021-11-16

    申请号:CN202110898055.9

    申请日:2021-08-05

    Abstract: 本发明提供一种目标检测方法,包括步骤:提取图像特征生成特征图;将特征图上采样,获得放大特征图;将放大特征图连接到类别预测头、宽高预测头和中心点偏移量预测头;在类别预测头中加入类别注意力网络,挖掘类内和类间的相距较远但语义相关的目标之间的有效信息;通过对真实目标框编码产生监督信息监督各预测头的训练;由各预测头输出的结果在待检测图像中框选识别对象并标记分类结果。本发明结合对目标类别作进一步判断的类别注意力和对边框回归的尺度自适应编码,使得网络在能关联类内和类间的特征,挖掘类内和类间的相距较远但语义相关的目标之间的有效信息的同时,还能根据检测目标的尺度变换进行更精准的框选,提升检测的准度和框选精度。

    多尺度纹理转移残差网络的遥感卫星超分辨率方法及装置

    公开(公告)号:CN112734642A

    公开(公告)日:2021-04-30

    申请号:CN202110035136.6

    申请日:2021-01-12

    Abstract: 本发明公开了一种多尺度纹理转移残差网络的遥感卫星超分辨率方法及装置,属于遥感卫星图像超分辨率领域,该方法包括:将下采样后的目标低分辨率图像通过深度残差网络进行特征提取,对提取出的特征图进行两次上采样操作,使其与原高分辨率卫星图像大小一致;由多尺度残差模块内使用不同卷积的残差块提取特征图特征信息,使用交叉的方式实现特征信息共享,残差模块外使用跳跃连接的方式实现多尺度特征信息融合;通过特征融合来更新目标低分辨率卫星图像的特征图以生成最终的高分辨率卫星图像;利用判别器对生成的高分辨率图像与原始的高分辨率图像进行对比。本发明所提出的网络优于其他最新的遥感卫星图像超分辨率算法,能生成更高质量的卫星图像。

    一种基于孪生网络的针对低分辨率目标的跟踪方法

    公开(公告)号:CN112183675A

    公开(公告)日:2021-01-05

    申请号:CN202011247293.5

    申请日:2020-11-10

    Abstract: 本发明公开了一种基于孪生网络的针对低分辨率目标的跟踪方法,首先直接对多个低分辨率输入视频帧进行特征提取,并进行多维特征通道融合,接着,为了避免网络中产生零梯度而丢失视频的重要信息,采用参数线性纠正单元作为激活函数,采用更小的滤波器尺寸调整网络结构以进行多层映射;最后,在网络末端添加反卷积层上采样得到重建视频帧。通过对多个标注好的视频帧序列进行预处理构建训练样本,构建跟踪孪生网络,定义损失函数并进行训练,得到训练后跟踪孪生网络;组合重建超分视频帧的精简卷积神经网络和跟踪孪生网络,对图像序列进行跟踪,得到相似度分数矩阵,通过矩阵中最大值计算出目标的位置坐标。本发明提高了在低分辨率环境下的跟踪精度。

    基于感知判别增强生成对抗网络的图像去雾方法及装置

    公开(公告)号:CN112150379A

    公开(公告)日:2020-12-29

    申请号:CN202010999372.5

    申请日:2020-09-22

    Abstract: 本发明公开了一种基于感知判别增强生成对抗网络的图像去雾方法及装置,该方法包括:样本采集,使用高清相机获得清晰无雾的图像,然后通过光学模型和深度先验信息合成有雾图像,从而获取有雾和无雾图像对;构建生成网络,将采集到的数据样本分为训练集和测试集,将训练集中的有雾图像输入到生成网络中,生成去雾图像;构建感知判别增强对抗网络,将生成的去雾图像和原始的无雾图像发送到对抗网络中,判别生成的去雾图像的真假;迭代给定的次轮后,得到最优的模型;将测试图像输入到最优的模型中,进行去雾处理。本发明所提出的方法优于其他最新的图像去雾算法,能生成更高质量的无雾图像。

    基于分层多尺度残差融合网络的人脸超分辨率方法及装置

    公开(公告)号:CN111915487A

    公开(公告)日:2020-11-10

    申请号:CN202010771552.8

    申请日:2020-08-04

    Abstract: 本发明公开了一种基于分层多尺度残差融合网络的人脸超分辨率方法及装置,属于人脸图像超分辨率领域,该方法包括:将高分辨率人脸图像下采样至目标低分辨率人脸图像,将目标低分辨率图像进行分块操作,分出相互重叠的图像块后,使用瓶颈注意力模块提取精细的脸部特征图;将提取的精细脸部特征图发送到多尺度残差模块,多尺度残差模块内使用不同卷积层提取特征信息,使用交叉的方式实现特征信息共享,多尺度残差模块外使用跳跃连接的方式实现多尺度特征信息融合,以更有效的提高SR性能;通过特征融合来更新目标低分辨率人脸图像的特征图以产生高分辨率结果。本发明所提出的网络优于其他最新的人脸图像超分辨率算法,能生成更高质量的人脸图像。

    一种工业机器人三维姿态估计方法、装置及存储介质

    公开(公告)号:CN111445519A

    公开(公告)日:2020-07-24

    申请号:CN202010231968.0

    申请日:2020-03-27

    Abstract: 本发明提供一种工业机器人三维姿态估计方法、装置及存储介质,方法包括:通过预设的视觉传感器得到工业机器人的二维图像;对二维图像进行二维姿态估计处理,得到二维姿态矩阵;通过预设的测距传感器得到工业机器人深度信息;根据所述工业机器人深度信息对所述二维姿态矩阵进行世界坐标系转换,得到工业机器人三维姿态矩阵,将所述工业机器人三维姿态矩阵作为工业机器人三维姿态信息。本发明可实时估计并输出工业机器人三维姿态,为基于工业机器人姿态的相关应用提供了有效的技术手段,为工业机器人误动作检测和保障工业机器人安全奠定了技术基础,相较于二维姿态的估计结果,本发明更加准确,在工业机器人误动作检测等应用中可减少误报率。

Patent Agency Ranking