-
公开(公告)号:CN114972107B
公开(公告)日:2024-07-26
申请号:CN202210663857.6
申请日:2022-06-14
Applicant: 福州大学
IPC: G06T5/92 , G06T5/50 , G06T7/00 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种基于多尺度堆叠式注意力网络的低照度图像增强方法,包括以下步骤:步骤A:对原始低照度图像和正常照度图像的训练图像对进行预处理,得到原始低照度图像和正常照度图像组成的训练图像对;步骤B:设计多尺度自适应融合堆叠式注意力网络作为低照度图像增强网络,该网络包含多尺度自适应特征融合模块,堆叠式注意力残差模块和傅里叶重建模块;步骤C:设计低照度图像增强网络的目标损失函数,训练网络至收敛到阈值或迭代次数达到阈值;步骤D:将待测图像输入到所设计的低照度图像增强网络中,利用训练好的网络预测生成正常照度图像。本发明能实现低照度图像增强,生成正常照度下的高质量图像。
-
公开(公告)号:CN115797629A
公开(公告)日:2023-03-14
申请号:CN202211502719.6
申请日:2022-11-28
Applicant: 福州大学
IPC: G06V10/26 , G06V10/764 , G06V10/766 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/084
Abstract: 本发明提出一种基于检测增强和多阶段边界框特征细化的实例分割方法,包括以下步骤:对训练集中图像进行包括数据增强和标准化处理的数据预处理;构建解耦分类与回归的双分支目标检测头;构建多阶段细化与增强空间空洞融合模块的实例分割头,利用目标检测头的边界框特征多阶段地对实例分割头的细化过程进行增强;构建基于检测增强和多阶段边界框特征细化的实例分割网络;利用训练集中图像对实例分割网络进行训练,生成实例分割结果并计算损失函数,反向传播优化整个网络的参数,得到训练好的实例分割网络;将待处理图像输入训练好的实例分割网络,得到实例分割结果。该方法能够通过目标检测来提升实例分割的性能,并生成高质量的实例分割掩码。
-
公开(公告)号:CN112200076B
公开(公告)日:2023-02-21
申请号:CN202011076008.8
申请日:2020-10-10
Applicant: 福州大学
Abstract: 本发明涉及一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;步骤S4:将得到的单个行人的头部躯干特征输入到跟踪器中进行初始化,进而对目标进行跟踪。本发明能够有效地提取检测框中的头部躯干特征,使得跟踪器在初始化的时候获取的有效信息占比最大化。
-
公开(公告)号:CN115205160A
公开(公告)日:2022-10-18
申请号:CN202210960432.1
申请日:2022-08-11
Applicant: 福州大学
Abstract: 本发明涉及一种基于局部场景感知的无参考低照度图像增强方法,包括以下步骤:步骤S1:获取低照度图像,并对每幅图像进行预处理,得到训练数据集;步骤S2:构建基于局部场景感知的低照度图像增强网络;步骤S3:设计用于训练步骤S2所设计网络的无参考损失函数;步骤S4:基于无参考损失函数,采用训练数据集训练基于局部场景感知的低照度图像增强网络;步骤S5:将待测图像通过训练后的基于局部场景感知的低照度图像增强网络,获取正常照度图像。本发明能有效实现低照度图像的增强。
-
公开(公告)号:CN112528730B
公开(公告)日:2022-06-10
申请号:CN202011128387.0
申请日:2020-10-20
Applicant: 福州大学
IPC: G06V40/10 , G06V20/40 , G06K9/62 , G06V10/764
Abstract: 本发明涉及一种匈牙利算法下基于空间约束的成本矩阵优化方法,首先获取保存好的所有被跟踪目标的外观特征向量集合,然后获取该帧中所有行人检测的结果,并将他们结合构造初始的成本矩阵;接着根据之前被跟踪的目标的信息利用卡尔曼滤波来估计该目标的当前位置,根据估计位置和检测结果的相对关系来修改成本矩阵的权重,用于后续的指派任务;最后利用匈牙利算法获得成本矩阵的最优指派,据此将检测结果进行分配,并且更新和保存被跟踪目标的外貌特征。本发明能够根据视频场景来有效改善匈牙利算法的匹配效果,去除一些不合理的匹配。
-
公开(公告)号:CN112258557B
公开(公告)日:2022-06-10
申请号:CN202011149132.2
申请日:2020-10-23
Applicant: 福州大学
Abstract: 本发明涉及一种基于空间注意力特征聚合的视觉跟踪方法,包括步骤:S1:获取视频或图像序列的首帧标注信息,将首帧图像输入孪生网络跟踪架构的模板分支,对区域目标提取浅层特征、中间层特征、深层特征;其中孪生网络跟踪架构包括模板分支与搜索分支;S2:构造空间注意力掩模,计算掩模运算后的特征;S3:对浅层特征计算精确性质量值,对中间层特征计算鲁棒性质量值;基于区域特征聚合方法选取特征通道,连接特征张量作为聚合结果;S4:根据先验标签使用回归方法调整深层部分网络参数,重计算深层特征的输出并聚合,利用得到的所有聚合特征作为模板在孪生网络跟踪架构的搜索分支经过卷积运算得到输出结果。本发明能够有效的进行视觉跟踪。
-
公开(公告)号:CN112258557A
公开(公告)日:2021-01-22
申请号:CN202011149132.2
申请日:2020-10-23
Applicant: 福州大学
Abstract: 本发明涉及一种基于空间注意力特征聚合的视觉跟踪方法,包括步骤:S1:获取视频或图像序列的首帧标注信息,将首帧图像输入孪生网络跟踪架构的模板分支,对区域目标提取浅层特征、中间层特征、深层特征;其中孪生网络跟踪架构包括模板分支与搜索分支;S2:构造空间注意力掩模,计算掩模运算后的特征;S3:对浅层特征计算精确性质量值,对中间层特征计算鲁棒性质量值;基于区域特征聚合方法选取特征通道,连接特征张量作为聚合结果;S4:根据先验标签使用回归方法调整深层部分网络参数,重计算深层特征的输出并聚合,利用得到的所有聚合特征作为模板在孪生网络跟踪架构的搜索分支经过卷积运算得到输出结果。本发明能够有效的进行视觉跟踪。
-
-
-
-
-
-