用于街景理解的基于像素重排重建的语义分割方法及系统

    公开(公告)号:CN110059769B

    公开(公告)日:2022-11-18

    申请号:CN201910359495.X

    申请日:2019-04-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种用于街景理解的基于像素重排重建的语义分割方法及系统,该方法包括:对训练集输入图像进行预处理,使图像标准化并获取相同尺寸的预处理图像;用卷积网络提取通用特征,再获取稠密带孔空间金字塔融合特征,以这两部分级联作为编码网络提取编码特征;从卷积网络中选取中间层特征,结合编码特征计算边缘特征,以基于像素重排技术的稠密网为解码网络,重建图像分辨率,计算解码特征;计算得到语义分割损失和辅助监督的边缘损失,以最小化两者加权和损失为目标对深度神经网络进行训练;利用深度神经网络模型对待分割图像进行语义分割,输出分割结果。该方法及系统有利于提高图像语义分割的准确性和鲁棒性。

    一种网络参数自纠正的行人重识别方法及系统

    公开(公告)号:CN111274958A

    公开(公告)日:2020-06-12

    申请号:CN202010065378.5

    申请日:2020-01-20

    Applicant: 福州大学

    Abstract: 本发明涉及一种网络参数自纠正的行人重识别方法及系统,该方法包括:A、使用已标注类标签行人视频训练深度网络得到参考网络模型;B、利用参考网络模型估计未标注类标签行人视频的伪标签,并选取一定比例训练深度网络得到目标网络模型;C、从选取的未标注视频中再选取一定比例,打乱其伪标签,训练深度网络得到偏差网络模型;D、计算噪声自适应损失,对目标网络模型中错误网络参数更新进行自纠正;E、将参考网络模型替换成目标网络模型,重复步骤B-D,并增加未标注视频的选取比例直到所有未标注视频被选中,得到最终的目标网络模型;F、使用目标网络模型对查询视频进行行人重识别。该方法及系统有利于提高行人重识别的准确性与鲁棒性。

    一种基于部位注意力的行人重识别方法及系统

    公开(公告)号:CN111259837B

    公开(公告)日:2022-10-04

    申请号:CN202010067243.2

    申请日:2020-01-20

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于部位注意力的行人重识别方法及系统,该方法包括以下步骤:A、输入训练集各行人视频到特征提取深度网络,得到中间特征并输入部位推断深度网络,得到K个部位的注意力热力图;B、做哈达玛积运算得到局部中间特征,再输入K个局部提取深度网络得到K个部位的局部特征;C、计算各部位的有效系数,对局部特征进行加权融合得到融合局部特征;D、计算全局特征,拼接全局特征和融合局部特征得到视频特征,输入全连接层得到分类向量;E、计算联合损失,计算各网络参数的梯度,后更新各网络参数,完成各网络训练过程;F、输入查询视频和检索集各视频到训练完成的各网络进行行人重识别。该方法及系统有利于提高行人重识别的性能。

    用于街景理解的基于动态插值重建的语义分割方法及系统

    公开(公告)号:CN110070091B

    公开(公告)日:2022-05-24

    申请号:CN201910359127.5

    申请日:2019-04-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种用于街景理解的基于动态插值重建的语义分割方法及系统,该方法包括:对训练集输入图像进行预处理,使图像标准化并获取相同尺寸的预处理图像;用卷积网络提取通用特征,再获取混合空间金字塔池化特征,以这两部分级联作为编码网络提取编码特征;从卷积网络中选取中间层特征,结合编码特征计算插值权重特征,以动态插值的方式搭建解码网络,重建图像分辨率,计算解码特征;计算得到边缘增强的语义分割损失,以最小化边缘增强的语义分割损失为目标对深度神经网络进行训练;利用深度神经网络模型对待分割图像进行语义分割,输出分割结果。该方法及系统有利于提高图像语义分割的准确性和鲁棒性。

    复杂场景下基于内特征和文本域布局的驾驶证检测识别方法

    公开(公告)号:CN108427946A

    公开(公告)日:2018-08-21

    申请号:CN201810218038.4

    申请日:2018-03-16

    Applicant: 福州大学

    Abstract: 本发明提供了一种复杂场景下基于内特征和文本域布局的驾驶证检测识别方法,首先用归一化和SSR增强等技术预处理图像,用形态学操作和线段修补对证件中的车型框边框进行修补,通过轮廓检测与过滤得到车型框轮廓,求拟合直线的交点得到车型框顶点,结合标准驾驶证布局得到驾驶证区域图像。然后分析积分投影信息对车型文本区域位置进行精细定位,从它开始,每次找临近的未定位区域进行粗定位和精细定位得到文本区域图像,并在地址栏以上区域进行倾斜校正。最后融合多种方法对文本区域二值化,用专训的文字识别引擎识别文字。该方法快速鲁棒,能准确迅速地识别各种复杂场景下的拍摄出来的图像,具有较好的实用性和较高的应用价值。

    用于街景理解的基于边缘稠密重建的语义分割方法及系统

    公开(公告)号:CN110059698B

    公开(公告)日:2022-12-23

    申请号:CN201910359119.0

    申请日:2019-04-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种用于街景理解的基于边缘稠密重建的语义分割方法及系统,该方法包括:对训练集输入图像进行预处理,使图像标准化并获取相同尺寸的预处理图像;用卷积网络提取通用特征,再获取三级上下文空间金字塔融合特征,以这两部分级联作为编码网络提取编码特征;利用编码特征获取半输入尺寸编码特征,基于卷积网络获取边缘特征,结合半输入尺寸编码特征,以融合边缘特征的稠密网为解码网络,重建图像分辨率,获取解码特征;计算语义分割损失和辅助监督的边缘损失,以最小化两者加权和损失为目标对深度神经网络进行训练;利用深度神经网络模型对待分割图像进行语义分割,输出分割结果。该方法及系统有利于提高图像语义分割的准确性和鲁棒性。

    一种基于姿态关键帧的视频行人重识别方法及系统

    公开(公告)号:CN110070066B

    公开(公告)日:2022-12-09

    申请号:CN201910359494.5

    申请日:2019-04-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于姿态关键帧的视频行人重识别方法及系统,该方法包括以下步骤:步骤A:使用标注了行人姿态关键点位置信息的数据训练行人姿态估计深度神经网络;步骤B:根据行人姿态估计深度神经网络预测得到的姿态信息选取姿态关键帧,训练行人重识别深度神经网络;步骤C:将查询集和检索集的视频输入行人重识别深度神经网络以提取特征,计算各视频间的特征距离,并对各特征距离进行排序,生成各查询视频的近邻列表;步骤D:利用重排序方法对近邻列表进行重新排序,选取近邻列表的前若干名为行人重识别结果。该方法及系统可以提高视频行人重识别的准确度和速度。

    用于街景理解的融合点与区域特征的语义分割方法及系统

    公开(公告)号:CN110059768B

    公开(公告)日:2022-11-15

    申请号:CN201910359134.5

    申请日:2019-04-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种用于街景理解的融合点与区域特征的语义分割方法及系统,该方法包括:对训练集输入图像进行预处理,使图像标准化并获取相同尺寸的预处理图像;用卷积网络提取通用特征,再基于通用特征获取多重上下文对比点特征,以这两部分级联作为编码网络提取编码特征;从卷积网络中选取中间层特征,结合编码特征计算区域特征,融合点域特征扩大解码特征分辨率,把这部分多次迭代作为解码网络,重建图像分辨率,计算解码特征;计算边缘增强的语义分割损失,以最小化边缘增强的语义分割损失为目标来对深度神经网络进行训练;利用深度神经网络模型对待分割图像进行语义分割,输出分割结果。该方法及系统有利于提高图像语义分割的准确性和鲁棒性。

    一种基于部位注意力的行人重识别方法及系统

    公开(公告)号:CN111259837A

    公开(公告)日:2020-06-09

    申请号:CN202010067243.2

    申请日:2020-01-20

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于部位注意力的行人重识别方法及系统,该方法包括以下步骤:A、输入训练集各行人视频到特征提取深度网络,得到中间特征并输入部位推断深度网络,得到K个部位的注意力热力图;B、做哈达玛积运算得到局部中间特征,再输入K个局部提取深度网络得到K个部位的局部特征;C、计算各部位的有效系数,对局部特征进行加权融合得到融合局部特征;D、计算全局特征,拼接全局特征和融合局部特征得到视频特征,输入全连接层得到分类向量;E、计算联合损失,计算各网络参数的梯度,后更新各网络参数,完成各网络训练过程;F、输入查询视频和检索集各视频到训练完成的各网络进行行人重识别。该方法及系统有利于提高行人重识别的性能。

    基于视角自适应深度网络的票据手写数字识别方法及系统

    公开(公告)号:CN110084327B

    公开(公告)日:2023-04-07

    申请号:CN201910359135.X

    申请日:2019-04-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于视角自适应深度网络的票据手写数字识别方法及系统,该方法包括以下步骤:步骤A:使用带类别标签的数字图像训练视角自适应的深度网络;步骤B:对彩色票据图像进行预处理,得到二值图像;步骤C:使用积分投影法对二值图像进行分割,得到各数字图像;步骤D:将各数字图像分别输入到深度网络进行数字识别,得到分类结果。该方法及系统解决了票据手写数字识别中存在的字形字体变化导致识别出错、视角变化对识别造成影响的问题,有利于提高票据手写数字识别的准确度和速度。

Patent Agency Ranking