-
公开(公告)号:CN114445859A
公开(公告)日:2022-05-06
申请号:CN202111679104.6
申请日:2021-12-31
Applicant: 讯飞智元信息科技有限公司 , 安徽大学
IPC: G06V40/10 , G06V10/774 , G06V10/82 , G06V10/764 , G06V10/74 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本申请公开了一种行人重识别方法、相关设备及可读存储介质,先基于包含RGB图像和红外图像的图像对训练得到特征提取模型,在获取待查询图像之后,将待查询图像输入特征提取模型,该特征提取模型输出该待查询图像的特征,通过将该待查询图像的特征与查询数据库中各个行人图像的特征进行匹配,即可得到所述待查询图像对应的行人重识别结果。在本申请中,特征提取模型是基于RGB图像和红外图像训练得到的,无论是对RGB图像进行特征提取,还是对红外图像进行特征提取都能保证提取特征的有效性,因此,能够提升行人重识别结果的准确性。
-
公开(公告)号:CN114140480A
公开(公告)日:2022-03-04
申请号:CN202111496557.5
申请日:2021-12-09
Applicant: 安徽大学
Abstract: 本发明公开一种基于边缘辅助学习的热红外电气设备图像语义分割方法,通过转换模块和全局信息集成模块将从原始输入图像中提取的特征进行转换,将对边缘检测和语义分割任务进行同步优化,同时为更好的实现语义分割和边缘优化的联合优化,使用交叉引导单元进行简单特征变换,将解码器中两条不同分支进行交互,使得两种任务达到联合优化的效果。此外,本发明在卷积神经网络的模块输入端增加有真值监督,由此本发明不仅可以预测到更准确的目标边界,而且能够通过边缘检测分支来辅助语义分支得到更准确的分割结果。
-
公开(公告)号:CN114022516A
公开(公告)日:2022-02-08
申请号:CN202111346472.9
申请日:2021-11-15
Applicant: 安徽大学
Abstract: 本发明公开一种基于高秩特征和位置注意力的双模态视觉跟踪方法,提供一种基于高秩特征和位置注意力的双模态视觉跟踪方法,通过在主干网络中引入目标位置注意力模块来关注目标位置信息,并利用高秩指导模块关注重要的通道并指导可见光和热红外特征图的融合,进一步提高目标跟踪的效果,可根据目标结果的成功与否来判断是否更新网络模型。本发明能够更加精确定位目标的位置,同时减少噪声干扰。
-
公开(公告)号:CN113077491A
公开(公告)日:2021-07-06
申请号:CN202110359997.X
申请日:2021-04-02
Applicant: 安徽大学
Abstract: 本发明公开一种基于跨模态共享和特定表示形式的RGBT目标跟踪方法,对可见光视频和对应的热红外视频进行配准和标注,按照要求将其分成训练集和测试集;利用VGG‑M网络来提取不同模态的模态特定特征,利用共享特征提取模块来提取两个模态之间的模态共享特征,同时在共享特征提取模块中使用多尺度特征融合的策略来增强特征以提高其鲁棒性。本发明在光照变化强烈、夜晚等极端条件下跟踪上目标,通过焦点损失函数使训练的模型更加关注于难以分类的样本,提高模型的鲁棒性。
-
公开(公告)号:CN109034001B
公开(公告)日:2021-06-25
申请号:CN201810725499.0
申请日:2018-07-04
Applicant: 安徽大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于时空线索的跨模态视频显著性检测方法,获取一对匹配的多模态视频序列帧对,使用SLIC算法对其超像素分割;计算超像素分割图的每个像素点的显著性,选择相似度大的节点作为前景点;通过结合上一阶段的显著值、可见光和热红外两个模态的权重构造显著图;对比相邻前后两帧的显著值计算其空间位置最大重叠比继而找到相邻帧之间的固有关系,得到基于时空的多模态视频显著性结果;利用拉格朗日数乘法对模型进行求解并得出结果。本发明从信息融合的角度出发,通过融合多个互补的视觉模态数据克服低光照、雾霾和杂乱背景等因素的影响,引入了每种模式的权重来表示可靠性,以实现不同源数据的自适应和协同融合。
-
公开(公告)号:CN112785626A
公开(公告)日:2021-05-11
申请号:CN202110111717.3
申请日:2021-01-27
Applicant: 安徽大学
Abstract: 本发明公开一种基于多尺度特征融合的孪生网络小目标跟踪方法,多尺度融合特征模块以及优化的孪生神经网络全面考虑到深度神经网络结构中低层有利于目标的精确位置,高层可以捕获目标的语义信息的优势,通过不同层次的有效融合,充分利用底层信息避免了深层网络的卷积操作会将小目标的信息抛弃的问题,解决了跟踪过程中的小目标挑战,从而实现了良好的跟踪效果。
-
公开(公告)号:CN112613462A
公开(公告)日:2021-04-06
申请号:CN202011604949.4
申请日:2020-12-29
Applicant: 安徽大学
Abstract: 本发明涉及到了计算机视觉领域,具体公开了一种加权交并比方法,包括步骤A1:获取真值框G坐标锚框A坐标;步骤A2:计算每个真值框G和锚框A之间的交集I;步骤A3:计算每个真值框G和锚框A之间的并集U;步骤A4:给真值框G和锚框A的每个位置赋予权重;步骤A5:计算加权交并比值。本发明通过对目标框内的每个位置赋予不同的权重,提供一种更加合理的度量两个轴向包围盒重叠程度的方法,来解决交并比相同情况下,不同位置的预测框P评测准确度相同的问题,同时本发明可用作回归损失函数进行目标检测模型训练。本发明在目标检测模型评估时作为评测标准也表现更加鲁棒。
-
公开(公告)号:CN110349185A
公开(公告)日:2019-10-18
申请号:CN201910630002.1
申请日:2019-07-12
Applicant: 安徽大学
IPC: G06T7/246
Abstract: 本发明公开了一种RGBT目标跟踪模型的训练方法及装置,方法包括:1)、构建依次由稠密特征聚合模块以及分类模块组成的跟踪模型,稠密特征聚合模块包括提取可见光图像特征的第一卷积层序列;以及提取热红外图像特征的第二卷积层序列,第一卷积层中的与第二卷积层中深度相同的卷积层为配对卷积层;除第一个配对卷积层以外的配对卷积层均对应一个特征聚合层,第一个配对卷积层的卷积结果输入到下一个配对卷积层的特征聚合层中;分类模块包括依次串联的若干层全连接层;2)、使用预先标记的可见光图像样本以及预先标记的热红外图像样本训练跟踪模型,得到目标跟踪模型。本发明实施例可以使目标识别结果更加准确。
-
公开(公告)号:CN110349179A
公开(公告)日:2019-10-18
申请号:CN201910630336.9
申请日:2019-07-12
Applicant: 安徽大学
Abstract: 本发明公开了一种基于多适配器的可见光红外视觉跟踪方法及装置,方法包括:1)、预先构建由可见光模态适配器、通用适配器、热红外模态适配器以及实例适配器的初始识别模型;2)、使用预先标定好目标的样本视频训练初始识别模型,得到训练后的识别模型,其中,样本视频包括:若干个可见光-热红外光样本视频对;3)、使用训练后的初始识别模型跟踪待识别视频中的待识别目标。应用本发明实施例,可以达到良好的多模态视频跟踪效果。
-
公开(公告)号:CN107018419B
公开(公告)日:2019-07-05
申请号:CN201710280070.0
申请日:2017-04-26
Applicant: 安徽大学
IPC: H04N19/42 , H04N19/52 , H04N19/567
Abstract: 本发明公开一种基于AMBTC的图像压缩编码方法,包括编码和解码两个步骤,具体为:将原始图像以v×v大小的块为单位进行AMBTC压缩;发送方将每个块的量化值再次进行压缩编码;接收方进行解码得到AMBTC压缩图像。本发明对原始图像进行AMBTC压缩后,对其各个量化值求得预测误差,结合霍夫曼编码将预测误差进行分类编码,最终传输及存储的则为图像的预测误差编码及分区信息编码,使得图像冗余性减少,压缩比例进一步提高,同时也大大减少了图像在传输及存储的过程中所占用的资源,节省网络带宽及存储内存。
-
-
-
-
-
-
-
-
-