-
公开(公告)号:CN119049113B
公开(公告)日:2025-04-18
申请号:CN202411235694.7
申请日:2024-09-04
Applicant: 重庆理工大学
IPC: G06V40/16 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明涉及深度学习和图像处理技术领域,公开了一种融合不确定性估计与主动学习的表情识别方法。所述融合不确定性估计与主动学习的表情识别方法包括步骤:1、对比自监督预训练;2、融合不确定性估计的动态重标注模块DRM(Dynamic Re‑labeling Module);3、基于预训练模型的模型微调。本发明提供的融合不确定性估计与主动学习的表情识别方法,首先利用对比学习基于整体未标记数据集的底层特征表示,并通过改进的不确定性估计方法,进一步增强模型的特征提取能力;随后,主动学习基于预训练模型进行模型微调,以更高效地选择和标记最具信息量的样本,其结果相较于现有技术,在识别准确率上实现了显著提升。
-
公开(公告)号:CN119049113A
公开(公告)日:2024-11-29
申请号:CN202411235694.7
申请日:2024-09-04
Applicant: 重庆理工大学
IPC: G06V40/16 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明涉及深度学习和图像处理技术领域,公开了一种融合不确定性估计与主动学习的表情识别方法。所述融合不确定性估计与主动学习的表情识别方法包括步骤:1、对比自监督预训练;2、融合不确定性估计的动态重标注模块DRM(Dynamic Re‑labeling Module);3、基于预训练模型的模型微调。本发明提供的融合不确定性估计与主动学习的表情识别方法,首先利用对比学习基于整体未标记数据集的底层特征表示,并通过改进的不确定性估计方法,进一步增强模型的特征提取能力;随后,主动学习基于预训练模型进行模型微调,以更高效地选择和标记最具信息量的样本,其结果相较于现有技术,在识别准确率上实现了显著提升。
-
公开(公告)号:CN118823434A
公开(公告)日:2024-10-22
申请号:CN202410798156.2
申请日:2024-06-20
Applicant: 重庆理工大学
IPC: G06V10/764 , G06V10/766 , G06V10/80 , G06V10/44 , G06N3/0464
Abstract: 本发明公开了一种基于变体YOLO的铁路扣件异常检测方法,包括以下步骤:S1:输入图像,通过骨干网络对特征进行提取,并生成至少三种不同清晰度大小的特征图;S2:将多个特征图通过特征融合网络进行特征融合并优化;S3:对融合和优化后的特征图通过原始头部检测层进行回归和分类过程。提高在挑战性条件下检测铁路紧固件组件异常的准确性,并适用于具有高度特征相似性和次优图像质量的对象。
-
公开(公告)号:CN117037130A
公开(公告)日:2023-11-10
申请号:CN202310818049.7
申请日:2023-07-05
Applicant: 重庆理工大学
IPC: G06V20/62 , G06V10/80 , G06V30/148 , G06V10/82
Abstract: 本发明公开了基于加权对齐金字塔结构的场景文本提取方法,包括以下步骤:S1,采集场景文本图像特征信息并输入布满遗传视网膜卷积的主干网络中,并输出不同阶段的特征;S2,将不同阶段的特征输入加权对齐金字塔模块处理并获得四个下采样的特征图,然后利用普通金字塔模块把下采样的特征图上采样到同级大小;S3,通过加权对齐金字塔模块将底层特征和高层特征进行融合,然后将融合后的高层特征使用加权融合的方式学习不同输入特征的权重,用于构建整个场景的长期依赖关系,对不同输入特征有区分的融合;S4,在区分融合之后,获得用于预测概率图P和阈值图T,通过P和T计算近似二进制映射B∧,用于将文本区域分割出来,去掉冗余的干扰信息,突出文本信息。
-
公开(公告)号:CN118823434B
公开(公告)日:2025-03-14
申请号:CN202410798156.2
申请日:2024-06-20
Applicant: 重庆理工大学
IPC: G06V10/764 , G06V10/766 , G06V10/80 , G06V10/44 , G06N3/0464
Abstract: 本发明公开了一种基于变体YOLO的铁路扣件异常检测方法,包括以下步骤:S1:输入图像,通过骨干网络对特征进行提取,并生成至少三种不同清晰度大小的特征图;S2:将多个特征图通过特征融合网络进行特征融合并优化;S3:对融合和优化后的特征图通过原始头部检测层进行回归和分类过程。提高在挑战性条件下检测铁路紧固件组件异常的准确性,并适用于具有高度特征相似性和次优图像质量的对象。
-
公开(公告)号:CN117037130B
公开(公告)日:2024-09-17
申请号:CN202310818049.7
申请日:2023-07-05
Applicant: 重庆理工大学
IPC: G06V20/62 , G06V10/80 , G06V30/148 , G06V10/82
Abstract: 本发明公开了基于加权对齐金字塔结构的场景文本提取方法,包括以下步骤:S1,采集场景文本图像特征信息并输入布满遗传视网膜卷积的主干网络中,并输出不同阶段的特征;S2,将不同阶段的特征输入加权对齐金字塔模块处理并获得四个下采样的特征图,然后利用普通金字塔模块把下采样的特征图上采样到同级大小;S3,通过加权对齐金字塔模块将底层特征和高层特征进行融合,然后将融合后的高层特征使用加权融合的方式学习不同输入特征的权重,用于构建整个场景的长期依赖关系,对不同输入特征有区分的融合;S4,在区分融合之后,获得用于预测概率图P和阈值图T,通过P和T计算近似二进制映射B∧,用于将文本区域分割出来,去掉冗余的干扰信息,突出文本信息。
-
公开(公告)号:CN118053150B
公开(公告)日:2024-08-23
申请号:CN202410266715.5
申请日:2024-03-08
Applicant: 重庆理工大学
IPC: G06V20/62 , G06V30/146 , G06V30/18 , G06V30/19 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/09 , G06N3/0985
Abstract: 本发明涉及一种基于文本细节图作为端到端文本检测与识别的监督方法,属于文本处理领域。该方法包括以下步骤:给定一个包含任意形状文本的输入图像,该输入图像经过两个独立的处理分支进行处理;设计文本注意力头TAH,设计特征金字塔增强融合模块FPEFM;FPEFM通过在不同尺寸上进行特征自增强,融合文本注意力头TAH模块提取到的文本图像局部特征和全局文本位置信息,融合文本注意力头TAH从不同尺寸的特征图中提取的特征;通过堆叠多个FPEFM,不断增强模型的特征表征能力和模型的深度;将特征图上采样到统一的尺寸,得到最终增强的特征图。
-
公开(公告)号:CN117095468B
公开(公告)日:2024-08-20
申请号:CN202310831456.1
申请日:2023-07-07
Applicant: 重庆理工大学
IPC: G06V40/40 , G06V10/82 , G06V10/774 , G06V10/52 , G06V10/42
Abstract: 本发明提出了一种基于领域不变特征学习的低质量伪造人脸图像检测方法,包括以下步骤:S1,将高质量数据集和低质量数据集输入ResNet‑50,通过ResNet‑50向前传播低质量压缩的输入图像及其对应的原始图像;S2,对于ResNet‑50各个阶段的输出,使用小波分解获得两个不同分辨率数据集的高频信息;然后将获得的高频信息补偿压缩过程中被丢弃的特征;S3,对ResNet‑50最后阶段的输出进行T‑SNE操作,得到高质量数据集和低质量数据集之间的特征分布,以确定伪造人脸图像和真实的图像。本发明使用领域不变性来刻画正确的人工伪影痕迹,缓解了低质量压缩图像上的过拟合问题。
-
公开(公告)号:CN114998195B
公开(公告)日:2023-06-16
申请号:CN202210424195.7
申请日:2022-04-21
Applicant: 重庆理工大学
IPC: G06T7/00 , G06N3/0464 , G06N3/08 , G06T5/40 , G06V10/774 , G06V10/80
Abstract: 本发明提出了一种基于深度回归网络的猪B超图像脂肪含量检测方法,包括以下步骤:S1,采集若干猪B超图像,然后将所述图像的宽度和高度缩放到一个统一的值从而得到样本;S2,图像增强:基于限制对比度的自适应直方图均衡化进行图像增强;S3,增加样本:通过平移、旋转、镜像、锐化、改变像素值和亮度之一或者任意组合来扩展数据集;S4,将样本输入网络模型进行训练,得到训练好的网络模型;S5,将待测的猪B超图像输入网络训练,得到脂肪含量结果。本发明能够简化检测过程,降低人工成本,节省检测时间,降低检测成本,提高检测精度,提高育种效果。它将对畜牧生产和人类生活具有重要意义。
-
公开(公告)号:CN114998195A
公开(公告)日:2022-09-02
申请号:CN202210424195.7
申请日:2022-04-21
Applicant: 重庆理工大学
Abstract: 本发明提出了一种基于深度回归网络的猪B超图像脂肪含量检测方法,包括以下步骤:S1,采集若干猪B超图像,然后将所述图像的宽度和高度缩放到一个统一的值从而得到样本;S2,图像增强:基于限制对比度的自适应直方图均衡化进行图像增强;S3,增加样本:通过平移、旋转、镜像、锐化、改变像素值和亮度之一或者任意组合来扩展数据集;S4,将样本输入网络模型进行训练,得到训练好的网络模型;S5,将待测的猪B超图像输入网络训练,得到脂肪含量结果。本发明能够简化检测过程,降低人工成本,节省检测时间,降低检测成本,提高检测精度,提高育种效果。它将对畜牧生产和人类生活具有重要意义。
-
-
-
-
-
-
-
-
-