-
公开(公告)号:CN119068288A
公开(公告)日:2024-12-03
申请号:CN202411179793.8
申请日:2024-08-27
Applicant: 重庆大学
IPC: G06V10/774 , G06V10/40 , G06V10/764 , G06V10/74 , G06V10/762 , G06T7/00 , G06N3/0464
Abstract: 本发明公开了一种基于双视角核心过滤的工业异常污染治理方法。基于工业数据集中混入的少量未标注异常样本,设计基于特征核心集的全局和局部关系建模方法,考虑潜在异常的稀疏特征分布特性,将整体和区域双视角下的潜在异常进行剔除。此外,为补充核心潜入的缺失,提出平衡采样方法,选取出潜在异常/正常表征分布的远点加入核心集,以减少对正常数据的错误剔除。本发明特异性地考虑了工业缺陷检测器的训练容易受未知异常训练数据干扰的限制,实现了对训练环境的净化,进一步提升了工业缺陷检测器的抗噪性能。
-
公开(公告)号:CN118966344A
公开(公告)日:2024-11-15
申请号:CN202411112874.6
申请日:2024-08-14
Applicant: 重庆大学
Abstract: 本发明公开了一种实体标注方法及基于强化主动学习的实体对齐方法,实体对齐方法通过结合强化学习和主动学习策略,优化实体对齐任务中的样本选择效率和效果。综合考虑匹配不确定性采样、新颖性导向的不确定性采样以及代表性采样在内的多种采样策略,用于评估未标记实体对的不确定性分数。为实现策略的自适应加权,本发明采用组合多臂老虎机机制,平衡探索新策略与利用现有策略。每次迭代过程中,框架根据策略权重选择最优策略组合来标记实体对,并更新训练集和模型。组合多臂老虎机机制的引入,可以动态调整策略权重,确保选择的样本涵盖重要信息,减少标记数据需求,同时提升对齐效率和准确性。
-
公开(公告)号:CN117648656A
公开(公告)日:2024-03-05
申请号:CN202311686599.4
申请日:2023-12-11
Applicant: 重庆大学
IPC: G06F18/2433 , G06F18/213 , G06N3/0442 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种数据独立子集驱动多专家混合训练的主动异常检测方法。通过每轮主动学习反馈,按照异常分数的排序设置阈值将样本分成两部分,分别基于特征的相似性和多样性划分出多个样本子集。采用专家混合网络的方式在各子集上独立训练多个弱专家组,借助集成的方式进行推理,主动挑选则在各专家网络上交叉选取最异常的样本,减少无标签数据的单类设定给模型造成的干扰。本发明特异性地将多任务专家混合网络模型应用到单一任务的异常检测中,智能学习集成组合的权重,加强了数据和专家网络的联系,提升了检测性能,为半监督异常检测的便签纠正提供了一项新的思路。
-
公开(公告)号:CN117058593A
公开(公告)日:2023-11-14
申请号:CN202311107013.4
申请日:2023-08-30
Applicant: 重庆大学
Abstract: 本发明涉及一种基于场景蒙太奇的自监督视频场景边界检测方法,通过从视频里选取两个随机位置处的视频片段,拼接两个片段合成一个语义转变点,作为伪视频场景边界,同时从余下镜头中再选取一处作为非视频场景边界,以此形成高质量的自监督信号,结合基于大数据集预先训练的视觉特征提取器,训练神经网络模型学习镜头间语义关系,检测场景边界。本发明方法有效地提高了生成的伪场景边界的质量,为场景边界检测模型提供了更多,以及更高质量的训练数据,显著提升了场景边界检测模型的准确性。
-
公开(公告)号:CN110796080B
公开(公告)日:2023-06-16
申请号:CN201911036294.2
申请日:2019-10-29
Applicant: 重庆大学
IPC: G06V40/10 , G06V10/774 , G06V10/764 , G06T3/00 , G06N3/0464 , G06V10/82 , G06N3/045 , G06N3/0475 , G06N3/08
Abstract: 本发明公开了一种基于生成对抗网络的多姿态行人图像合成算法,包括以下步骤:S1:通过行人重识别任务数据集Market‑1501中获取训练数据集和测试数据集;S2:根据预设方法通过训练数据集构建生成对抗网络模型;S3:采用预设方法向生成对抗网络模型输入中加入姿态信息潜码;S4:基于姿态信息潜码构建生成对抗网络模型的目标函数,并利用带有目标函数的生成对抗网络模型合成多姿态的行人图像;S5:根据合成的多姿态行人图像进行实验结果分析。有益效果:本发明有效地缩小了生成器的解空间,使得生成对抗网络训练更加平稳,从而可以生成高质量的多姿态行人图片。
-
公开(公告)号:CN110569353B
公开(公告)日:2023-04-07
申请号:CN201910593644.9
申请日:2019-07-03
Applicant: 重庆大学
IPC: G06F16/35 , G06F16/335 , G06F40/186 , G06N3/0464 , G06N3/0442 , G06N3/08
Abstract: 本发明公开了一种基于注意力机制的Bi‑LSTM的标签推荐方法,该基于注意力机制的Bi‑LSTM的标签推荐方法包括以下步骤:采集实验数据集;从实验数据集中解析出特定的文本数据;对文本数据进行预处理;从预处理后的问题文本描述中提取语义特征;构建多标签分类模型;通过构建的多标签分类模型为新问题推荐合适的标签;对标签推荐的结果进行评估与分析。本发明的有益效果为:通过基于注意力机制的Bi‑LSTM模型主要将标签推荐任务转化为多标签分类问题,根据问题的文本描述内容自动推荐标签,提高标签推荐的准确性。
-
公开(公告)号:CN107229920B
公开(公告)日:2020-11-13
申请号:CN201710425906.1
申请日:2017-06-08
Applicant: 重庆大学
Abstract: 本发明涉及一种基于整合深度典型时间规整及相关修正的行为识别方法,解决的是识别准确度低、耗时长的技术问题,通过采用将人体的行为表示为刚体位移,将刚体位移分解为刚体平移和刚体旋转,用齐次矩阵李群SE(3)表示刚体位移,李代数为SO(3),采集的骨骼数据建立骨骼模型C(t),将位移映射关系表示为齐次矩阵李群SE(3),建立基于李代数相对特征描述方法的骨骼模型C(t),并对骨骼模型C(t)进行差值处理;使用整合深度典型时间规整方法对齐;利用相关性特征,修正对齐特征样本,使用支持向量机对修正后的特征样本进行分类的技术方案,较好的解决了该问题,用于3D骨骼的行为识别中。
-
公开(公告)号:CN111738048A
公开(公告)日:2020-10-02
申请号:CN202010163685.7
申请日:2020-03-10
Applicant: 重庆大学
Abstract: 本发明涉及一种行人再识别的方法,首先获取原始图像集,并给每张原始图像标上类别标签;将每张原始图像处理成灰度图像和低分辨率图像;将每个训练样本的原始RGB图像,灰度图像和低分辨率图像作为LRAN模型的输入,对LRAN模型的参数进行优化得到最终LRAN模型;最后行人再识别,将两张行人图像经过处理后输入最终LRAN模型得到两张图像的特征ff1和特征ff2,计算特征ff1和特征ff2的距离两张原始图像之间的相似度。本方法考虑到了行人图像质量的变化,从原始RGB图像、灰度图像和低分辨率图像中提取并融合三种深度行人特征融合为一个更鲁棒的特征,在一定程度上就消除了图像质量差异在行人再识别过程中带来的影响。
-
公开(公告)号:CN106201871B
公开(公告)日:2018-10-02
申请号:CN201610513167.7
申请日:2016-06-30
Applicant: 重庆大学
IPC: G06F11/36
Abstract: 本发明涉及基于代价敏感半监督的软件缺陷预测方法,包括如下步骤,S1通过版本控制工具收集待预测软件的源代码文件;S2所述S1得到的源代码文件由I个模块组成,从所述源代码文件中提取度量元值;S3通过采样的方式通过度量元值选取模块得到采样结果集;S4标注后采样结果集和无标记样本集构建训练集;S5提出目标函数,求解使目标函数值最小的分类函数,S6通过分类函数对待预测集中的模块进行预测,并输出预测结果。该方法融合半监督和代价敏感思想构建软件缺陷预测模型,解决了软件缺陷预测中缺陷数据难以获取和类不平衡两个问题,极大提高了预测结果的准确性。
-
公开(公告)号:CN106201871A
公开(公告)日:2016-12-07
申请号:CN201610513167.7
申请日:2016-06-30
Applicant: 重庆大学
IPC: G06F11/36
CPC classification number: G06F11/3608
Abstract: 本发明涉及基于代价敏感半监督的软件缺陷预测方法,包括如下步骤,S1通过版本控制工具收集待预测软件的源代码文件;S2所述S1得到的源代码文件由I个模块组成,从所述源代码文件中提取度量元值;S3通过采样的方式通过度量元值选取模块得到采样结果集;S4标注后采样结果集和无标记样本集构建训练集;S5提出目标函数,求解使目标函数值最小的分类函数,S6通过分类函数对待预测集中的模块进行预测,并输出预测结果。该方法融合半监督和代价敏感思想构建软件缺陷预测模型,解决了软件缺陷预测中缺陷数据难以获取和类不平衡两个问题,极大提高了预测结果的准确性。
-
-
-
-
-
-
-
-
-