-
公开(公告)号:CN118427381A
公开(公告)日:2024-08-02
申请号:CN202410613661.5
申请日:2024-05-17
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于解耦差分知识蒸馏的非对称图像检索方法,该方法通过优化查询网络和图库网络之间的成对相似性关系差异,来保持一致的检索顺序。该方法通过计算图库域内的成对相似性差分矩阵,并将其解耦为特征知识、不一致成对相似性差分知识和一致成对相似性差分知识,这种策略性的解耦有效地使查询网络的检索排名与图库网络对齐,可在计算成本较低的情况下提高查询网络的检索准确性。本发明具有了深度学习技术的特性,通过优化查询网络与图库网络之间的成对相似性关系差异,并具备在较低计算成本下保持检索排名一致性的能力,有效提高查询网络的检索准确性,同时保持计算效率。
-
公开(公告)号:CN117115005A
公开(公告)日:2023-11-24
申请号:CN202310620119.8
申请日:2023-05-29
Applicant: 华南理工大学
IPC: G06T5/00 , G06T7/00 , G06N3/0455 , G06N3/0464 , G06N3/0895 , G06N3/08 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种基于半监督和对比学习的旧照片修复方法,包括:创建有标签旧照片检测数据、有标签旧照片修复数据和无标签旧照片修复数据;使用有标签旧照片修复数据及其对应的旧照片缺陷掩码训练有监督旧照片修复网络,得到较好的网络初始参数;提出随机掩码增强方法与双一致性对齐方法,驱动半监督旧照片修复网络训练并平衡破损数据分布;提出分层级伪标签筛选方法,能准确在无标签数据中筛选伪标签,增加有监督训练样本数量;提出对比学习,能够通过学习锚点、正样本、负样本的关系,进一步挖掘无标签数据知识。本发明能够摆脱对有标签训练数据的依赖,充分利用无标记数据,在少标签训练数据情况下,仍能够得到较好的修复结果。
-
公开(公告)号:CN117934508A
公开(公告)日:2024-04-26
申请号:CN202410091378.0
申请日:2024-01-23
Applicant: 华南理工大学
IPC: G06T7/11 , G06T7/194 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于域特定性正则化的跨站点医学图像增量分割系统,该系统通过模拟不同站点医学图像的亮度、对比度、饱和度和图像噪声的变化,来分析医学图像分割模型网络参数的域特定性,通过引入正则化项的方式限制具有高域特定性的网络参数更新,防止分割模型在新站点过拟合于域特定性特征,从而解决跨站点医学图像增量分割任务中的灾难性遗忘问题。本发明提高了跨站点医学图像分割的平均性能,降低了增量学习过程中的知识遗忘程度。
-
公开(公告)号:CN114529753A
公开(公告)日:2022-05-24
申请号:CN202210053936.5
申请日:2022-01-18
Applicant: 华南理工大学
IPC: G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于代表性特征对齐的域适应目标检测方法,包括:1)数据获取;2)数据处理;3)模型构建;4)定义损失函数;5)参数调优;6)检测结果输出。本发明构建了一个集成了代表性特征提取模块、多级代表性特征自适应融合模块、代表性特征对齐模块、基于上下文的分类正则化模块和全局特征对齐模块这五个模块的域适应目标检测网络,代表性特征包含物体的局部结构特征和语义鉴别性特征,通过将有标签的源域图像和无标签的目标域图像的相同类别的物体的代表性特征对齐,实现精确的特征对齐,得到在无标签的新场景下的准确的目标检测结果。
-
公开(公告)号:CN110175974A
公开(公告)日:2019-08-27
申请号:CN201810200525.8
申请日:2018-03-12
Applicant: 腾讯科技(深圳)有限公司 , 华南理工大学
Abstract: 本申请涉及一种图像显著性检测方法、装置、计算机设备和存储介质,方法包括:获取待检测图像;运用超像素分割算法,将待检测图像分割成多尺度下的超像素,得到待检测图像各尺度的超像素分割图像;提取各超像素分割图像的特征,得到各超像素分割图像的特征向量;将各超像素分割图像的特征向量依次输入递归神经网络结构的各神经网络单元,通过各神经网络单元检测对应的超像素分割图像,得到各超像素分割图像的显著图检测结果;融合各尺度的超像素分割图像的显著图检测结果,得到图像的显著图。该方法能够高效的把全部或更更大的局部信息加入到对当前的超像素的显著性的判断,从而得到更加准确的检测结果。
-
公开(公告)号:CN118427381B
公开(公告)日:2025-03-18
申请号:CN202410613661.5
申请日:2024-05-17
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于解耦差分知识蒸馏的非对称图像检索方法,该方法通过优化查询网络和图库网络之间的成对相似性关系差异,来保持一致的检索顺序。该方法通过计算图库域内的成对相似性差分矩阵,并将其解耦为特征知识、不一致成对相似性差分知识和一致成对相似性差分知识,这种策略性的解耦有效地使查询网络的检索排名与图库网络对齐,可在计算成本较低的情况下提高查询网络的检索准确性。本发明具有了深度学习技术的特性,通过优化查询网络与图库网络之间的成对相似性关系差异,并具备在较低计算成本下保持检索排名一致性的能力,有效提高查询网络的检索准确性,同时保持计算效率。
-
公开(公告)号:CN118674909A
公开(公告)日:2024-09-20
申请号:CN202410715006.0
申请日:2024-06-04
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于视觉问答模块和颜色掩码的同类物体识别方法,包括:使用者输入图像,对图像中的所有物体进行标注,获得所有物体的名称;指定出视觉问题的主体;在视觉问题中标注占位符;替换占位符得到新视觉问题;将视觉问题和图像输入到视觉问答模块来获得候选答案;使用不同颜色对候选答案进行上色;将带有颜色的物体名称对视觉问题的占位符再次进行替换,再次得到新的视觉问题;将最新的视觉问题和被上色的图像输入到视觉问答模块中,得到视觉问题的最终答案。本发明能够有效区分识别场景中属于同一类别的物体。
-
公开(公告)号:CN117173043A
公开(公告)日:2023-12-05
申请号:CN202311084073.9
申请日:2023-08-25
Applicant: 华南理工大学
IPC: G06T5/00 , G06T7/00 , G06T3/00 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种基于不同破损类型的旧照片修复方法,包括:构建旧照片缺陷检测数据集和旧照片修复数据集;提出多任务旧照片缺陷检测网络和旧照片修复网络,旧照片修复网络由ScrathNet和PatchNet组成,提出裂痕和块状破损特征融合方法,即分层级地将ScrachNet的输出结果和PatchNet的编码器融合,使得PatchNet获得更加丰富的上下文参考信息。本发明能够对复杂且不同破损类型旧照片进行修复,并得到较好效果。
-
公开(公告)号:CN119964145A
公开(公告)日:2025-05-09
申请号:CN202510446280.7
申请日:2025-04-10
Applicant: 华南理工大学
IPC: G06V20/64 , G06T7/13 , G06T7/73 , G06V10/764
Abstract: 本发明公开了基于3D视觉的目标物体识别和位姿估算方法,涉及计算机视觉技术领域,解决当前对于目标物体的位姿估算往往依赖于单一传感器,导致目标物体的位姿估算产生误差,且无法根据不同的物体类别判断该物体是否属于正常位姿状态的问题,方法包括:对获取仓库内物体的物体图像和物体的点云数据;对仓库内物体的点云数据进行分析,分析得到仓库内物体的几何中心点对应的中心坐标;对仓库内的物体图像进行检测,检测得到物体类别;获取物体的历史位姿数据,基于物体的立体轮廓、物体类别和物体体素网格分析得到物体的位姿是否需要调整,本发明基于3D视觉实现目标物体对应位姿状态的智能识别。
-
公开(公告)号:CN114529753B
公开(公告)日:2024-07-19
申请号:CN202210053936.5
申请日:2022-01-18
Applicant: 华南理工大学
IPC: G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/084
Abstract: 本发明公开了一种基于代表性特征对齐的域适应目标检测方法,包括:1)数据获取;2)数据处理;3)模型构建;4)定义损失函数;5)参数调优;6)检测结果输出。本发明构建了一个集成了代表性特征提取模块、多级代表性特征自适应融合模块、代表性特征对齐模块、基于上下文的分类正则化模块和全局特征对齐模块这五个模块的域适应目标检测网络,代表性特征包含物体的局部结构特征和语义鉴别性特征,通过将有标签的源域图像和无标签的目标域图像的相同类别的物体的代表性特征对齐,实现精确的特征对齐,得到在无标签的新场景下的准确的目标检测结果。
-
-
-
-
-
-
-
-
-