-
公开(公告)号:CN117333882A
公开(公告)日:2024-01-02
申请号:CN202311298964.4
申请日:2023-10-07
Applicant: 华中科技大学
IPC: G06V30/19 , G06V30/148 , G06V30/18 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/088
Abstract: 本发明提出一种基于深度学习的甲骨文部首拆分匹配方法,包括以下步骤:首先收集甲骨文与对应汉字图像数据,使用汉字识别工具得到标签;然后在部首拆分模块中,甲骨文图像经过调整后分割得到甲骨文部首图像,用于训练甲骨文特征提取模块;接着在部首匹配模块中,根据部首图像间的特征相似度与已破译汉字IDS序列,将甲骨文部首匹配对应的汉字部首;最后在组合破译模块中,提取甲骨文图像结构信息,结合匹配的汉字部首,寻找与之匹配的IDS序列,破译得到汉字。本发明使用无监督对比学习网络作为特征提取模块,结合IDS序列,能够在没有甲骨文部首对应汉字部首标签的情况下学习两者对应关系,完成甲骨文的分解破译。
-
公开(公告)号:CN117274187A
公开(公告)日:2023-12-22
申请号:CN202311211768.9
申请日:2023-09-19
Applicant: 华中科技大学
IPC: G06T7/00 , G06T7/73 , G06V10/26 , G06V10/766 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/09 , G06N3/096
Abstract: 本发明公开了一种基于差异感知的鲁棒异常检测方法。所述方法包括以下步骤:本发明由教师网络、学生网络、特征融合模块、分割模块及辅助分割模块组成。在训练阶段,将正常图像及合成异常图像分别输入至教师网络和学生网络,一方面,约束学生网络在正常区域回归教师网络,另一方面,计算两者特征之间的距离,得出差异图,融合差异图与学生网络特征,输入分割模块,约束分割模块准确定位异常。此外,本发明还将学生网络特征输入辅助分割模块中,以提升学生网络对异常的感知能力。在测试阶段,输入异常图像,结合教师‑学生网络的差异图和分割模块输出的分割概率图定位异常。本发明结合知识蒸馏与自监督,实现了高性能和较强鲁棒性的异常检测。
-
公开(公告)号:CN117058667A
公开(公告)日:2023-11-14
申请号:CN202311154735.5
申请日:2023-09-07
Applicant: 华中科技大学
IPC: G06V20/62 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于CLIP的端到端场景文本识别方法:通过对大规模视觉语言预训练模型CLIP进行改进,利用CLIP预训练好的图像编码器和文本编码器,引入了语言提示生成器、视觉提示生成器以及文本实例与语言匹配模块。通过借助CLIP中的语言知识,FastTCM能够有效辅助下游文本检测和端到端文本识别任务,从而显著提升了现有场景文本检测器和端到端文本识别器的准确度。此外还能增强在小样本学习情景下的表现,并提升模型的泛化能力。极大地拓展了场景文本检测和端到端文本识别的应用领域,有望在诸如图像标注、文档分析等领域发挥重要作用。通过整合语言和视觉信息为端到端场景文本识别提供了全新的范式,为深度学习技术在文本识别领域的发展做出了积极贡献。
-
公开(公告)号:CN116825378A
公开(公告)日:2023-09-29
申请号:CN202310282808.2
申请日:2023-03-17
Applicant: 华中科技大学同济医学院附属同济医院
IPC: G16H50/80 , G16H50/70 , G06F18/241 , G06F18/25 , G06N3/0455 , G06N3/08
Abstract: 本发明提供一种传染性呼吸道疾病患者远期抗体水平预测方法与装置,通过获取患者住院期间的人口学静态数据和纵向临床数据,并将人口学静态数据转换为静态特征,将纵向临床数据转换为动态特征,将动态特征和静态特征融合为高层时序特征,获取各个采样时间同预测时间点的采样时间间隔,并将采样时间间隔嵌入高层时序特征,缓解不同患者数据采样时间无法对齐的问题,再根据嵌入采样时间间隔后的高层时序特征获得患者远期抗体水平的分类结果。
-
公开(公告)号:CN115761224A
公开(公告)日:2023-03-07
申请号:CN202211332313.8
申请日:2022-10-28
Applicant: 华中科技大学
IPC: G06V10/26 , G06V10/82 , G06V10/80 , G06V10/40 , G06N3/0464 , G06N3/0455 , G06N3/088 , G06N3/09 , G06T7/00
Abstract: 本发明公开了一种基于亲和力特征融合的卷积神经网络血管分割系统,包括特征编码模块、无监督亲和力特征增强解码模块,和有监督多尺度亲和力特征增强解码模块,通过有监督多尺度和无监督亲和力特征增强解码模块同时显式与隐式地提取亲和力场,建立不同尺度特征之间的语义关系,编码局部空间几何结构,进行分割特征的增强,统一地增强血管分割的像素级精度与拓扑完整性以及鲁棒性。本发明提供了一个端到端训练的基于亲和力特征融合的卷积神经网络血管分割系统。相比传统血管分割方法以及现有许多基于深度学习的血管分割系统,本发明同时进行了像素特征的优化,拓扑结构的约束以及通过建立像素特征和特征之间的语义联系获得更好的对比度鲁棒性。
-
公开(公告)号:CN110781967B
公开(公告)日:2022-08-19
申请号:CN201911038562.4
申请日:2019-10-29
Applicant: 华中科技大学
IPC: G06V10/774 , G06V30/148 , G06N3/08 , G06N3/04
Abstract: 本发明公开了一种基于可微分二值化的实时文本检测方法。通过对图像进行分割,得到文本区域的概率图,对概率图采用可微分二值化得到二值图,在二值图上寻找联通区域即可得到文本区域的包围盒。本方法通过给概率图和二值图均施加监督,将二值化的过程纳入训练之中,提升检测效果。本发明相对于现有文本检测方法,在准确度、运行效率和通用性方面都取得了卓越效果,有很强的实际应用价值。
-
公开(公告)号:CN114863098A
公开(公告)日:2022-08-05
申请号:CN202210397331.8
申请日:2022-04-15
Applicant: 华中科技大学
Abstract: 本发明公开了一种用于工业场景的细小微弱缺陷分割方法。所述方法包括以下步骤:利用深度卷积神经网络特征编码器对RGB图像进行多尺度特征提取来适应不同尺度的缺陷;特征解码器对特征编码器提取的多尺度图像特征进行融合上采样以尽可能保留细节信息,得到高分辨率高区分力的图像特征图;基于融合后的图像特征图,采用分类器对图像进行逐像素二分类,将图像中所有像素划分为正常像素和缺陷像素两类。本方法提出了一种将正常像素与缺陷像素损失平衡的目标函数,使模型更有效学习到细小微弱缺陷特征,大幅减少了对工业场景下细小微弱缺陷的漏检,实现了更准确的缺陷像素级分割。
-
公开(公告)号:CN111062432B
公开(公告)日:2022-03-25
申请号:CN201911278401.2
申请日:2019-12-13
Applicant: 华中科技大学
IPC: G06K9/62 , G06N3/04 , G06N3/08 , G06V10/776 , G06V10/764
Abstract: 本发明公开了一种语义上多模态图像生成的方法。本发明在分割标签生成图像的任务上提出了一个新任务,新任务是能够通过分割标签的类别对生成图像的类别进行单独控制。在这个任务上,本发明提出了一种解决方案,对编码器采用分组卷积,将自然图像里面不同类的编码进行分离,从而使得更改该编码能够改变生成图像中该类的样式。生成器部分,本发明采用的是组数逐渐递减的分组卷积,这能提高单独控制的能力,也能够减少显存的占用,因此可以将这个方法应用到类别较多的数据集上。同时本发明能够应用于许多图像生成的应用里面,如图像编辑等。本发明相较于之前的分割标签生成自然图像的相关工作,能对生成图像里面的类别尽可能的进行单独控制。
-
公开(公告)号:CN109886286B
公开(公告)日:2021-07-23
申请号:CN201910005486.0
申请日:2019-01-03
Applicant: 武汉精测电子集团股份有限公司 , 华中科技大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于级联检测器的目标检测方法、目标检测模型及系统,该检测方法包括以下步骤:S1:采用带有目标标注的训练数据集对目标检测模型进行训练;S2:将待测图片输入训练好的目标检测模型中,通过特征提取、上采样、特征融合后得到不同尺寸的特征图P2、P3、…、Pn;S3:根据特征图Pn预测得到目标位置Bn和类别Cn;根据目标位置Bi从对应的特征图Pi‑1中提取相应的特征进行目标预测,得到目标位置Bi‑1和类别Ci‑1,i=3~n;S4:以目标位置B2作为最终预测结果;本发明通过对目标候选框的多次迭代回归预测,得到预测更加准确的目标位置,提高了目标检测精度,检测准确度更高。
-
公开(公告)号:CN110322446B
公开(公告)日:2021-02-19
申请号:CN201910585717.X
申请日:2019-07-01
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于相似性空间对齐的域自适应语义分割方法,将源域和目标域的分割输出分别变换到相似性空间,并对齐源域和目标域两者的相似性空间分布来减小域间差异,即可得到在无监督的目标域上有较好分割效果的语义分割模型。该方法在跨域语义分割任务中引入了相似性空间的概念,更好地编码了分割场景中类别间的相关性,利用判别器对不同域的相似性空间进行判别,使得分割网络更加关注图像的结构、类别共存性等信息,且整个网络可以端到端训练。本方法提出的基于相似性空间对齐的无监督域自适应语义分割方法在现有的技术思路上进行了创新,融入了分割场景中类别的相关性空间信息,分割性能更好,有着很强的实际应用价值。
-
-
-
-
-
-
-
-
-