-
公开(公告)号:CN119920453A
公开(公告)日:2025-05-02
申请号:CN202510419280.8
申请日:2025-04-03
Applicant: 华中科技大学同济医学院附属同济医院
Abstract: 本发明公开了一种探测肝脏彩超检查漏诊脂肪肝患者的方法及系统,其中方法包括:收集包括肝脏彩超检查、FibroTouch检测、生化检测、体格测量和问卷调查数据在内的体检者样本数据;对得到的样本数据进行数据清洗,包括删除缺失值和排除非目标体检数据:基于全变量建立初步的二元逻辑回归模型;结合包括逻辑回归后退法、逐步回归法以及岭回归法在内的多种方法,从全变量中筛选对模型最有价值的变量;进行变量编码,并以基于FibroTouch诊断的脂肪肝为结局变量,建立诊断模型;诊断模型对肝脏彩超检查中未被诊断为脂肪肝者进行识别,输出是否为非酒精性脂肪肝作为诊断结果。
-
公开(公告)号:CN110826609B
公开(公告)日:2023-03-24
申请号:CN201911038698.5
申请日:2019-10-29
Applicant: 华中科技大学
IPC: G06V10/80 , G06V10/40 , G06V10/774
Abstract: 本发明公开了一种基于强化学习的双流特征融合图像识别方法,对待检测输入图像,使用两个不同的模型分别得到特征矩阵,然后将两个特征矩阵输入到强化学习模型和融合模型后得到最终的分类分数。两个模型分别是纹理模型和形状模型:纹理模型是根据图像中对象的纹理信息来进行分类,而形状模型根据对象的形状信息来进行分类。两个模型都通过强化学习的方式,让网络在整张图像中寻找最有区分力的区域,然后根据这个区域来进行分类。本方法简单易行,推广能力强,找到易于区分图像的区域,区分性区域合适并有效,充分用图像中的纹理和形状信息,能有效克服图像信息利用不充分和图像之间差异小的影响。
-
公开(公告)号:CN119224103A
公开(公告)日:2024-12-31
申请号:CN202411366485.6
申请日:2024-09-29
Applicant: 华中科技大学
IPC: G01N27/626 , G01N1/38
Abstract: 本发明涉及一种血浆中66种元素的ICP‑MS检测方法,该检测方法包括如下步骤:(1)混合内标溶液的配制;(2)混合标准曲线溶液的配制;(3)绘制66种元素的标准曲线;(4)样品前处理;(5)测定待测样本溶液中66种元素含量。采用本发明的检测方法,上机一次便可同时检测血浆中66种元素的含量,并且检测元素种类多,覆盖面广;进样体积较少,性价比高;前处理过程快速简单;标准曲线优;准确度高;样本基体匹配度佳。
-
公开(公告)号:CN110837835A
公开(公告)日:2020-02-25
申请号:CN201911038568.1
申请日:2019-10-29
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于边界点检测的场景文本端到端识别方法,通过特征金字塔网络提取文本特征,用于区域提取网络生成候选文本框;然后通过多方向矩形检测网络检测文本实例的更为精准的多方向包围盒;其次在多方向包围盒内检测文本的上下两条边界点序列;最后利用检测到的边界点序列将任意形状的文本转化为水平文本供后续的基于注意力机制的序列识别网络进行识别,最后利用集束搜索算法找到给定词典中预测序列的最匹配单词得到最终的文本识别结果。该方法可以在不需要字符级别的标注情况下同时检测和识别自然图像中任意形状的场景文本,包括水平文本、多方向文本和曲形文本,并且可以完全地进行端到端训练。
-
公开(公告)号:CN110837835B
公开(公告)日:2022-11-08
申请号:CN201911038568.1
申请日:2019-10-29
Applicant: 华中科技大学
IPC: G06V30/148 , G06V10/44 , G06V30/18 , G06V10/774 , G06V30/19 , G06V10/764
Abstract: 本发明公开了一种基于边界点检测的场景文本端到端识别方法,通过特征金字塔网络提取文本特征,用于区域提取网络生成候选文本框;然后通过多方向矩形检测网络检测文本实例的更为精准的多方向包围盒;其次在多方向包围盒内检测文本的上下两条边界点序列;最后利用检测到的边界点序列将任意形状的文本转化为水平文本供后续的基于注意力机制的序列识别网络进行识别,最后利用集束搜索算法找到给定词典中预测序列的最匹配单词得到最终的文本识别结果。该方法可以在不需要字符级别的标注情况下同时检测和识别自然图像中任意形状的场景文本,包括水平文本、多方向文本和曲形文本,并且可以完全地进行端到端训练。
-
公开(公告)号:CN110826609A
公开(公告)日:2020-02-21
申请号:CN201911038698.5
申请日:2019-10-29
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于强化学习的双流特征融合图像识别方法,对待检测输入图像,使用两个不同的模型分别得到特征矩阵,然后将两个特征矩阵输入到强化学习模型和融合模型后得到最终的分类分数。两个模型分别是纹理模型和形状模型:纹理模型是根据图像中对象的纹理信息来进行分类,而形状模型根据对象的形状信息来进行分类。两个模型都通过强化学习的方式,让网络在整张图像中寻找最有区分力的区域,然后根据这个区域来进行分类。本方法简单易行,推广能力强,找到易于区分图像的区域,区分性区域合适并有效,充分用图像中的纹理和形状信息,能有效克服图像信息利用不充分和图像之间差异小的影响。
-
-
-
-
-