-
公开(公告)号:CN109977094A
公开(公告)日:2019-07-05
申请号:CN201910091581.7
申请日:2019-01-30
Applicant: 中南大学
Abstract: 本发明公开一种用于结构化数据的半监督学习的方法,构建用于结构化数据的半监督对抗神经网络模型,对原始结构化数据X预处理,将原始数据X的特征划分成类别型特征子集xCT和数值型特征子集xNL;模型判别器的原始输入为{x1,xu,xg},其中x1,xu分别是有标记和无标记样本,xg为生成器生成的样本,x1,xu包含的特征集相同,将样本的类别特征子集xCT输入Embedding layer,得到对应的稠密嵌入向量E(xCT),再与数值型特征子集xNL组合得到具有新特征集的样本E(xCT)+xNL,应用BN技术得到归一化的包含新特征集的样本,将新样本输入判别器进行训练,生成样本xg则直接作为判别器的输入;生成器,由三层全连接网络组成并且每一层的输出都应用BN防止梯度弥散,噪声作为输出,得到拥有特征E(xCT)+xNL的生产样本xg。
-
公开(公告)号:CN109816044A
公开(公告)日:2019-05-28
申请号:CN201910110272.X
申请日:2019-02-11
Applicant: 中南大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于WGAN-GP和过采样的不平衡学习方法,包括:生成器网络,由三层全连接网络组成并且每一层的输出都应用了Batch Normalization(BN)归一化去防止梯度弥散,所述生成器网络由于最终需要产生特定标签的样本,将高斯随机噪声z和样本标签yi∈{0,1}组合成新的向量作为输入,输出样本标签yi对应的生成样本x;同样由三层全连接网络组成的判别器网络,所述判别器网络的输入为样本标签yi以及真实样本或生成样本,输出结果为判断样本是真实的或者为被生成的。本发明能大大减少噪声样本的产生,优化生成少数样本的质量,最终提升原始不平衡数据集上训练的分类器的泛化性能。
-
公开(公告)号:CN106066929B
公开(公告)日:2018-10-02
申请号:CN201610351176.0
申请日:2016-05-25
Applicant: 中南大学
Abstract: 本发明提出一种基于元网络的临床医学对象组织方法,属于临床医学领域。本方法首先要将临床医学中各种实体和对象定义为具有三要素的元数据,构建基本医学对象数据模型;然后,将医学对象相互关系通过元网络建模,通过元网络将医学对象组织形成临床医学对象的整体数据模型;最后,通过基于医学对象组合查询,依据元网络映射,提取一级乃至多级医学数据。本发明适用度高,扩展性强,降低了对医学信息资源的存储、检索和利用的难度,并且对临床医学中的研究也有很大的帮助。
-
公开(公告)号:CN107657605A
公开(公告)日:2018-02-02
申请号:CN201710810756.6
申请日:2017-09-11
Applicant: 中南大学
Abstract: 本发明公开了一种基于主动轮廓和能量约束的筛板前表面深度测量方法,该方法采用基于k均值聚类和主动轮廓的Bruch膜开口点测定方法和基于能量约束的筛板前表面分割方法,首先将k均值聚类的聚类图作为C-V主动轮廓模型的初始轮廓,提取出轮廓中的Bruch膜开口点,再根据开口点的位置得到筛板前表面分割的感兴趣区域,使用能量约束方法分割出筛板前表面,最后根据两个步骤的结构测量出筛板前表面深度。该方法所得结果优于现有的方法,并与专家手工标定结果相一致,能够解决专家在临床诊断时需要手动标定测量筛板前表面深度的费时费力的问题,对青光眼的早期筛查和临床诊断具有积极意义。
-
公开(公告)号:CN105913463A
公开(公告)日:2016-08-31
申请号:CN201610222464.6
申请日:2016-04-11
Applicant: 中南大学
CPC classification number: G06T2207/20221
Abstract: 本发明提供了一种基于位置先验的纹理?颜色特征全局显著性检测方法,该方法以像素点为基本单位,在位置先验的基础上,分别提取图像的颜色特征和纹理特征,通过使用某一区域与整幅图像的对比度来计算该区域的显著值,基于全局对比度进行显著性检测,分别生成对应的颜色显著图和纹理显著图,最后将三幅显著图归一化,融合生成主显著图。该方法生成的显著图可以辨识出显著物体,更加符合人类观察结果,同时提高了精度与召回率,生成的显著图更加清晰,辨识度高。
-
公开(公告)号:CN102496023B
公开(公告)日:2014-08-27
申请号:CN201110377763.4
申请日:2011-11-23
Applicant: 中南大学
Abstract: 本发明公开了一种像素层面的感兴趣区域提取方法,用于降低数据规模,提高图像处理的效率。该方法包括以下几个步骤:利用视觉注意模型得到显著图,并将显著图二值化,获得其中的显著点后将其聚类并针对聚类时出现的问题进行优化;同时将原图像二值化,并通过扫描二值图提取原图像的二值化图轮廓;优化后的聚类点作为种子点填充,然后与原图像掩膜,提取到图像的感兴趣区域。本发明以显著图为基础,以显著图中的像素点,即显著点为目标,提取图像中的感兴趣区域时的运算速度可和显著点的个数成线性关系,且感兴趣区域的漏分率至少降为原来的一半,而误分率无明显增加。
-
公开(公告)号:CN102063623B
公开(公告)日:2012-11-07
申请号:CN201010609931.3
申请日:2010-12-28
Applicant: 中南大学
Abstract: 本发明提出一种结合自底向上和自顶向下的图像感兴趣区域提取方法。该方法采用交互式的方式,由用户将其携带的观察任务等自顶向下信息转换为输入图像底层特征的不同权重值,同时结合Itti-Koch模型和Stentiford模型,吸取两模型优点,实现用户任务与图像视觉刺激相结合的感兴趣区域提取方法。将用户的查询意图以及对图像的理解转换为显著图权重的方式,即通过对底层特征加以相应权重来影响显著图的求解,缩短了用户查询意图与图像底层特征间的鸿沟,提取出来的感兴趣区域更符合用户的要求。对多幅图像的处理结果表明使用该方法提取用户感兴趣区域具有较好的结果。
-
公开(公告)号:CN112418290B
公开(公告)日:2024-03-26
申请号:CN202011288531.7
申请日:2020-11-17
Applicant: 中南大学
IPC: G06V10/764 , G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种实时OCT图像的ROI区域预测方法,包括构建OCT图像的ROI区域初始预测模型;获取历史OCT图像数据并标定;对构造的OCT图像的ROI区域初始预测模型进行训练得到实时OCT图像的ROI区域预测模型;采用得到的实时OCT图像的ROI区域预测模型对获取的实时OCT图像进行处理得到实时OCT图像的ROI区域预测结果。本发明还公开了包括所述实时OCT图像的ROI区域预测方法的显示方法。本发明通过分组卷积的应用,以及对传统模型的修正和优化,实现了实时OCT图像的ROI区域预测,而且可靠性高、准确性高、有效性好且实用性好。
-
公开(公告)号:CN117557868A
公开(公告)日:2024-02-13
申请号:CN202311824326.1
申请日:2023-12-28
Applicant: 中南大学
IPC: G06V10/764 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/084 , G06N3/096 , G06V10/40 , G06V10/74 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于少样本学习的图像分类方法,包括获取现有的训练数据集;构建分类任务模型;设定损失函数并训练分类任务模型,得到初始的教师模型;构建结构与当前教师模型相同的学生模型并随机初始化参数;训练学生模型并将训练后的学生模型作为当前的教师模型;重复上一步骤直至设定次数,获取特征提取器;再次获取训练数据集;构建图像分类初始模型并训练得到图像分类终端模型;修剪图像分类终端模型得到图像分类模型,并采用图像分类模型进行基于少样本学习的图像分类。本发明通过教师模型和学生模型的设计及训练,能够学习更多可迁移知识;通过图像分类模型对图像进行学习,解决了支持‑查询偏移问题;因此本发明可靠性高、精确性好。
-
公开(公告)号:CN117197166A
公开(公告)日:2023-12-08
申请号:CN202311461228.6
申请日:2023-11-06
Applicant: 中南大学
IPC: G06T7/12 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084 , G06T7/00 , G06T7/187 , G06V10/40 , G06V10/80
Abstract: 本发明公开了一种基于边缘和邻域信息的息肉图像分割方法,包括获取息肉图像数据信息并标注;进行息肉边缘提取和息肉邻域提取得到息肉区域边缘标签和息肉区域邻域标签;进行随机数据增强得到训练数据集;构建得到息肉图像分割初始模型并采用训练数据集训练得到息肉图像分割模型;采用息肉图像分割模型进行实际的息肉图像分割。本发明还公开了一种包括所述基于边缘和邻域信息的息肉图像分割方法的系统。本发明不仅能够实现息肉图像的分割,而且分割准确性更好,分割边缘更加清晰,可靠性更高,精确性更好,分割效果更好。
-
-
-
-
-
-
-
-
-