一种半监督医学图像分割方法

    公开(公告)号:CN117058156B

    公开(公告)日:2024-10-29

    申请号:CN202310731105.3

    申请日:2023-06-20

    Applicant: 苏州大学

    Abstract: 本发明涉及一种半监督医学图像分割方法,包括:通过输入数据对学生模型和教师模型训练,计算学生模型的监督损失和教师模型的确定性图;通过确定性图获得权重图,根据权重图计算教师模型监督学生模型的概率图;通过学生模型的监督损失、学生模型的预测概率图和教师模型监督学生模型的概率图计算一致性损失,获得优化的学生模型;通过学生模型的参数和教师模型的参数,更新教师模型;本发明实现了使用加权集成策略提高教师模型预测质量,促使学生模型可以从可靠的知识中学习;使用空间注意力机制增强分割网络特征表示能力,产生高质量的分割结果。

    基于多特征融合的视频描述方法

    公开(公告)号:CN107256221B

    公开(公告)日:2020-11-03

    申请号:CN201710281305.8

    申请日:2017-04-26

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于多特征融合的视频描述方法,其特征在于:1)通过融合传统CNN特征和SIFT流特征提取视频的深层时空特征;2)根据步骤1)提取的深层时空特征,采用加入以平均池化特征作为视频整体特征的S2VT句子生成模型生成相应的句子描述;3)采用word2vec词向量替换one‑hot vector词表征优化步骤2)中的句子生成模型。本方法优点是通过多特征融合,能更好地提取到更加鲁棒的时空特征,同时在句子生成模型中加入平均池化特征,以便视觉信息与单词间建立更多联系,最后采用word2vec词向量方法替换one‑hot vector词表征,在单词与单词之间建立更多的联系,有效提高视频描述性能。

    基于指称理解的视频安防检测方法

    公开(公告)号:CN110390289A

    公开(公告)日:2019-10-29

    申请号:CN201910647022.X

    申请日:2019-07-17

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于指称理解的视频安防检测方法,其特征在于,包括以下步骤:获取待处理的视频中的图像帧数据及待检测目标的指称数据;由语言注意力模块、基于协同注意力的主语模块、位置模块和基于视觉上下文的关系模块4个部分构成指称理解系统;对图像帧数据采用实例分割模型检测出候选目标,获得一个或多个候选目标区域;对指称数据采用语言注意力模块处理,分别映射获得视觉主语表达、位置表达和关系表达,并确定各表达的权重;分别用基于协同注意力的主语模块、位置模块和基于视觉上下文的关系模块进行相似度匹配打分,利用加权方式融合得到相似度得分,得分最高的区域判断为目标区域。本发明用于视频安防检测,提高了目标检测的准确性,尤其适用于具有多人物视频图像的识别。

    一种彩色图像中显著对象的自动抠取方法

    公开(公告)号:CN102968782B

    公开(公告)日:2015-08-19

    申请号:CN201210336043.8

    申请日:2012-09-12

    Applicant: 苏州大学

    Abstract: 本发明公开了一种彩色图像中显著对象的自动抠取方法,其特征在于,将图像从RGB颜色空间变换至HSV颜色空间,从色调、亮度以及暖色增益三个方面计算目标的显著性;根据显著度图,获得包围显著区域的矩形框,并进行矩形框扩展,扩展后的矩形框包围的图像作为后续处理的图像;用改进的分水岭算法对输入图像内容进行预分割,以预分割后的形成的超级像素子区域代替像素点构造图切分的赋权图,采用最大流-最小切策略进行分割,直至能量函数收敛,获得切割后的图像。本发明提供了一种自动的抠像技术,可以快速有效地抠取场景中的显著物体,在抠像效率、质量等方面有显著性的提高。

    基于超像素的Codebook动态场景中目标检测方法

    公开(公告)号:CN103578119A

    公开(公告)日:2014-02-12

    申请号:CN201310534301.8

    申请日:2013-10-31

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于超像素的Codebook动态场景中目标检测方法,其特征在于,包括以下步骤:(1)采用的超像素分割方法对视频帧进行分割,分割成K个超像素;(2)采用Codebook背景建模法,为步骤(1)中分割出来的每一个超像素建立一个Codebook,每个Codebook包括一个或几个Codeword,每个Codeword有它的学习时最大最小阈值,检测时的最大最小阈值,完成背景建模;(3)背景建模完成后,对当前进入的视频帧进行目标检测,如果当前帧的某个超像素值符合该背景像素值的分布,就标记为背景,否则标记为前景;最后,用当前的视频帧更新背景模型。本发明解决传统Codebook背景建模算法计算量和内存需求大,并且构建的Codewords不准确等问题,提高目标检测的准确度和速度,使其达到实时准确的要求,从而满足现实生活中智能监控的需求。

    一种文档主题的在线追踪方法

    公开(公告)号:CN103345474A

    公开(公告)日:2013-10-09

    申请号:CN201310223574.0

    申请日:2013-07-25

    Applicant: 苏州大学

    Abstract: 本发明公开了一种文档主题的在线追踪方法,包括如下步骤:首先对数据进行预处理,主要是将数据切分成若干独立段,然后逐段训练以解决内存不足的问题;对数据在主题模型上采用在线学习算法进行训练,其中每段的训练均权重依赖已经训练得到的结果;最后,对每段训练得到的结果进行主题演变分析,对相应的主题进行追踪。本发明采用在线学习算法训练模型的精度和速度都很高,有效的解决了主题模型训练中的一些不足,在海量数据和数据流中表现出较好的鲁棒性。

    用于脱机手写汉字识别的汉字字符切分方法

    公开(公告)号:CN102496013B

    公开(公告)日:2013-08-21

    申请号:CN201110357395.7

    申请日:2011-11-11

    Applicant: 苏州大学

    Abstract: 本发明公开了一种用于脱机手写汉字识别的汉字字符切分方法,其特征在于,包括下列步骤:(1)对待识别的汉字图像进行预处理,所述预处理包括对图像进行二值化处理;(2)基于投影分析对汉字图像进行粗分割,将非粘连的字符分割成单个字符,将粘连的字符整体分割;(3)获得非粘连字符的平均高度;(4)根据步骤(3)获得的非粘连字符的平均高度,对步骤(2)分割后的字符进行判断,得到粘连字符串集;(5)对于粘连字符串集中的每一粘连字符串,基于最小加权分割路径进行细切分,实现粘连字符的切分。本发明可以有效地自适应分割粘连汉字字符和非粘连汉字字符,具有较高的分割准确率和分割效率。

    基于显著区域稀疏表示的语义层次模型图像分类管理方法

    公开(公告)号:CN103246688A

    公开(公告)日:2013-08-14

    申请号:CN201210504852.5

    申请日:2012-12-03

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于显著区域稀疏表示的语义层次模型图像分类管理方法,所建立的模型可以从自底向上和自顶向下两个通道有效模拟人类分类管理图像的思维模式。本发明将显著检测模型融入图像管理模型的构建过程中:首先在图像显著区域的基础上,构建层次语义标注树HSLT;然后将HSLT用于对图像进行层次语义标注,从而获得对图像高层语义的认知;最后以层次语义标注信息为依据,建立图像层次管理模型。本发明符合人们管理图像的基本理念,按照语义信息有效的组织管理图像,比较形象的模拟人们管理存放图像的过程,减少了人力、物力和时间等消耗,具有重要的现实意义。

    一种彩色图像中显著对象的自动抠取方法

    公开(公告)号:CN102968782A

    公开(公告)日:2013-03-13

    申请号:CN201210336043.8

    申请日:2012-09-12

    Applicant: 苏州大学

    Abstract: 本发明公开了一种彩色图像中显著对象的自动抠取方法,其特征在于,将图像从RGB颜色空间变换至HSV颜色空间,从色调、亮度以及暖色增益三个方面计算目标的显著性;根据显著度图,获得包围显著区域的矩形框,并进行矩形框扩展,扩展后的矩形框包围的图像作为后续处理的图像;用改进的分水岭算法对输入图像内容进行预分割,以预分割后的形成的超级像素子区域代替像素点构造图切分的赋权图,采用最大流-最小切策略进行分割,直至能量函数收敛,获得切割后的图像。本发明提供了一种自动的抠像技术,可以快速有效地抠取场景中的显著物体,在抠像效率、质量等方面有显著性的提高。

Patent Agency Ranking