基于超像素的Codebook动态场景中目标检测方法

    公开(公告)号:CN103578119A

    公开(公告)日:2014-02-12

    申请号:CN201310534301.8

    申请日:2013-10-31

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于超像素的Codebook动态场景中目标检测方法,其特征在于,包括以下步骤:(1)采用的超像素分割方法对视频帧进行分割,分割成K个超像素;(2)采用Codebook背景建模法,为步骤(1)中分割出来的每一个超像素建立一个Codebook,每个Codebook包括一个或几个Codeword,每个Codeword有它的学习时最大最小阈值,检测时的最大最小阈值,完成背景建模;(3)背景建模完成后,对当前进入的视频帧进行目标检测,如果当前帧的某个超像素值符合该背景像素值的分布,就标记为背景,否则标记为前景;最后,用当前的视频帧更新背景模型。本发明解决传统Codebook背景建模算法计算量和内存需求大,并且构建的Codewords不准确等问题,提高目标检测的准确度和速度,使其达到实时准确的要求,从而满足现实生活中智能监控的需求。

    基于非清晰区域抑制的多特征融合显著区域提取方法

    公开(公告)号:CN102521592A

    公开(公告)日:2012-06-27

    申请号:CN201110390185.8

    申请日:2011-11-30

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于非清晰区域抑制的多特征融合显著区域提取方法,首先输入待处理的源图像,再进行如下处理:(1)预处理;(2)对经过预处理的图像进行低层特征提取,获得空间显著图和频域显著图;(3)对经过预处理的图像进行高层语义特征提取,获得人脸显著图;(4)对步骤(2)和步骤(3)获得的空间显著图、频域显著图和人脸显著图进行中心聚集化操作,获得综合显著图;(5)根据综合显著图对待处理的源图像进行分割处理,提取出显著区域。本发明解决了传统的显著区域检测方法中存在的对大尺度目标图像检测内容缺失问题和对背景复杂图像情况下检测的误检问题,是一种准确度更高的显著区域检测方法。

    一种半监督医学图像分割方法

    公开(公告)号:CN117058156B

    公开(公告)日:2024-10-29

    申请号:CN202310731105.3

    申请日:2023-06-20

    Applicant: 苏州大学

    Abstract: 本发明涉及一种半监督医学图像分割方法,包括:通过输入数据对学生模型和教师模型训练,计算学生模型的监督损失和教师模型的确定性图;通过确定性图获得权重图,根据权重图计算教师模型监督学生模型的概率图;通过学生模型的监督损失、学生模型的预测概率图和教师模型监督学生模型的概率图计算一致性损失,获得优化的学生模型;通过学生模型的参数和教师模型的参数,更新教师模型;本发明实现了使用加权集成策略提高教师模型预测质量,促使学生模型可以从可靠的知识中学习;使用空间注意力机制增强分割网络特征表示能力,产生高质量的分割结果。

    基于指称理解的视频安防检测方法

    公开(公告)号:CN110390289A

    公开(公告)日:2019-10-29

    申请号:CN201910647022.X

    申请日:2019-07-17

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于指称理解的视频安防检测方法,其特征在于,包括以下步骤:获取待处理的视频中的图像帧数据及待检测目标的指称数据;由语言注意力模块、基于协同注意力的主语模块、位置模块和基于视觉上下文的关系模块4个部分构成指称理解系统;对图像帧数据采用实例分割模型检测出候选目标,获得一个或多个候选目标区域;对指称数据采用语言注意力模块处理,分别映射获得视觉主语表达、位置表达和关系表达,并确定各表达的权重;分别用基于协同注意力的主语模块、位置模块和基于视觉上下文的关系模块进行相似度匹配打分,利用加权方式融合得到相似度得分,得分最高的区域判断为目标区域。本发明用于视频安防检测,提高了目标检测的准确性,尤其适用于具有多人物视频图像的识别。

    基于非清晰区域抑制的多特征融合显著区域提取方法

    公开(公告)号:CN102521592B

    公开(公告)日:2013-06-12

    申请号:CN201110390185.8

    申请日:2011-11-30

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于非清晰区域抑制的多特征融合显著区域提取方法,首先输入待处理的源图像,再进行如下处理:(1)预处理;(2)对经过预处理的图像进行低层特征提取,获得空间显著图和频域显著图;(3)对经过预处理的图像进行高层语义特征提取,获得人脸显著图;(4)对步骤(2)和步骤(3)获得的空间显著图、频域显著图和人脸显著图进行中心聚集化操作,获得综合显著图;(5)根据综合显著图对待处理的源图像进行分割处理,提取出显著区域。本发明解决了传统的显著区域检测方法中存在的对大尺度目标图像检测内容缺失问题和对背景复杂图像情况下检测的误检问题,是一种准确度更高的显著区域检测方法。

    一种半监督医学图像分割方法
    6.
    发明公开

    公开(公告)号:CN117058156A

    公开(公告)日:2023-11-14

    申请号:CN202310731105.3

    申请日:2023-06-20

    Applicant: 苏州大学

    Abstract: 本发明涉及一种半监督医学图像分割方法,包括:通过输入数据对学生模型和教师模型训练,计算学生模型的监督损失和教师模型的确定性图;通过确定性图获得权重图,根据权重图计算教师模型监督学生模型的概率图;通过学生模型的监督损失、学生模型的预测概率图和教师模型监督学生模型的概率图计算一致性损失,获得优化的学生模型;通过学生模型的参数和教师模型的参数,更新教师模型;本发明实现了使用加权集成策略提高教师模型预测质量,促使学生模型可以从可靠的知识中学习;使用空间注意力机制增强分割网络特征表示能力,产生高质量的分割结果。

    一种基于主题模型的动态场景分类方法

    公开(公告)号:CN104268546A

    公开(公告)日:2015-01-07

    申请号:CN201410229426.4

    申请日:2014-05-28

    Applicant: 苏州大学

    CPC classification number: G06K9/00765 G06K9/6212

    Abstract: 本发明公开了一种基于主题模型的动态场景分类方法,其特征在于,包括以下步骤:(1)利用SIFT特征对图像进行局部描述,生成原始图像对应的SIFT特征图,经过时间的变化,原始图像对应的特征之间就会有相对位置上的变化,这种变化构成了流场,形成了动态视频SIFT流;(2)对动态视频SIFT流场图像进行均匀分块,分为网格对每一个分块按SIFT流的方向量化为8个柄的直方图,形成72维特征矢量,利用K-mean聚类形成为视觉单词;(3)引入单词先验信息扩展原始TMBP模型,并将原始TMBP模型和Konwledge-TMBP模型利用量化后的视觉单词建模,得到场景分类的结果。利用SIFT流信息描述动态场景中的动态信息生成视觉单词,并考虑视觉单词对表达主题是否有意义的问题,在主题模型的推理中加入视觉单词的权重,从而达到提高动态场景的分类速度与精度的目的。

    确的要求,从而满足现实生活中智能监控的需基于超像素的Codebook动态场景中目标检 求。测方法

    公开(公告)号:CN103578119B

    公开(公告)日:2017-02-15

    申请号:CN201310534301.8

    申请日:2013-10-31

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于超像素的Codebook动态场景中目标检测方法,其特征在于,包括以下步骤:(1)采用的超像素分割方法对视频帧进行分割,分割成K个超像素;(2)采用Codebook背景建模法,为步骤(1)中分割出来的每一个超像素建立一个Codebook,每个Codebook包括一个或几个Codeword,每个Codeword有它的学习时最大最小阈值,检测时的最大最小阈值,完成背景建模(;3)背景建模完成后,对当前进入的视频帧进行目标检测,如果当前帧的某个超像素值符合该背景像素值的分布,就标记为背景,否则标记为前景;最后,用当前的视频帧更新背景模型。本发明解决传统Codebook背景建模算法计算量和内存需求大,并且构建的Codewords不准确等问题,提高目标检测的准确度和速度,使其达到实时准

Patent Agency Ranking