一种基于脉冲群智能算法并结合STFT-PSD和PCA的癫痫时期分类方法

    公开(公告)号:CN110680313B

    公开(公告)日:2022-07-15

    申请号:CN201910940945.4

    申请日:2019-09-30

    Abstract: 本文公开了一种癫痫时期特征提取及分类方法。首先,对原始的癫痫脑电数据进行随机打乱预处理,并分别划分4折的训练集和测试集。其次,采用结合方法对预处理后的数据提取特征,一方面,通过WPT或STFT‑PSD提取非线性的时频特征,然后,在得到的时频特征上再结合PCA算法提取脑电数据的主成分特征,并消除噪声和冗余特征,并作为特征提取的最终特征。最后,采用脉冲神经网络对提取的特征做分类分析,脉冲神经网络算法不仅考虑个体互助和信息交互,拥有很强的鲁棒性;并且它模拟的神经元更加接近大脑中真实的神经元,考虑更多的时间信息,拥有更强的计算能力。

    基于多源显著性和时空榜样适配的弱监督视频目标分割方法

    公开(公告)号:CN113283438A

    公开(公告)日:2021-08-20

    申请号:CN202110322786.9

    申请日:2021-03-25

    Abstract: 本发明公开了一种基于多源显著性和时空榜样适配的弱监督视频目标分割方法,属于特征学习和视频目标分割技术领域。该方法首先提取当前视频帧的空间显著性掩码和时间显著性掩码。训练多源显著融合网络对两者进行融合,得到时空显著掩码。随后计算时空契合度并将其进行排序;选择前N个时空契合度结果对应的视频帧作为时空榜样信息。将时空显著掩码作为分割目标伪标签,时空榜样结果作为适配目标,协同优化分割损失和时空榜样适配损失训练目标分割网络。本发明以学习的方法有效融合时空显著性先验知识,通过榜样适配机制提供可靠指导信息,使神经网络学习到相同类别视频中的一致性目标特征,在弱监督视频目标分割任务上取得了更加优秀的效果。

    基于局部全局记忆机制的非监督视频目标分割方法

    公开(公告)号:CN113269021A

    公开(公告)日:2021-08-17

    申请号:CN202110293554.5

    申请日:2021-03-18

    Abstract: 本发明公开了一种基于局部全局记忆机制的非监督视频目标分割方法,属于特征学习和视频目标分割技术领域。该方法首先提取一对相同视频的嵌入特征。然后选择该视频中的全局记忆候选帧,提取全局记忆候选特征。每个全局记忆候选特征对应图卷积网络对应的每个节点,增强后的全局记忆特征表达。通过局部记忆模块提取一对帧之间的互注意力信息,交替看作注意力机制中的目标和查找角色来互注意增强。最后经过解码器得到预测的目标掩码,使用交叉熵损失计算损失并更新整个模型从而得到最终分割网络。本发明同时考虑局部和全局记忆机制,同时获得可靠的短时与长时的视频帧间相关性信息,从而实现非监督视频目标分割。

    一种基于基线估计的藏文历史文献文本行切分方法

    公开(公告)号:CN107730511B

    公开(公告)日:2020-10-27

    申请号:CN201710849135.9

    申请日:2017-09-20

    Inventor: 段立娟 李颜兴

    Abstract: 本发明涉及一种对藏文历史文献文本行切分的方法。通过提取藏文历史文献的左侧部分图像,去除藏文元音音节点和某些突出的笔画,获取藏文文本行基线的起始位置信息以及文本行数;根据基线的起始位置,自左向右建立基线,在基线建立的过程中需要根据周围点的像素值动态调整基线;利用估计好的基线,采用连通区域分析法,从两基线之间确定粘连区域的位置并进行切分,最终分离出文本行。本发明提出的一种基于基线估计的藏文历史文献文本行切分方法更加适用于藏文历史文献文本行的切分,比传统的基于投影切分的技术切分精确度高。比起只使用基于投影切分的方式,本发明方法的切分出来的文本行正确率更高。

    一种基于多模态自适应卷积的RGB-D图像语义分割方法

    公开(公告)号:CN111340814A

    公开(公告)日:2020-06-26

    申请号:CN202010139232.0

    申请日:2020-03-03

    Abstract: 本发明涉及一种基于多模态自适应卷积的RGB-D图像语义分割方法,包括:编码模块分别提取RGB图像特征和深度图像特征;将RGB特征和深度特征送入融合模块进行融合;其中,首先将多模态特征输入多模态自适应卷积生成模块,计算出两个不同尺度的多模态自适应卷积核;然后,多模态特征融合模块将RGB特征和深度特征分别与自适应卷积核进行深度可分离卷积运算,得到自适应卷积融合特征;将其与RGB特征和深度特征拼接起来得到最终融合特征;解码模块对最终融合特征连续上采样,经过卷积操作得到语义分割结果;本发明使得多模态特征通过自适应卷积协同交互,其卷积核参数根据输入的多模态图像动态调整,相比传统固定参数的卷积核更加灵活。

    一种基于核超限学习机的多模融合视频情感识别方法

    公开(公告)号:CN105512609B

    公开(公告)日:2019-04-12

    申请号:CN201510829902.0

    申请日:2015-11-25

    Inventor: 段立娟 葛卉 杨震

    Abstract: 本发明涉及一种基于核超限学习机的多模融合视频情感识别方法,对视频的图像信息和音频信息进行特征提取、特征选择,从而获得视频特征;将采集的多通道脑电信号进行预处理、特征提取、特征选择,从而获得脑电特征;建立基于核超限学习机的多模融合视频情感识别模型;将视频特征和脑电特征输入到基于核超限学习机的多模融合视频情感识别模型中进行视频情感识别,得出最终的分类正确率。本发明利用基于核超限学习机的多模融合视频情感识别模型,操作简单,识别速度快,对于三类视频情感数据分类正确率高。利用视频和脑电这两种模态的数据,使得描述视频内容更完整,比起利用单模进行视频情感识别,本发明方法的分类正确率更高。

    一种多特征融合的图像检索方法

    公开(公告)号:CN105138672B

    公开(公告)日:2018-08-21

    申请号:CN201510564819.5

    申请日:2015-09-07

    Abstract: 本发明公开了一种多特征融合的图像检索方法,其包括,步骤一、输入待检索图像I;步骤二、构建图像I的颜色特征向量和SIFT特征向量;步骤三,训练查询图库中的图像获得颜色特征词典和SIFT特征词典,用所述视觉单词表示图库中的图像;步骤四、用所述视觉单词表示所述图像I,根据所述视觉单词从所述查询图库中调取候选图像集Q,计算相似度值score(Q,I);步骤五、选取所述图像I中具有视觉显著性的局部区域Si并重复步骤三和步骤四获得候选图像集K,计算相似度值scoresal(K,I);步骤六、两个候选融合集的重叠图像集为D,融合scoresal(D,I)和score(D,I)计算最终相似性值score*(D,I);步骤七、中最终相似性值最高的图像作为所述待图像I的检索结果。本发明具有降低了图像噪声,提高检索准确性的优点。

    一种基于超混沌系统像素信息关联的图像加密方法

    公开(公告)号:CN107819580A

    公开(公告)日:2018-03-20

    申请号:CN201711166945.0

    申请日:2017-11-21

    Abstract: 本发明公开了一种基于超混沌系统像素信息关联的图像加密方法,采用图像扩散加密、图像置乱加密、图像扩散加密的三级加密结构,三级加密结构中的各级加密密钥由超混沌系统产生的不同混沌序列、图像的整体信息及像素点的信息动态生成;超混沌系统产生的x混沌序列和明文图像像素点的位置信息产生动态密钥用于第一次图像扩散加密;图像置乱加密的密钥由超混沌系统的y、z混沌序列、扩散加密密文的整体信息、扩散加密密文的数据信息三部分共同产生;混沌序列w和置乱加密密文像素点的位置信息生成第二次图像扩散加密的动态密钥。本发明具有明文敏感性高、密钥空间大、密文信息熵高的特点。

Patent Agency Ranking