-
公开(公告)号:CN118397273A
公开(公告)日:2024-07-26
申请号:CN202410500141.3
申请日:2024-04-24
Applicant: 西安电子科技大学
Abstract: 本发明涉及一种基于边界感知的多尺度共享网络的息肉图像分割方法,包括:构建边界感知的多尺度共享网络;将训练息肉图像输入边界感知的多尺度共享网络,以对边界感知的多尺度共享网络进行训练;将待分割息肉图像输入至训练完成的边界感知的多尺度共享网络,得到待分割息肉图像的分割结果。本发明方法利用提出的边界感知的多尺度共享网络对待分割息肉图像进行分割,在进行息肉图像分割时,在考虑不同级别特征对网络产生的影响的同时充分增强边界细节以准确分割息肉,综合考虑分层特征在网络中的贡献,获取全局信息生成特征图作为后续步骤的初始引导,对多方息肉特征信息以及息肉边界的上下文信息进行充分捕获以提高分割性能。
-
公开(公告)号:CN106023120B
公开(公告)日:2019-06-21
申请号:CN201610224500.2
申请日:2016-04-12
Applicant: 西安电子科技大学
IPC: G06T5/50
Abstract: 本发明公开了一种基于耦合近邻索引的人脸画像合成方法,主要解决现有方法在近邻选择时没有考虑训练画像作用的问题。其实现步骤是:1.划分训练画像样本集、训练照片样本集和测试样本集;2.将所有图像划分成图像块,并组成块集合;3.将训练照片块集合与对应的画像块集合划分为多个子集;4.建立训练照片块子集和训练画像块子集中每一对照片‑画像块到其K近邻对的索引;5.寻找每一测试照片块的最近邻,进而得到其K近邻;6.利用马尔科夫权重网络求解重构权值;7.求解待合成画像块;8.迭代执行步骤5‑7共N次,融合得到最终的合成画像。与现有技术相比,本发明合成画像清晰度高、细节更完整,可用于人脸检索与识别。
-
公开(公告)号:CN106023079B
公开(公告)日:2019-05-24
申请号:CN201610333375.9
申请日:2016-05-19
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种联合局部与全局特性的两阶段人脸画像生成方法。其步骤为:(1)划分样本;(2)划分图像块;(3)划分图像块子集;(4)生成初始合成画像块;(5)生成最终合成画像块;(6)合成画像。本发明采用了分阶段的方法,第一阶段将样本块划分为具有全局性的多个子集,在子集内合成初始画像块,第二阶段将样本块划分为具有局部性的多个子集,在子集内合成最终画像块,能合成背景干净且细节清晰的高质量画像。本发明仅使用简单的K均值聚类与样本块位置信息划分样本块集合,使用简单映射生合成画像,极大的提升了合成画像速度。
-
公开(公告)号:CN106023120A
公开(公告)日:2016-10-12
申请号:CN201610224500.2
申请日:2016-04-12
Applicant: 西安电子科技大学
IPC: G06T5/50
CPC classification number: G06T5/50 , G06T2207/10004 , G06T2207/20021 , G06T2207/20081 , G06T2207/20221
Abstract: 本发明公开了一种基于耦合近邻索引的人脸画像合成方法,主要解决现有方法在近邻选择时没有考虑训练画像作用的问题。其实现步骤是:1.划分训练画像样本集、训练照片样本集和测试样本集;2.将所有图像划分成图像块,并组成块集合;3.将训练照片块集合与对应的画像块集合划分为多个子集;4.建立训练照片块子集和训练画像块子集中每一对照片‑画像块到其K近邻对的索引;5.寻找每一测试照片块的最近邻,进而得到其K近邻;6.利用马尔科夫权重网络求解重构权值;7.求解待合成画像块;8.迭代执行步骤5‑7共N次,融合得到最终的合成画像。与现有技术相比,本发明合成画像清晰度高、细节更完整,可用于人脸检索与识别。
-
公开(公告)号:CN115951783A
公开(公告)日:2023-04-11
申请号:CN202310055231.1
申请日:2023-02-04
Applicant: 西安电子科技大学
IPC: G06F3/01 , G06V40/20 , G06V20/40 , G06V10/764
Abstract: 本发明一种基于手势识别的计算机人机交互方法,使用选择配置惯用手势信息;按照系统提示和自身习惯分别作出不同动作的手势,并拍摄记录每帧图像中每个手势的信息,开启计算机摄像头,获取视频流;对视频流中的每一帧图像进行亮度和对比度增强;获取增强后的图像中的手部关键点坐标;根据手部关键点坐标,对实时视频进行多尺度距离统一映射,消除因手部与摄像头的距离造成的图像中手部关键点之间的距离误差;根据多尺度距离统一映射后的手部关键点坐标对手势进行分类,每个可识别的分类手势对应人机交互的一种设定操作;根据分类结果进行相应操作。本发明具有轻量级、低门槛、多功能、高实时性的特点。
-
公开(公告)号:CN109035318B
公开(公告)日:2021-11-30
申请号:CN201810615516.5
申请日:2018-06-14
Applicant: 西安电子科技大学
Abstract: 本发明涉及一种图像风格的转换方法,包括:获取风格图像和内容图像;通过所述风格图像获取流派内嵌表示空间;根据所述风格图像的风格深度特征和所述内容图像的内容深度特征获取流派风格化表示空间;根据所述流派内嵌表示空间和所述流派风格化表示空间对所述内容图像进行风格转换。本发明由于采用构建流派内嵌表示空间,将现有方法转换单张图像风格的变为转换为一种根据流派进行风格转换的方式,不仅转换了风格图像的颜色与纹理,同时还根据内容图像和风格图像之间语义信息的对应关系进行转换,使得转换后的图像更具有艺术意义。
-
公开(公告)号:CN107392213B
公开(公告)日:2020-04-07
申请号:CN201710602696.9
申请日:2017-07-21
Applicant: 西安电子科技大学
Abstract: 一种基于深度图模型特征学习的人脸画像合成方法。其步骤为:(1)生成样本集合;(2)生成图像块集合;(3)提取深度特征;(4)求解人脸画像重构块系数;(5)重构人脸画像块;(6)合成人脸画像。本发明使用深度卷积网络提取人脸照片块的深度特征,利用马尔科夫图模型求解深度特征图系数与人脸画像块重构系数,使用人脸画像块重构系数对人脸画像块加权求和得到重构人脸画像块,拼接重构人脸画像块得到合成人脸画像。本发明使用从深度卷积网络中提取的深度特征来代替图像块的原始像素值信息,对光照等环境噪声具有更好的鲁棒性,能合成质量极高的人脸画像。
-
公开(公告)号:CN108154133A
公开(公告)日:2018-06-12
申请号:CN201810023591.2
申请日:2018-01-10
Applicant: 西安电子科技大学
Abstract: 一种基于非对称联合学习的人脸画像-照片识别方法。其步骤为:(1)获得训练样本集和测试样本集;(2)划分样本子集;(3)获得训练伪样本集;(4)构建非对称特征矩阵;(5)计算非对称联合学习矩阵;(6)计算画像样本与照片样本的相似度值;(7)得到识别结果。本发明使用深度卷积网络提取样本的深度特征向量,利用非对称特征矩阵计算非对称联合学习矩阵,使用非对称联合学习矩阵计算画像与照片的相似度,找出与画像相似度最大的照片作为识别结果。本发明将训练伪样本集加入训练过程,并使用非对称联合学习方法增加类内信息,能准确地识别出画像对应的照片。
-
公开(公告)号:CN116385097A
公开(公告)日:2023-07-04
申请号:CN202310168265.1
申请日:2023-02-24
Applicant: 西安电子科技大学
IPC: G06Q30/0601 , G06F18/25 , G06N3/048
Abstract: 本发明公开了一种基于注意力网络的商品类别推荐方法及系统,该方法包括:获取用户历史购买记录、商品类别以及上下文信息;利用基于多通道Transformer架构的ICRec类别推荐模型实现商品类别推荐;其中,ICRec类别推荐模型包括编码器、解码器和合成器;编码器基于多头注意力机制和生命周期注意力机制对用户历史购买记录进行编码,得到编码序列;解码器基于商品类别从编码序列中提取目标类别的个性化特征;合成器将个性化特征与上下文信息进行融合,并预测用户对不同类别商品的购买概率,从而对用户进行商品类别推荐。该方法能够准确的探索出不同类别商品的生命周期规则,从而能在适当的购买周期时间点为客户进行推荐,提升了系统的推荐性能和用户购物体验。
-
公开(公告)号:CN114565757A
公开(公告)日:2022-05-31
申请号:CN202210145456.1
申请日:2022-02-17
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种应用于复杂场景下的语义分割网络模型,采用空洞变换特征金字塔模块与阶段性特征注意力模块组成软加权多阶段特征网络,其中,空洞变换特征金字塔模块,利用空洞空间金字塔池化和自适应变换函数分别作为模块中深层与浅层阶段性特征的变换函数,扩大网络整体的感受野更好的提取大尺度目标的特征和全局信息;阶段性特征注意力模块,用于在不同阶段的特征上提取对多尺度目标的不同关注程度,从而有效地保存了不同阶段具有辨识度的特征。空洞变换特征金字塔模块相比于特征金字塔模块能从多阶段更好的提取尺度差异过大的目标特征。阶段性特征注意力模块能在不同阶段的特征上提取对多尺度目标的不同关注程度。
-
-
-
-
-
-
-
-
-