-
公开(公告)号:CN105303542A
公开(公告)日:2016-02-03
申请号:CN201510604419.2
申请日:2015-09-22
Applicant: 西北工业大学
Abstract: 本发明提供了一种基于梯度加权的自适应SFIM图像融合算法,首先求解全色图像的梯度,然后使用梯度的统计信息确定自适应的滤波窗口大小;同时利用图像像素点的梯度值构建加权滤波器,进而使用该滤波器获得滤波图像;最后使用SFIM算法的融合方法融合图像。本发明比原始的SFIM算法中均值滤波器的设计更合理,整体质量较高,在空间分辨率提高和光谱信息保持两个方面达到更好的平衡,主观评价和客观分析结果能够达到一致,而且在光谱信息保持和空间信息提高方面都优于his_dwt算法,得到的融合图像可视性更好,图片更清晰。
-
公开(公告)号:CN103971116A
公开(公告)日:2014-08-06
申请号:CN201410166147.8
申请日:2014-04-24
Applicant: 西北工业大学 , 西安云望电子科技有限公司
IPC: G06K9/60
Abstract: 本发明公开了一种基于Kinect的感兴趣区域检测方法,用于解决现有基于改进显著图模型的感兴趣区域检测方法准确度差的技术问题。技术方案是利用Kinect3D摄像头获取二维RGB图像和深度信息;在此基础上,利用RGB图像提取多种视觉特征并构建多尺度视觉特征图;然后,将特征图与深度图进行融合生成显著图,并利用胜者全取策略生成二值显著图;最后,对二值显著图进行膨胀处理,检测出最终的感兴趣区域。本发明利用Kinect摄像头生成的RGB-D格式的3D图像即可检测出与人眼感知结果一致的感兴趣区域。在相同条件下利用本发明方法自动检测出感兴趣区域的吻合率由背景技术的82.5%提高到91.2%,提高了8.7%。
-
公开(公告)号:CN116188791B
公开(公告)日:2025-04-04
申请号:CN202310136169.9
申请日:2023-02-20
Applicant: 西北工业大学
IPC: G06V10/40 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/08
Abstract: 本发明涉及一种基于双边特征金字塔网络与多尺度鉴别的本质图像分解方法,将两个并行的生成对抗网络作为主体网络,分别对反射图和光照图进行重构。针对生成网络,提出了局部分频特征融合的策略,分别实现对高频反射特征和低频光照特征的选择和保留。同时,在鉴别器中加入了多尺度的自适应组合模块,对多尺度特征的贡献进行自适应评估,强化鉴别效果并提升生成效果。本发明方法在多种数据集上都表现优异,在MPI‑Sintel数据集中,本发明相比其他方法的最优结果的重构均方误差降低了13.26%;在ShapeNet数据集中,本发明相比其他方法的最优结果的重构均方误差降低了26.09%。
-
公开(公告)号:CN119130831A
公开(公告)日:2024-12-13
申请号:CN202411197507.0
申请日:2024-08-29
Applicant: 西北工业大学
IPC: G06T5/60 , G06V10/26 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0475 , G06N3/094 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了基于多注意力和生成式对抗网络的眼底图像增强方法。该方法包括:获取若干个眼底视网膜图像;将若干个眼底视网膜图像按照预设比例进行划分,得到若干个眼底视网膜图像的训练集和测试集;将若干个眼底视网膜图像的训练集和测试集输入至预构建的图像增强网络中,对预构建的图像增强网络进行训练和测试,得到训练成功的图像增强网络。本发明解决了低质量图像的图像增强方法中,现有的基于深度学习的图像增强方法对于由镜片上灰尘颗粒产生视网膜伪影以及血管、视杯视盘等生理结构的处理精度低和效果差的技术问题。
-
公开(公告)号:CN118628730A
公开(公告)日:2024-09-10
申请号:CN202410508220.9
申请日:2024-04-25
Applicant: 西北工业大学
IPC: G06V10/26 , G06V10/25 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464
Abstract: 本发明涉及一种基于局部感知的遮挡目标检测的网络及目标检测方法,在特征层面提出了局部感知模块,通过多个局部感知分支探索出多个局部区域并使用随机丢弃策略迫使其它分支学习突出特征中的重要局部信息。考虑到检测器可能会预测出多个候选检测框的问题,提出了查询更新模块。该模块利用目标的空间位置信息剔除过多的候选框,提升检测结果准确率。最后,CrowdHuman数据集下,本研究所提算法相比RT‑DETR的平均准确率指标提升0.7%,每幅图像假阳性率对数平均值实现了0.6%的增益,雅卡指数实现了1%的增益。
-
公开(公告)号:CN118379598A
公开(公告)日:2024-07-23
申请号:CN202410563842.1
申请日:2024-05-08
Applicant: 西北工业大学
Abstract: 本发明涉及一种基于离散先验编码的本质图像提取网络及本质图像提取方法,首先,利用离散编码的方法构建离散码本,对本质特征进行建模编码,其中,为了解决离散码本建模编码特征信息不完善和无关离散元素干扰的问题,提出多尺度离散码本建模方案以及基于索引日志的离散元素筛选机制。其次,针对本质图像的解码重构过程,为了使得先验知识更好的指导相关特征的选择,提出了自注意力和交叉注意力迭代的注意力模块,对原始图像的相关特征不断进行增强和替换。在MPI数据集上,本文相比其他方法的最优结果的反射图重构均方误差降低了60.65%,在ShapeNet数据集上,本文相比其他方法的最优结果的结构不相似度误差降低49.11%。
-
公开(公告)号:CN118135266A
公开(公告)日:2024-06-04
申请号:CN202410209570.5
申请日:2024-02-26
Applicant: 西北工业大学
IPC: G06V10/762 , G06V10/80 , G06V10/44 , G06V10/77 , G06V10/774 , G06V10/82 , G01S13/90 , G01S7/41
Abstract: 本发明提供了一种合成孔径雷达图像目标聚类方法,主要解决现有的SAR自动目标识别方法对无标签数据的利用率低和识别任务时效性低的问题重视程度不足的问题。本发明采用的方案是构建基于方位角属性的多视图SAR图像序列集合,对集合内的序列执行数据增强以创建正负样本对。一对权重共享的特征提取器负责学习样本特征,单视图特征提取器学习特定视图特征,多视图特征提取器负责学习全局特征,最后进行实例级与类级对比学习,生成软标签作为聚类分配结果;使用本发明的方法,在聚类评估中各项指标明显提升。
-
-
公开(公告)号:CN117315278A
公开(公告)日:2023-12-29
申请号:CN202311196354.3
申请日:2023-09-18
Applicant: 西北工业大学
IPC: G06V10/44 , G06V10/54 , G06V10/80 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/0985 , G06V10/764
Abstract: 面向书画文字作品识别任务,本发明提出了一种基于时频域融合的智能识别算法,以准确识别书画作品的作家。在该算法中,空域下特征提取网络采用只有6层的极简网络VanillaNet‑6作为Backbone,网络结构中未使用残差块、通道注意力、自注意力机制以及多分支结构,而是只含卷积计算的极简直筒结构;频域下通过离散余弦变换(Discrete Cosine Transform,DCT),将变换后的特征的维度与原始特征维度拼接后,再通过集成学习(Ensemble Learning)将空域与频域的识别结果进行融合,以此来提高算法对于中国书画文字作品的识别准确率。
-
公开(公告)号:CN111210907A
公开(公告)日:2020-05-29
申请号:CN202010034752.5
申请日:2020-01-14
Applicant: 西北工业大学
Abstract: 本发明提出了一种基于空时注意力机制的疼痛强度估计方法。首先将人脸图像映射到预训练模型VGG-16中得到一个深度特征图谱,将该特征图谱输入到空间注意力模块中得到空间注意力图谱,并将空间注意力图谱作用到深度特征图谱上得到空间注意力特征。然后,将空间注意力特征提取网络固定,每幅图像生成相应的空间注意力特征,将该特征输入到循环神经网络中,后接时间注意力模块,生成时间注意力特征,并利用该特征估计视频序列的疼痛强度。本发明通过引入空时注意力机制,在提取空时疼痛特征的同时,更加关注人脸上和疼痛最为相关的区域以及视频序列中具有疼痛强度的图像帧,从而有效提升疼痛强度估计效果。
-
-
-
-
-
-
-
-
-