-
公开(公告)号:CN106296655A
公开(公告)日:2017-01-04
申请号:CN201610601199.2
申请日:2016-07-27
Applicant: 西安电子科技大学
CPC classification number: G06T7/0002 , G06K9/6223 , G06T2207/10044 , G06T2207/20004 , G06T2207/20032 , G06T2207/20221
Abstract: 本发明公开了一种基于自适应权值和高频阈值的SAR图像变化检测方法,主要解决现有技术检测效果不理想,单一类型差异图检测精度低的问题。其实现步骤为:1.读入不同时刻从同一地区获取的两幅SAR图像I1和I2;2.分别计算两幅图像I1和I2对应像素的均值比差异图Dm和邻域对数比差异图Dl;3.对均值比差异图Dm和邻域对数比差异图Dl进行小波融合,得到融合后的差异图像Xd;4.将融合差异图Xd聚成不同的两类,得到变化检测结果。本发明操作简单、抗噪性好、检测精度高,对不同类型的SAR图像均能获得较好的效果,可应用于环境监测、海洋观测、灾害评估、资源勘察、城区规划和地理测绘。
-
公开(公告)号:CN106021329A
公开(公告)日:2016-10-12
申请号:CN201610297877.0
申请日:2016-05-06
Applicant: 西安电子科技大学
IPC: G06F17/30
CPC classification number: G06F16/9535
Abstract: 本发明公开一种基于用户相似度的稀疏数据协同过滤推荐方法,主要解决现有技术中面临稀疏数据时,计算用户之间相似度值不准确,进而影响推荐质量的问题。其实现步骤为:(1)构建稀疏用户对项目的评分矩阵;(2)计算任意两个项目之间的全局相似性;(3)计算任意两个用户评分之间的局部相似性;(4)计算任意两个用户之间的相似度;(5)预测评分;(6)产生推荐列表;(7)完成了对所有用户的协同过滤项目推荐。通过实验仿真结果表明,在稀疏数据集上,本发明与传统协同过滤推荐方法相比计算用户之间相似度更准确,进而提高推荐质量,更好的满足用户需求。
-
公开(公告)号:CN115098787B
公开(公告)日:2024-04-19
申请号:CN202210869627.5
申请日:2022-07-21
Applicant: 西安电子科技大学
IPC: G06Q30/0601 , G06F16/9535 , G06N3/042 , G06N3/045 , G06N3/0464 , G06F18/2415 , G06F18/214 , G06F18/22
Abstract: 本发明提出了一种基于余弦排名损失和虚拟边图神经网络的物品推荐方法,实现步骤为:(1)构建用户信息、物品信息以及用户‑物品交互信息;(2)构建用户‑物品虚拟边交互二部图;(3)构建基于余弦排名损失和虚拟边图神经网络的物品推荐模型;(4)对基于余弦排名损失和虚拟边图神经网络的物品推荐模型进行迭代训练;(5)获取向用户推荐的物品列表。本发明通过使用用户‑物品虚拟边交互二部图,挖掘了用户‑物品的潜在交互可能,关注了节点间的隐式反馈以获得更好的嵌入表征向量;同时通过使用余弦排名损失函数,过滤冗余样本以自适应的计算损失函数值,提高了物品推荐的准确性。
-
公开(公告)号:CN116977744A
公开(公告)日:2023-10-31
申请号:CN202310979029.8
申请日:2023-08-04
Applicant: 西安电子科技大学
IPC: G06V10/764 , G06V10/58 , G06V10/774 , G06V10/44 , G06V10/776 , G06V10/82 , G06N3/045 , G06N3/0475 , G06N3/0895 , G06N3/094 , G06N3/0464
Abstract: 本发明公开一种基于对比学习与子空间的小样本跨域高光谱图像分类方法,主要解决常规方法嵌入特征信息利用率低、训练花费高及精度低的问题。其方案包括:获取高光谱数据集,划分源域与目标域获得训练集与测试集;构建映射层与特征提取器,利用其分别提取源域与目标域的嵌入特征以进行子空间分类与对比学习;构建域鉴别器,计算源域与目标域的域鉴别损失、空间损失及对比损失的总损失;利用训练集通过反向传播对特征提取器进行迭代训练,直到总损失函数收敛;将测试集输入到训练好特征提取器,得到的分类结果。本发明提高了分类器的辨别能力强和分类精度,提升了嵌入特征信息的利用率,减小了训练花费,可用于资源勘探、森林覆盖和灾害监测的地物分类。
-
公开(公告)号:CN116911949A
公开(公告)日:2023-10-20
申请号:CN202310919874.6
申请日:2023-07-25
Applicant: 西安电子科技大学
IPC: G06Q30/0601 , G06F16/9535 , G06N5/022
Abstract: 本发明公开了一种基于边界排名损失和邻域感知图神经网络的物品推荐方法,主要解决先有技术对物品推荐准确性较低的问题。其实现方案包括:从推荐数据集中提取用户‑物品交互信息;根据提取的信息构建用户‑物品邻域感知交互二部图;构建基于邻域感知图神经网络的物品推荐模型并定义其边界排名损失函数;将用户‑物品邻域感知交互二部图输入到物品推荐模型进行迭代训练,直至模型损失函数收敛;利用训练好的物品推荐模型为用户提供物品推荐。本发明通过构造用户‑物品邻域感知交互二部图及定义边界排名损失函数,不仅能获得更加准确的嵌入向量,而且能增大正负样本嵌入向量之间的差距,提高物品推荐的准确性,可应用于电影、图书、商品及服务推荐。
-
公开(公告)号:CN112529414B
公开(公告)日:2023-08-01
申请号:CN202011458875.8
申请日:2020-12-11
Applicant: 西安电子科技大学
IPC: G06F16/9536 , G06F18/241 , G06N3/045 , G06N3/048 , G06N3/082 , G06F18/214
Abstract: 本发明公开了一种基于多任务神经协同过滤网络的物品评分方法,其实现步骤为:(1)构建特征矩阵;(2)构建用户‑物品评分矩阵;(3)生成训练集;(4)构建多任务神经协同过滤网络;(5)训练多任务神经协同过滤网络;(6)评分。本发明提出的方法能有效解决现有物品评分方法中模型过拟合、泛化能力差导致物品评分准确性不高的问题,并且能够解决用户基本信息与物品属性信息使用不充分导致物品评分个性化不高的问题。
-
-
公开(公告)号:CN113095409B
公开(公告)日:2023-04-07
申请号:CN202110399194.7
申请日:2021-04-13
Applicant: 西安电子科技大学
IPC: G06V10/764 , G06V10/80 , G06V10/82 , G06V10/77 , G06N3/0464 , G06N3/08 , G06V20/10
Abstract: 本发明提出了一种基于注意力机制和权值共享的高光谱图像分类方法,其实现步骤为:(1)获取高光谱图像并对其进行预处理;(2)对归一化后的高光谱图像进行邻域取块;(3)生成训练样本集与测试样本集;(4)构建高光谱图像分类网络模型;(5)对高光谱图像分类网络模型进行迭代训练;(6)获取高光谱图像的分类结果,本发明有效解决深度卷积神经网络参数冗余的问题,并且能够解决在有限样本数据集下分类精度低的问题,分类性能良好。
-
公开(公告)号:CN113392931B
公开(公告)日:2023-02-10
申请号:CN202110748974.8
申请日:2021-07-02
Applicant: 西安电子科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/0895 , G06V20/10
Abstract: 本发明公开了一种基于自监督学习和多任务学习的高光谱开放集分类方法,主要解决现有高光谱开放集分类方法无法充分利用高光谱开放集的无标签样本,导致分类精度低的问题,其实现方案为:输入高光谱图像并对其进行预处理;对预处理后的图像进行邻域取块,生成训练数据集与测试数据集;构建基于自监督学习和多任务学习的神经网络模型;利用训练数据集,采用自监督学习方法和多任务学习方法对所构建的神经网络模型进行训练;将测试数据集输入到训练好的神经网络模型中得到分类结果。本发明能充分利用无标签样本信息,缓解有标签样本少的问题,提高了分类精度,可应用于环境监测、资源勘探、城市规划及农业计划。
-
公开(公告)号:CN109492593B
公开(公告)日:2021-09-10
申请号:CN201811366518.1
申请日:2018-11-16
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于主成分分析网络与空间坐标的高光谱图像分类方法,主要解决了现有技术空间与光谱信息融合复杂或不充分以及利用主成分分析网络进行高光谱分类时计算复杂度大等问题。其实现的方案为:先读取高光谱图像的数据集;再将数据集按空间分块随机选取训练集与测试集;然后对光谱信息进行降维、归一化及边缘保留滤波处理;接着将空间坐标扩充并与光谱特征融合;然后训练主成分分析网络,得训练好的主成分分析网络;将测试集数据输入训练好的主成分分析网络,得到测试集中每个像素点的特征向量;最后利用支持向量机SVM得到分类结果。本发明降低了计算复杂度,提高了分类效果,可应用于资源勘探、森林覆盖、灾害监测中的目标识别。
-
-
-
-
-
-
-
-
-