-
公开(公告)号:CN112004256A
公开(公告)日:2020-11-27
申请号:CN201910445079.1
申请日:2019-05-27
Applicant: 北京邮电大学
IPC: H04W40/32 , H04W40/10 , H04W40/20 , H04W40/34 , H04W4/38 , H04W84/18 , H04L12/715 , H04L12/753 , H04L12/721 , H04L12/751
Abstract: 本发明提供一种路由方法、装置、电子设备及存储介质,该方法包括:获取SDWSN系统中每个无线传感器节点对应的邻居节点信息及簇头优先级,根据每个无线传感器节点的邻居节点信息、簇头优先级及预设规则,确定所有簇头身份的无线传感器节点,根据所有簇头身份的无线传感器节点及预设能耗模型,建立路由树并确定每个无线传感器节点的流表规则。本发明在分簇过程中考虑无线传感器节点的剩余能量及无线传感器节点与汇聚节点之间的距离,并采用集中式分簇的方式实现簇的建立,使得分簇更加合理化;通过在能耗模型中加入农田环境因子对能量消耗的影响,使得路由树更加符合农田环境的特性,提高了部署在农田环境中的SDWSN系统的可靠性。
-
公开(公告)号:CN107680112A
公开(公告)日:2018-02-09
申请号:CN201710959793.3
申请日:2017-10-16
Applicant: 北京邮电大学
Abstract: 本发明提供了一种图像配准方法,包括:根据所述K对匹配对中选取的不同的匹配对组合构建不同的第一平面变换矩阵,利用所述不同的第一平面变换矩阵,分别对所述待配准图像的第一边缘图像进行变换,得到不同的变换后的第一边缘图像;并根据所述不同的变换后的第一边缘图像与所述参考图像的第二边缘图像的重合像素点的不同数量,在所述K对匹配对中选取M对匹配对;根据所述M对匹配对,得到第二平面变换矩阵,利用所述第二平面变换矩阵对所述初始匹配对集合中的特征点进行变换;根据变换后的第一特征点与对应的变换后的第二特征点的第二距离确定候选匹配对;在所述候选匹配对中选定N对匹配对,并以所述N对匹配对配准图像。
-
公开(公告)号:CN106815835A
公开(公告)日:2017-06-09
申请号:CN201710018726.1
申请日:2017-01-10
Applicant: 北京邮电大学 , 波音(中国)投资有限公司
IPC: G06T7/00
Abstract: 本发明提供一种损伤识别方法及装置,属于航空设备技术领域。该损伤识别方法包括:对待识别图像进行预处理,预处理包括将待识别图像划分为M个子图像块,M为大于等于2的整数;将M个子图像块通过预设识别模型进行识别,确定M个子图像块对应的损伤类型;预设识别模型通过卷积层、池化层及全连接层对子图像块进行识别;输出M个子图像块对应的损伤类型。本发明提供的损伤识别方法及装置,提高了飞行器表面损伤类型的识别率。
-
公开(公告)号:CN104992432A
公开(公告)日:2015-10-21
申请号:CN201510345316.9
申请日:2015-06-19
Applicant: 北京邮电大学
IPC: G06T7/00
Abstract: 本发明提供一种多模图像配准方法,包括:将参考图像的特征直线与待配准图像的特征直线相匹配,获得所述参考图像的第一特征直线集以及所述待配准图像的第二特征直线集;将所述第一特征直线集中特征直线的交点作为第一基准特征点,将所述第二特征直线集中特征直线的交点作为第二基准特征点,由所述第一基准特征点得到第一特征点集,由所述第二基准特征点得到第二特征点集;根据所述第一特征点集和所述第二特征点集对所述参考图像和所述待配准图像进行匹配。本发明提供的多模图像配准方法,将特征直线与特征点相结合,获取到多模图像的稳定准确的特征点,基于该稳定准确的特征点进行图像配准,提高了多模图像的配准精确度。
-
公开(公告)号:CN104992431A
公开(公告)日:2015-10-21
申请号:CN201510345294.6
申请日:2015-06-19
Applicant: 北京邮电大学
IPC: G06T7/00
CPC classification number: G06T2207/10036
Abstract: 本发明提供一种多光谱图像配准的方法及装置。本发明多光谱图像配准的方法,包括:获取待配准多光谱图像中多组相交的直线对的第一交点,以及获取参考多光谱图像中多组相交的直线对的第二交点;确定所述参考多光谱图像上与所述第一交点匹配的第二交点;根据所述第一交点以及与所述第一交点匹配的第二交点,确定坐标变换参数;根据所述坐标变换参数对所述待配准多光谱图像和所述参考多光谱图像进行配准。本发明提高了多光谱图像配准的准确度。
-
公开(公告)号:CN119206247A
公开(公告)日:2024-12-27
申请号:CN202411219907.7
申请日:2024-09-02
Applicant: 北京邮电大学
IPC: G06V10/44 , G06V10/46 , G06V10/75 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/0895
Abstract: 本发明提供一种基于深度学习的多光谱图像局部特征提取方法及系统,属于多光谱图像处理技术领域,获取待处理的一对多光谱图像;利用光谱选择网络将获取的一对多光谱图像提取浅层特征;利用特征提取网络对浅层特征进行处理,生成图中的每个像素点的特征向量;其中,在训练阶段使用提出的损失函数训练,在推理阶段根据匹配需要提取描述子;其中,采用最邻近算法对已有描述子进行粗匹配,并使用RANSAC方法进行过滤,得到最终的匹配结果。本发明根据特征自适应激活神经网络通道的光谱选择网络,可以同时接受多个来自不同光谱的图像进行训练,同时设计包含更多负样本的对比损失函数以提取多光谱图像特征。
-
公开(公告)号:CN115019244A
公开(公告)日:2022-09-06
申请号:CN202210481718.1
申请日:2022-05-05
Applicant: 北京邮电大学
IPC: G06V20/52 , G06V40/10 , G06V10/82 , G06V10/80 , G06V10/764 , G06V10/77 , G06V10/774 , G06N3/04 , G06N3/08
Abstract: 本发明提供了一种基于公共场所场景的轻量级人员重新识别检测方法。该方法包括:在轻量级人员重新识别re‑ID网络中加入中级特征,构建基于公共场所场景的轻量级人员重新识别检测模型;将待检测的公共场所场景的监控视频流输入到所述轻量级人员重新识别检测模型,所述轻量级人员重新识别检测模型输出所述监控视频流中的行人匹配结果。本发明针对公共场所场景提出了改进的适配的轻量级re‑ID模型,该模型融合了针对骨干分类网络改进的中级特征,而模型体积只有公开骨干网络的十分之一,保持着非常好的部署可行性。该网络模型作为公共场所特殊场景下的re‑ID分类模型,为该场景提供了非常高的研究意义和应用价值。
-
公开(公告)号:CN113393474A
公开(公告)日:2021-09-14
申请号:CN202110648726.6
申请日:2021-06-10
Applicant: 北京邮电大学
Abstract: 本发明提供了一种基于特征融合的三维点云的分类和分割方法。该方法包括:将三维点云划分为多个局部区域,对每个局部区域内通过KNN算法建立多尺度区域,通过图注意力卷积层提取尺度区域的细粒度尺度特征,为局部区域的每个尺度特征分配注意力权重,对局部区域的各个尺度特征按照注意力权重进行加权融合,得到包含细粒度几何信息的点云的局部区域特征;通过双向长短期记忆网络获取不同局部区域特征之间的上下文信息,将各个局部区域特征进行融合,得到点云的全局语义特征,对三维点云进行分类与分割。本发明挖掘不同局部区域的细粒度多尺度信息,结合不同尺度区域之间的相关性捕获局部区域信息,提升了三维点云场景理解中分类与分割任务的精确度。
-
公开(公告)号:CN113128662A
公开(公告)日:2021-07-16
申请号:CN202010048134.6
申请日:2020-01-16
Abstract: 本公开涉及卷积神经网络及基于卷积神经网络的图像处理方法,卷积神经网络包括:至少一个卷积层,每个卷积层包括至少一个卷积核组,每个卷积核组包括两个以上的卷积核,每个卷积核组的各卷积核对输入的具有不同旋转角度的图像数据的相同特征进行特征提取以获得特征图,卷积核组的一个卷积核经过旋转能得到卷积核组的其他卷积核;以及至少一个池化层,每个池化层利用与卷积核组的各卷积核分别对应的池化窗口对各卷积核输出的特征图进行池化,以输出池化后的特征图,其中,通过绕与卷积核组的一个卷积核对应的池化窗口的中心而旋转该池化窗口,能得到与卷积核组中的其他卷积核对应的池化窗口。本公开的卷积神经网络自身具有旋转不变性。
-
公开(公告)号:CN112801262A
公开(公告)日:2021-05-14
申请号:CN201911115359.2
申请日:2019-11-14
Abstract: 本申请公开了一种用于卷积神经网络的注意力权重模块和方法。该注意力权重模块包括:提取单元,被配置为从输入至卷积神经网络的特征图中提取特征向量;生成单元,被配置为将特征向量馈送至完全连接层,以生成注意力向量;权重分配单元,被配置为基于注意力向量将权重分配至特征图。本发明的注意权重块可以通过同时考虑空间注意权重和通道关系权重来提取更多语义信息,从而卷积神经网络可以具有更强大的表达能力。
-
-
-
-
-
-
-
-
-