基于结构化信息特征解耦与知识迁移的视觉场景识别方法

    公开(公告)号:CN114049541A

    公开(公告)日:2022-02-15

    申请号:CN202111000756.2

    申请日:2021-08-27

    Abstract: 本发明公开了一种基于结构化信息特征解耦与知识迁移的视觉场景识别方法,包括如下步骤:使用Canny边缘检测器提取图像的边缘表示形式,并基于自动编码器将其转换为边缘特征矢量;利用微调后的ResNet‑34提取图像的外观特征表示;对于输入图像,送入特征解耦网络分别生成结构化特征向量与外观特征向量,结构化特征向量的特征分布将会与内容教师模块生成的边缘特征矢量进行对比;解码器整合输入的特征并重构原始图像,用于鼓励所学习的内容特征与外观特征能够形成完整的输入图像的表示,提取结构化特征向量作为最终的场景特征,并利用余弦距离计算优化特征间的相似度,实现视觉场景识别。

    基于密度滤波和地标显著性的拓扑图场景识别方法及装置

    公开(公告)号:CN114708482A

    公开(公告)日:2022-07-05

    申请号:CN202210174254.X

    申请日:2022-02-24

    Abstract: 本发明公开了基于密度滤波和地标显著性的拓扑图场景识别方法及装置,有效解决视角变化下的场景识别问题,在目标检测算法的基础上,对得到的地标提取SIFT关键点,充分利用SIFT关键点对视角变化具有鲁棒性的特性,采用密度滤波算法获取具有视角不变性的地标,然后,通过对查询帧和参考帧中视角不变性地标的深度全局描述子进行交叉认证以及地标的形状分数的对比,得到两帧中相互匹配的地标,考虑到提取的地标仅仅代表图像的一小部分,一些低辨识度的地标可能会引起混淆,从而对匹配结果产生负面影响,因此使用地标定位网络获得地标显著性,然后利用基于地标间的空间关系、外观和图像显著性的拓扑图结构计算查询帧和参考帧匹配分数。

    一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法

    公开(公告)号:CN113033669B

    公开(公告)日:2024-05-14

    申请号:CN202110331476.3

    申请日:2021-03-29

    Applicant: 东北大学

    Abstract: 一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法,包括如下步骤:对每帧输入图像进行基础网络的稠密特征提取,利用池化方式生成二通道描述符。然后利用全连接层与激活函数的结构生成新的通道权重,并与原始输入的卷积特征进行重新尺度化操作,生成过滤特征。随后针对过滤后的特征图,建立完全图模型,通过信息生成网络输出每个节点的影响力信息,并以非线性组合的方式,实现节点特征的更新。最后通过子认证网络,促使同一地点的图像特征映射至相同的特征空间,并利用余弦距离计算优化特征间的相似度,实现视觉场景识别。极大地提升了机器人在大尺度场景下的视觉定位准确性,有助于开展更智能化的视觉导航等工作。

    一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法

    公开(公告)号:CN113033669A

    公开(公告)日:2021-06-25

    申请号:CN202110331476.3

    申请日:2021-03-29

    Applicant: 东北大学

    Abstract: 一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法,包括如下步骤:对每帧输入图像进行基础网络的稠密特征提取,利用池化方式生成二通道描述符。然后利用全连接层与激活函数的结构生成新的通道权重,并与原始输入的卷积特征进行重新尺度化操作,生成过滤特征。随后针对过滤后的特征图,建立完全图模型,通过信息生成网络输出每个节点的影响力信息,并以非线性组合的方式,实现节点特征的更新。最后通过子认证网络,促使同一地点的图像特征映射至相同的特征空间,并利用余弦距离计算优化特征间的相似度,实现视觉场景识别。极大地提升了机器人在大尺度场景下的视觉定位准确性,有助于开展更智能化的视觉导航等工作。

Patent Agency Ranking