一种基于低水平显著性融合和测地线的视频显著性检测方法

    公开(公告)号:CN109711417B

    公开(公告)日:2022-12-27

    申请号:CN201811488005.8

    申请日:2018-12-06

    Abstract: 本发明公开了一种基于低水平显著性融合和测地线的视频显著性检测方法,包括步骤:S1通过显著性估计分别求得空间边缘显著图,空间颜色显著图和运动边界图;S2平滑处理,并集成三个特征显著图得到低水平的时空显著图;S3对每一帧构造无向加权图,然后根据到图像边界的最短测地线距离,计算前景概率;S4对每对相邻视频帧,构造无向加权图,将帧Lk分解为背景区域Dk和对象区域Ok,最后在无向加权图的基础上,计算得到最后的显著图。本发明的空间颜色特征,增强或锐化突出对象的微小细节来表示高显著度。本发明的低层次显著性融合策略,保证互补地使用平滑的颜色显著性、空间边缘和时间运动边界线索产生高精度低水平显著性。

    基于导向滤波和图论显著性的多模态医学图像融合方法

    公开(公告)号:CN109816617B

    公开(公告)日:2023-05-26

    申请号:CN201811487076.6

    申请日:2018-12-06

    Abstract: 本发明请求保护一种基于导向滤波和图论显著性的多模态医学图像融合方法,主要用于融合多模态医学图像,包括步骤:S1得到待融合图像的平滑子带图像和细节子带图像;S2利用图论显著性方法构造融合规则重组平滑子带系数和细节子带系数;S3重构融合后的平滑子带系数和细节子带系数得到融合后的图像。本发明基于导向滤波算法的分解方法时间复杂度较低,保证融合图像且在分解过程中能有效的减少噪声的干扰,增加方法的鲁棒性;同时利用图论的显著性方法来提取平滑子带图像的亮度、颜色和方向特征,能保留灰度图像的亮度信息和伪彩色图像的颜色信息,有效解决其他融合方法融合图像亮度信息丢失和色彩失真问题,保证融合图像的质量。

    一种基于低水平显著性融合和测地线的视频显著性检测方法

    公开(公告)号:CN109711417A

    公开(公告)日:2019-05-03

    申请号:CN201811488005.8

    申请日:2018-12-06

    Abstract: 本发明公开了一种基于低水平显著性融合和测地线的视频显著性检测方法,包括步骤:S1通过显著性估计分别求得空间边缘显著图,空间颜色显著图和运动边界图;S2平滑处理,并集成三个特征显著图得到低水平的时空显著图;S3对每一帧构造无向加权图,然后根据到图像边界的最短测地线距离,计算前景概率;S4对每对相邻视频帧,构造无向加权图,将帧Lk分解为背景区域Dk和对象区域Ok,最后在无向加权图的基础上,计算得到最后的显著图。本发明的空间颜色特征,增强或锐化突出对象的微小细节来表示高显著度。本发明的低层次显著性融合策略,保证互补地使用平滑的颜色显著性、空间边缘和时间运动边界线索产生高精度低水平显著性。

    一种基于交通场景的多支路目标检测方法

    公开(公告)号:CN110059554B

    公开(公告)日:2022-07-01

    申请号:CN201910187966.3

    申请日:2019-03-13

    Abstract: 本发明请求保护一种基于交通场景的多支路目标检测方法,包括步骤:S1获取交通路口拍摄的高清照片构建相关数据集,对交通场景图像进行分类和标注,生成相应的类别标签,并划分训练集和测试集;S2搭建基于深度学习的具有32层的网络模型,采用k‑means聚类算法获取9个锚框先验,将这9个锚框平均分配到三个检测分支中,该网络将检测任务转化为回归任务,在一个网络上同时完成目标的分类与边界框的回归,即将目标检测算法的候选框生成、特征提取、分类及位置精修这4个步骤统一到一个深度网络框架之内,采用反向传播和随机梯度下降方法对网络模型进行端到端训练,通过迭代训练使损失函数降到一个小的范围然后停止训练。

    一种基于交通场景的多支路目标检测方法

    公开(公告)号:CN110059554A

    公开(公告)日:2019-07-26

    申请号:CN201910187966.3

    申请日:2019-03-13

    Abstract: 本发明请求保护一种基于交通场景的多支路目标检测方法,包括步骤:S1获取交通路口拍摄的高清照片构建相关数据集,对交通场景图像进行分类和标注,生成相应的类别标签,并划分训练集和测试集;S2搭建基于深度学习的具有32层的网络模型,采用k-means聚类算法获取9个锚框先验,将这9个锚框平均分配到三个检测分支中,该网络将检测任务转化为回归任务,在一个网络上同时完成目标的分类与边界框的回归,即将目标检测算法的候选框生成、特征提取、分类及位置精修这4个步骤统一到一个深度网络框架之内,采用反向传播和随机梯度下降方法对网络模型进行端到端训练,通过迭代训练使损失函数降到一个小的范围然后停止训练。

    基于导向滤波和图论显著性的多模态医学图像融合方法

    公开(公告)号:CN109816617A

    公开(公告)日:2019-05-28

    申请号:CN201811487076.6

    申请日:2018-12-06

    Abstract: 本发明请求保护一种基于导向滤波和图论显著性的多模态医学图像融合方法,主要用于融合多模态医学图像,包括步骤:S1得到待融合图像的平滑子带图像和细节子带图像;S2利用图论显著性方法构造融合规则重组平滑子带系数和细节子带系数;S3重构融合后的平滑子带系数和细节子带系数得到融合后的图像。本发明基于导向滤波算法的分解方法时间复杂度较低,保证融合图像且在分解过程中能有效的减少噪声的干扰,增加方法的鲁棒性;同时利用图论的显著性方法来提取平滑子带图像的亮度、颜色和方向特征,能保留灰度图像的亮度信息和伪彩色图像的颜色信息,有效解决其他融合方法融合图像亮度信息丢失和色彩失真问题,保证融合图像的质量。

Patent Agency Ranking