-
公开(公告)号:CN117522813A
公开(公告)日:2024-02-06
申请号:CN202311485313.6
申请日:2023-11-09
Applicant: 杭州电子科技大学
IPC: G06T7/00 , G06V10/80 , G06V10/44 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种基于ViT进行空域和频域特征融合的光场图像质量评价方法。本发明包括如下步骤:步骤S1:对光场图像进行预处理;步骤S2:对预处理后的光场图像,提取空间‑角度信息和频域‑角度信息并进行融合,得到融合特征图;步骤S3:将融合特征图输入到小样本Transformer编码网络提取失真特征;步骤S4:将得到的失真特征送入分数预测模块,得到客观质量评价分数。本发明提取米字型光场子孔径图像,并将每个方向的子孔径图像拆分成三个堆栈分别输入,在尽可能提供更多的光场角度信息的同时,控制了模型计算的复杂度。本发明使模型能够获取融合了空域、频域以及角度的特征信息。丰富的特征信息有利于模型对失真特征的提取。
-
公开(公告)号:CN102510512A
公开(公告)日:2012-06-20
申请号:CN201110364395.X
申请日:2011-11-17
Applicant: 杭州电子科技大学
IPC: H04N13/00
Abstract: 本发明涉及一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。目前的方法通常都是基于单目视觉节点。本发明方法各节点独立提取基于SIFT特征描述符的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。该优势在大规模动态多媒体传感网络中尤为重要。
-
公开(公告)号:CN102510512B
公开(公告)日:2014-03-05
申请号:CN201110364395.X
申请日:2011-11-17
Applicant: 杭州电子科技大学
IPC: H04N13/00
Abstract: 本发明涉及一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。目前的方法通常都是基于单目视觉节点。本发明方法各节点独立提取基于SIFT特征描述符的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。该优势在大规模动态多媒体传感网络中尤为重要。
-
公开(公告)号:CN102867313A
公开(公告)日:2013-01-09
申请号:CN201210311804.4
申请日:2012-08-29
Applicant: 杭州电子科技大学
IPC: G06T7/40
Abstract: 本发明涉及一种融合区域颜色和HoG特征的视觉显著性检测方法。目前方法通常都基于区域颜色特征的纯计算模型,对于纹理的显著性差异不敏感。本发明方法首先在原始图像的CIELAB空间彩色分量图上,通过分析超像素区域的颜色对比度和分布特性,计算每个像素的颜色显著性值;然后在原始图像的RGB空间彩色分量图上,提取基于HoG的局部矩形区域纹理特征,并通过分析局部矩形区域的纹理对比度和分布特性,计算每个像素的纹理显著性值;最后采用二次非线性融合方法将每个像素的颜色显著性值和纹理显著性值融合为该像素的最终显著性值。本发明方法获得不仅可获得符合人眼视觉感官的全分辨率显著性图像,并且对显著性目标具有更强的区分能力。
-
公开(公告)号:CN102867313B
公开(公告)日:2015-04-22
申请号:CN201210311804.4
申请日:2012-08-29
Applicant: 杭州电子科技大学
IPC: G06T7/40
Abstract: 本发明涉及一种融合区域颜色和HoG特征的视觉显著性检测方法。目前方法通常都基于区域颜色特征的纯计算模型,对于纹理的显著性差异不敏感。本发明方法首先在原始图像的CIELAB空间彩色分量图上,通过分析超像素区域的颜色对比度和分布特性,计算每个像素的颜色显著性值;然后在原始图像的RGB空间彩色分量图上,提取基于HoG的局部矩形区域纹理特征,并通过分析局部矩形区域的纹理对比度和分布特性,计算每个像素的纹理显著性值;最后采用二次非线性融合方法将每个像素的颜色显著性值和纹理显著性值融合为该像素的最终显著性值。本发明方法获得不仅可获得符合人眼视觉感官的全分辨率显著性图像,并且对显著性目标具有更强的区分能力。
-
公开(公告)号:CN102222328B
公开(公告)日:2012-10-03
申请号:CN201110182918.9
申请日:2011-07-01
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种边缘保持的自然场景图像自适应加权滤波方法。本发明方法首先根据高斯滤波器的标准差,计算高斯模板,采用暗通道先验方法,获取原始图像中的深度线索,并归一化,生成深度先验图像。其次计算高斯模板上每个坐标点的空间近邻性权值和计算原始图像上两像素点间的亮度/颜色相似性权值。然后计算原始图像上两像素点间的深度差异性权值和计算模板中心对应于该像素点的自适应加权滤波模板,最后对原始图像中每个像素点,计算其自适应加权滤波结果。本发明方法不仅在亮度/颜色相似性权值计算中考虑了人眼对亮度差异比色彩差异的敏感度不同这一特性,使得该方法符合生物模型。
-
公开(公告)号:CN102222328A
公开(公告)日:2011-10-19
申请号:CN201110182918.9
申请日:2011-07-01
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种边缘保持的自然场景图像自适应加权滤波方法。本发明方法首先根据高斯滤波器的标准差,计算高斯模板,采用暗通道先验方法,获取原始图像中的深度线索,并归一化,生成深度先验图像。其次计算高斯模板上每个坐标点的空间近邻性权值和计算原始图像上两像素点间的亮度/颜色相似性权值。然后计算原始图像上两像素点间的深度差异性权值和计算模板中心对应于该像素点的自适应加权滤波模板,最后对原始图像中每个像素点,计算其自适应加权滤波结果。本发明方法不仅在亮度/颜色相似性权值计算中考虑了人眼对亮度差异比色彩差异的敏感度不同这一特性,使得该方法符合生物模型。
-
-
-
-
-
-