-
公开(公告)号:CN108415955B
公开(公告)日:2021-12-28
申请号:CN201810116386.0
申请日:2018-02-06
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法。本方法将三维模型利用投影技术投影成二维图片,并将图片做成视频,放置于眼动仪让志愿者观看,进而收集眼动注视点的数据,然后将视频按帧分割,提取图片中的眼动注视点,借助二维到三维的映射技术得到眼动注视点点在三维模型上的坐标点。最后使用建立Ground Truth的算法将得到的眼动注视点数据建立成感兴趣点数据库。本发明更加适用于对模型的重建,因为利用眼动仪可以将模型上人眼最关注区域的部分和不关注区域的部分进行划分。通过感兴趣点标准库对人类感兴趣的地方可以加强重建的精度,相反对于不感兴趣的区域相对减少重建精度,从而减少模型重建的工作量和存储量。
-
公开(公告)号:CN106652048A
公开(公告)日:2017-05-10
申请号:CN201611260181.7
申请日:2016-12-30
Applicant: 杭州电子科技大学
IPC: G06T19/20
CPC classification number: G06T19/20
Abstract: 本发明提出一种基于3D‑SUSAN角点算子的三维模型感兴趣点提取方法。本发明首先读取三维模型顶点,并简化模型顶点以及模型网格化,计算每个顶点的曲率。再通过高斯滤波处理每个顶点的曲率,进行去噪处理。接着确定一个中心点并取中心点周围的36个邻居点,若中心顶点与邻居顶点的曲率差小于曲率相似度阈值,则进入下一步;若每个顶点的USAN值小于几何阈值,则该中心顶点就是兴趣点。最后对本发明所提出的基于3D‑SUSAN角点算子提取的三维模型感兴趣点从错误率、缺失率、误差率进行评估。本发明不仅可以提取三维模型兴趣点而且仍保留了SUSAN的抗噪能力强、计算量小效率高、性能稳定的优点。
-
-
公开(公告)号:CN108415955A
公开(公告)日:2018-08-17
申请号:CN201810116386.0
申请日:2018-02-06
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法。本方法将三维模型利用投影技术投影成二维图片,并将图片做成视频,放置于眼动仪让志愿者观看,进而收集眼动注视点的数据,然后将视频按帧分割,提取图片中的眼动注视点,借助二维到三维的映射技术得到眼动注视点点在三维模型上的坐标点。最后使用建立Ground Truth的算法将得到的眼动注视点数据建立成感兴趣点数据库。本发明更加适用于对模型的重建,因为利用眼动仪可以将模型上人眼最关注区域的部分和不关注区域的部分进行划分。通过感兴趣点标准库对人类感兴趣的地方可以加强重建的精度,相反对于不感兴趣的区域相对减少重建精度,从而减少模型重建的工作量和存储量。
-
-
公开(公告)号:CN106652048B
公开(公告)日:2020-07-14
申请号:CN201611260181.7
申请日:2016-12-30
Applicant: 杭州电子科技大学
IPC: G06T19/20
Abstract: 本发明提出一种基于3D‑SUSAN角点算子的三维模型感兴趣点提取方法。本发明首先读取三维模型顶点,并简化模型顶点以及模型网格化,计算每个顶点的曲率。再通过高斯滤波处理每个顶点的曲率,进行去噪处理。接着确定一个中心点并取中心点周围的36个邻居点,若中心顶点与邻居顶点的曲率差小于曲率相似度阈值,则进入下一步;若每个顶点的USAN值小于几何阈值,则该中心顶点就是兴趣点。最后对本发明所提出的基于3D‑SUSAN角点算子提取的三维模型感兴趣点从错误率、缺失率、误差率进行评估。本发明不仅可以提取三维模型兴趣点而且仍保留了SUSAN的抗噪能力强、计算量小效率高、性能稳定的优点。
-
公开(公告)号:CN106780441A
公开(公告)日:2017-05-31
申请号:CN201611078458.4
申请日:2016-11-30
Applicant: 杭州电子科技大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法。本发明分为平面图像质量测量和立体感知质量测量两部分。平面图像质量测量:首先对所有左右参考图像进行字典学习得到字典;然后将所有参考与失真图像在对应字典上求取稀疏系数矩阵,并计算稀疏系数相似度;最后利用立体掩蔽效应,将左右失真图像质量进行融合得到平面图像质量。立体感知质量测量:对参考图像的视差图进行字典学习,再将参考图和失真图的视差图在对应字典上求稀疏系数矩阵,得到立体感知质量。最后将平面和立体感知质量相融合得到立体图像质量。本发明方法考虑了人眼视觉特性,准确地测量了立体图像质量。
-
公开(公告)号:CN106780441B
公开(公告)日:2020-01-10
申请号:CN201611078458.4
申请日:2016-11-30
Applicant: 杭州电子科技大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法。本发明分为平面图像质量测量和立体感知质量测量两部分。平面图像质量测量:首先对所有左右参考图像进行字典学习得到字典;然后将所有参考与失真图像在对应字典上求取稀疏系数矩阵,并计算稀疏系数相似度;最后利用立体掩蔽效应,将左右失真图像质量进行融合得到平面图像质量。立体感知质量测量:对参考图像的视差图进行字典学习,再将参考图和失真图的视差图在对应字典上求稀疏系数矩阵,得到立体感知质量。最后将平面和立体感知质量相融合得到立体图像质量。本发明方法考虑了人眼视觉特性,准确地测量了立体图像质量。
-
-
-
-
-
-
-