-
公开(公告)号:CN102801996B
公开(公告)日:2015-07-01
申请号:CN201210237892.8
申请日:2012-07-11
Applicant: 上海大学
IPC: H04N13/00 , H04N19/103 , H04N19/176
Abstract: 本发明涉及一种基于JNDD模型的快速深度图编码模式选择方法。本方法是:对编码宏块进行边缘检测,得到当前块的边缘值;利用最小可觉深度差模型确定宏块内不同深度值区域内的深度差不可被人眼察觉的门限值,与边缘值进行比较,将深度图划分为垂直边缘区域与平坦区域;对边缘区域采用全搜索策略,对平坦区域采用SKIP模式、帧间16×16模式和帧内模式搜索。本发明根据深度数据的特点及深度编码失真对绘制视质量的影响,在保证虚拟视质量与编码码率基本不变的前提下,可显著降低编码复杂度、提高三维视频系统中深度图编码模块的编码速度。
-
公开(公告)号:CN103220545A
公开(公告)日:2013-07-24
申请号:CN201310154526.0
申请日:2013-04-28
Applicant: 上海大学
IPC: H04N13/00
Abstract: 本发明公开了一种立体视频实时深度估计系统硬件实现方法,所述方法包括输入接口模块IN、Census变换模块CT、匹配代价计算模块MC、匹配代价累积模块CA、视差生成模块DG、视差后处理模块DP、视差可视化模块DV和系统控制模块SC,将左右两路输入的视频信号依次经输入接口模块IN、Census变换模块CT、匹配代价计算模块MC、,匹配代价计算模块MC、匹配代价累积模块CA、视差生成模块DG、视差后处理模块DP、视差可视化模块DV依次顺序传递,控制信号经系统控制模块SC分别向各模块传递,实现基于硬件实时深度估计。该方法基于FPGA的硬件设计,实现实时深度估计,采用融合匹配算法,能提高深度估计准确性,支持高清分辨率视频实时处理,满足三维高清实时视频系统的需求。
-
公开(公告)号:CN103124347A
公开(公告)日:2013-05-29
申请号:CN201210402003.9
申请日:2012-10-22
Applicant: 上海大学
Abstract: 本发明涉及一种利用视觉感知特性指导编码量化过程的方法。本方法的操作步骤如下:(1)读取输入视频序列每一帧的亮度值大小,建立频域的恰可辨失真阈值模型,(2)输入视频序列每一帧经过视点内和视点间的预测,(3)对残差数据进行离散余弦变换,(4)动态调节当前帧中每个宏块的量化步长,(5)动态调节率失真优化过程中的拉格朗日参数,(6)对量化的数据进行熵编码,形成码流通过网络传输。本发明在保证主观质量基本保持不变的情况下,提高了视频压缩效率,更加适合在网络中传输。
-
公开(公告)号:CN102065313B
公开(公告)日:2012-10-31
申请号:CN201010545107.6
申请日:2010-11-16
Applicant: 上海大学
Abstract: 本发明涉及一种平行式相机阵列的未标定多视点图像校正方法。本方法首先提取各视点图像中特征点集合并确定两两相邻图像间的匹配点对。接着引入RANSAC算法提高SIFT特征点匹配精度,并提出分块特征提取方法,将经过精细化的特征点位置信息作为后续校正过程的输入计算相邻未标定立体图像对的校正矩阵。然后将多个不共面校正平面投影至同一公共校正平面上,并计算公共校正平面上相邻视点间水平距离。最后水平调整各视点位置至视差均匀即完成校正过程。经过本发明多视点未标定校正的合成立体图像具有强烈的纵深感,比校正前立体效果有明显提高,可应用于很多3DTV应用设备的前端信号处理。
-
公开(公告)号:CN102523477A
公开(公告)日:2012-06-27
申请号:CN201110391478.8
申请日:2011-12-01
Applicant: 上海大学
Abstract: 本发明公开了一种基于双目最小可辨失真模型的立体视频质量评价方法,该方法首先建立双目立体亮度关系模型,研究左右视点视频各自的像素亮度与融合为立体视频时的亮度关系;根据背景亮度和纹理掩盖建立立体图像JND模型,根据视频帧间掩盖的可视阈值建立立体视频的JND模型;由基于空间-时间对比灵敏度函数和显示设备的相关参数获得基于空间-时间对比灵敏度函数的可视阈值;然后由立体视频的JND模型和基于于空间-时间对比灵敏度函数的可视阈值组合得到双眼的JND模型;最后建立基于立体视频质量的双目感知峰值信噪比对立体视频质量评价。该方法基于双目的JND模型,使立体视频质量的评价与人眼的视觉主观感知的视频质量相一致,正确反映人眼视觉的主观立体视频感知质量。
-
公开(公告)号:CN101720047B
公开(公告)日:2011-12-21
申请号:CN200910198231.7
申请日:2009-11-03
Applicant: 上海大学
Abstract: 本发明公开了一种基于颜色分割的多目摄像立体匹配获取深度图像的方法,它包括步骤:(1)、对所有输入图像进行图像规正;(2)、对参考图像进行颜色分割,提取图像中的颜色一致性区域;(3)、对多幅输入图像分别进行局部窗口匹配得到多幅视差图;(4)、应用双向匹配策略来消除在匹配过程中产生的误匹配点;(5)、将多幅视差图合成为一幅视差图,填充误匹配点的视差信息;(6)、对视差图进行后处理优化,得到一个稠密视差图;(7)、根据视差与深度之间的关系,将视差图转换为深度图。该方法从多个视点图像中获取深度信息,利用多个视点图像提供的图像信息,不仅能解决图像中周期性重复纹理特征、遮挡等带来的误匹配,还能提高匹配精度,得到一个准确的深度图像。
-
公开(公告)号:CN102065313A
公开(公告)日:2011-05-18
申请号:CN201010545107.6
申请日:2010-11-16
Applicant: 上海大学
Abstract: 本发明涉及一种平行式相机阵列的未标定多视点图像校正方法。本方法首先提取各视点图像中特征点集合并确定两两相邻图像间的匹配点对。接着引入RANSAC算法提高SIFT特征点匹配精度,并提出分块特征提取方法,将经过精细化的特征点位置信息作为后续校正过程的输入计算相邻未标定立体图像对的校正矩阵。然后将多个不共面校正平面投影至同一公共校正平面上,并计算公共校正平面上相邻视点间水平距离。最后水平调整各视点位置至视差均匀即完成校正过程。经过本发明多视点未标定校正的合成立体图像具有强烈的纵深感,比校正前立体效果有明显提高,可应用于很多3DTV应用设备的前端信号处理。
-
公开(公告)号:CN100568952C
公开(公告)日:2009-12-09
申请号:CN200710038784.7
申请日:2007-03-29
Applicant: 上海大学 , 上海广电(集团)有限公司中央研究院
Abstract: 本发明涉及基于H.264实时精细粒度可伸缩编码方法。根据当前残差帧的全局性与当前残差块的局部性分布来进行分析,在全局分析中找出奇异点,并通过对奇异值进行下移位使得比特平面数全局均衡,在解码端作相应的上移位;在局部分析中做全零块的判决。本发明在编码过程中的增强层变换部分将采用4x4整数变换。本方法与一般的FGS方法相比,复杂度明显降低,视频质量更高,整体PSNR(峰值信噪比)变化更加平滑。实验表明,与MPEG-4的FGS方法相比,在保持相近的码率时,本发明能够在平均亮度PSNR上提高0.37dB,平均编码速度快13.86fps,即提高97%。
-
公开(公告)号:CN101510299A
公开(公告)日:2009-08-19
申请号:CN200910046976.1
申请日:2009-03-04
Applicant: 上海大学
Abstract: 本发明公开了一种上述基于视觉显著性的图像自适应方法,该方法首先是计算原始图像的能量;其次是提取原始图像中的显著性对象并且增强显著性对象的相对能量;然后是利用动态规划技术找出图像中垂直方向和水平方向上能量最低的缝隙,剔除这些缝隙,从而实现图像的自适应。该自适应方法由于剔除的是图像中能量最低的缝隙,所以图像整体能量损失最小;由于显著性对象的相对能量较高,剔除的缝隙不会穿过显著性对象,所以图像自适应后显著性对象会保持完整。因此,该方法能够实现在智能移动设备中低分辨率和小屏幕环境下将图片的视觉效果失真降到最低,且保持其中显著性对象的完整性,为观看者提供与高分辨率显示设备上完全一样的视觉效果。
-
公开(公告)号:CN102930593B
公开(公告)日:2016-01-13
申请号:CN201210366761.X
申请日:2012-09-28
Applicant: 上海大学
IPC: G06T15/20
Abstract: 本发明涉及一种双目系统中基于GPU(图形处理器)的实时绘制方法。本发明在双目系统的发送端绘制出空洞掩膜图像并提取大空洞的纹理信息,然后在系统的接收端利用提取的纹理信息填充大空洞,同时利用插值算法填充小空洞;本发明采用GPU加速虚拟视点图像的绘制,首先利用CUDA(通用并行计算架构)技术将每个像素投影到三维空间,然后应用Open GL(开源的图形程序接口)技术将三维空间中的像素投影到二维平面完成虚拟视点图像的绘制。本发明大幅度提高了绘制的速度,合成的新视点图像在主、客观质量上达到了较好的效果,可实现双目系统的实时绘制。
-
-
-
-
-
-
-
-
-