-
公开(公告)号:CN102801996A
公开(公告)日:2012-11-28
申请号:CN201210237892.8
申请日:2012-07-11
Applicant: 上海大学
Abstract: 本发明涉及一种基于JNDD模型的快速深度图编码模式选择方法。本方法是:对编码宏块进行边缘检测,得到当前块的边缘值;利用最小可觉深度差模型确定宏块内不同深度值区域内的深度差不可被人眼察觉的门限值,与边缘值进行比较,将深度图划分为垂直边缘区域与平坦区域;对边缘区域采用全搜索策略,对平坦区域采用SKIP模式、帧间16×16模式和帧内模式搜索。本发明根据深度数据的特点及深度编码失真对绘制视质量的影响,在保证虚拟视质量与编码码率基本不变的前提下,可显著降低编码复杂度、提高三维视频系统中深度图编码模块的编码速度。
-
公开(公告)号:CN101369348B
公开(公告)日:2010-09-15
申请号:CN200810040630.6
申请日:2008-11-07
Applicant: 上海大学
Abstract: 本发明涉及一种汇聚式相机的多视点采集/显示系统中新视点重建方法。本发明针对汇聚型相机采集方式,首先建立了汇聚式相机的几何模型,综合考虑采集系统所涉及各项参数,通过信号采样理论分析得到无失真重建视点的最优条件,然后又对场景的FPI图像进行了谱分析,得出场景EPI光谱特性与场景深度变化范围的关系。根据上述分析确定采样图像数目,并设计视点重建滤波器,通过插值技术为重建新视点生成采样图像,最后根据汇聚模型设计绘制重建方法得到一定范围内三维场景的新视点。实验时分别对具有相似参数的模拟系统及实际系统进行验证,得到良好的重建质量。本发明对于其他相机阵列类型及视点重建系统也具有参考价值。
-
公开(公告)号:CN101674472A
公开(公告)日:2010-03-17
申请号:CN200910196532.6
申请日:2009-09-25
Applicant: 上海大学
Abstract: 本发明公开了一种多视点视频编码的多级码率控制方法,该方法首先根据相关性函数在视点间合理分配码率,然后根据分层B图像比特分配策略实现帧层的比特分配,最后根据拉普拉斯率失真模型实现宏块层的码率控制,其步骤是:(1)建立多个视点同时编码的框架;(2)GGOP层比特分配和码率控制;(3)GOP层比特分配和码率控制;(4)Frame层比特分配和码率控制;(5)Macroblock层比特分配和码率控制等,当判断出当前GGOP是最后一个GGOP,则整个码率控制过程结束。该方法采用了拉普拉斯率失真模型,复杂度较低,计算量较小,码率控制的误差在1%之内,并有平均0.1dB左右的解码图像PSNR增益;在视点间进行了合理的比特分配,其视点编码图像的均衡性较好,具有实际操作性。
-
公开(公告)号:CN101478694A
公开(公告)日:2009-07-08
申请号:CN200810203999.4
申请日:2008-12-04
Applicant: 上海大学
IPC: H04N17/00
Abstract: 本发明涉及一种基于光线空间的自由视点图像质量评价方法。本发明利用光线空间中方向相同直线的边缘像素方向一致性参数,来评价由以上三种不同插值方法所得光线空间质量。首先获取上述三种插值方法所得光线空间中所有像素方向角度的高频能量图,同时获取这些光线空间的噪声较少的且方向一致的边缘图,然后计算边缘图中像素方向角度的平均高频能量值,并将此值作为评价插值所得的光线空间边缘像素方向的一致性的重要依据。最后验证评价出的高质量的光线空间是否能生成高质量的视点图像。测试表明,与已有技术相比,本发明分别对固定方向插值所得光线空间,双线性插值所得光线空间,最邻近插值所得光线空间进行质量评价时,得到的参数变化更均匀,与PSNR评价结果变化特性更接近。
-
公开(公告)号:CN1204757C
公开(公告)日:2005-06-01
申请号:CN03116541.9
申请日:2003-04-22
Applicant: 上海大学
IPC: H04N13/00
Abstract: 本发明涉及一种立体视频数据压缩技术。本发明在对立体摄像系统采集的双目视频流进行编码时,对其中一路按照兼容MPEG系列的标准进行编码,对另一路图象分别采用视差补偿预测、联合视差与运动补偿预测以及在解码端通过帧估计和内插进行恢复的方法进行编码传输。其中视差估计采用基于马尔可夫模型的多级分割块估计,帧估计和内插的方法为利用在解码端恢复的参考帧图象以及相应的视差和运动矢量,用基于帧估计概率模型的方法进行估计和内插。解码端分两级解码,一级是只解码主视频流,得到在普通显示设备上显示的单视频,另一级是解码全部双视频流,恢复的立体视频信号由自动立体显示器合成显示立体图像。
-
公开(公告)号:CN111460968B
公开(公告)日:2024-02-06
申请号:CN202010231230.4
申请日:2020-03-27
Applicant: 上海大学 , 上海文广科技(集团)有限公司
IPC: G06V20/40 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于视频的无人机识别与跟踪方法及装置,该方法包括:对收集的数据集逐个进行手工无人机的标注,获得多个型号且不同尺寸的无人机标注样本;以此数据集对基于YOLOv3的网络进行训练,得到训练后的深度学习目标检测模型;采用Retinex图像增强手段提高待检测的无人机视频的图像质量,通过深度学习目标检测模型识别待检测的无人机视频每一帧;基于Sort算法实现快速对视频中的无人机跟踪。本发明可以高鲁棒高精度识别视频中的无人机并跟踪无人机,并且当无人机图像不清晰时,可以进行图像增强,适用于各种复杂场景。
-
公开(公告)号:CN115147836A
公开(公告)日:2022-10-04
申请号:CN202210896803.4
申请日:2022-07-28
Applicant: 上海大学
Abstract: 本发明提供一种基于深度学习的无参考光场图像质量评价方法,包括:对基于微透镜成像的光场透镜图像进行预处理,获得面向神经网络的输入数据;将所述输入数据输入卷积神经网络先后学习了光场角度特征、空间特征以及角度‑空间融合特征;基于所述角度‑空间融合特征预测获得一个质量预测值。本发明利用了卷积神经网络来分析光场图像的角度‑空间特性,与其他无参考质量评价方法相比,具有更好的准确性。
-
公开(公告)号:CN114862677A
公开(公告)日:2022-08-05
申请号:CN202210483032.6
申请日:2022-05-05
Applicant: 上海大学
Abstract: 本发明提供基于网格变形和低阶近似的光场拼接方法,包括:获得待拼接光场的深度图;根据所述深度图将中心子孔径图像分为前景、后景;提取特征点后,对左、右两光场的后景进行匹配;基于传统二维图像,拼合所述中心子孔径图像;使用控制点引导网络变形方法校准两个不同的光场到全景图上;用光场的低秩特征,在不使用四维图割的前提下,寻找校准后光场的缝合线并进行融合。本发明使用控制点引导网格变形技术校准两个不同的光场到全景图上,并应用低秩近似直接采用传统的二维图割取代四维图割从而降低方法的时间复杂度。与其他的光场拼接算法相比具有更好的拼接质量、角度域一致性以及更低的时间复杂度。
-
公开(公告)号:CN105872561B
公开(公告)日:2019-07-23
申请号:CN201511015791.6
申请日:2015-12-29
Applicant: 上海大学
IPC: H04N19/597 , H04N19/107 , H04N19/34 , H04N19/19 , H04N19/147
Abstract: 本发明涉及一种可分级多视点视频加深度宏块编码模式快速选择方法,其步骤是:1.基本视V0编码:使用全遍历选择方式编码纹理视频T0;根据对应T0宏块的编码模式,快速选择深度视D0宏块的编码模式。2.增强视V1编码:对纹理视频T1,根据其参考视点T0和D0的宏块编码模式以及宏块纹理复杂度之间的关系,快速选择当前宏块的编码模式;对深度视频D1,根据参考视点T1对应位置宏块的编码模式以及当前深度宏块在DIRECT或Inter16x16模式下的CBP值快速选择当前深度宏块的编码模式。3.增强视V2编码:参考步骤2中原理,但纹理视频T2参考视点T1和D1,深度视频D2参考视点T2。本方法在编码增强视的纹理视频和深度视频时,可提前终止模式选择的过程,降低编码的时间复杂度。
-
公开(公告)号:CN109348227A
公开(公告)日:2019-02-15
申请号:CN201811402001.3
申请日:2018-11-22
Applicant: 上海大学
IPC: H04N19/176 , H04N19/139 , H04N19/172
Abstract: 本发明提供了一种适用于视频编码的运动自适应帧内刷新方法,包括:将待编码的视频帧划分为若干个区块,且每个区块包含有若干个子区域;根据每个区块中各个子区域的运动矢量信息,统计每个区块在不同刷新方向上的产生成本;根据各个区块在不同刷新方向上的产生成本,以及相邻区块之间的相关程度,得到所述待编码的视频帧中各个区块的目标刷新策略;根据所述目标刷新策略对所述待编码的视频帧的各个区块进行编码。从而改善了现有的周期性帧内刷新方法的不足,将运动状态信息引入帧内刷新策略,最大限度的降低了运动矢量逆向带来的率失真性能的下降,使得帧内刷新在保持低延迟特性的同时能够获得更高的视频质量。
-
-
-
-
-
-
-
-
-