-
公开(公告)号:CN107509074A
公开(公告)日:2017-12-22
申请号:CN201710555070.7
申请日:2017-07-10
Applicant: 上海大学
IPC: H04N19/103 , H04N19/115 , H04N19/44 , H04N19/132 , H04N19/176 , H04N19/503 , H04N19/593 , H04N19/597 , H04N19/70
CPC classification number: H04N19/103 , H04N19/115 , H04N19/132 , H04N19/176 , H04N19/44 , H04N19/503 , H04N19/593 , H04N19/597 , H04N19/70
Abstract: 本发明公开了一种基于压缩感知的自适应3D视频编解码方法。首先将多视点视频划分为关键视点和非关键视点,对于关键视点又分为关键帧和非关键帧;对于关键帧采用较高的采样率;对于非关键帧按照当前帧与关键帧的残差进行图像块的分类(SKIP、INTER和COMBINED模式),不同模式采用不同的采样率;对于非关键视点也采用类似的办法。对于解码端先对关键视点的关键帧进行恢复;再利用关键帧信息对非关键帧进行恢复;对于非关键视点利用关键视点的信息进行恢复。本发明方法能有效地降低编码端的计算复杂度,能够适用于编码端计算能力弱而同时解码端拥有强大计算能力的场景,能显著提高3D视频压缩效率。
-
公开(公告)号:CN106534856A
公开(公告)日:2017-03-22
申请号:CN201610879363.6
申请日:2016-10-09
Applicant: 上海大学
IPC: H04N19/154 , H04N19/176 , H04N19/625 , H04N19/90
CPC classification number: H04N19/154 , H04N19/176 , H04N19/625 , H04N19/90
Abstract: 本发明公开了一种基于感知及随机置换的图像压缩感知方法,将图像分割成n×n的图像块,然后对每个图像块进行DCT变换;然后在DCT域利用JND模型计算JND值,并利用JND值对原始的DCT系数进行处理。即将小于JND值的DCT值置零,同时大于JND值的DCT值保持不变,再对处理后的数据进行随机置换;然后利用随机矩阵进行观测,得到压缩感知的测量值;最后对接收到的数据进行恢复。本发明方法在降低编码端复杂度的同时具有一定的抗数据丢失的能力,能够适用于编码端计算能力差而同时拥有强大的解码端的场合,能显著提高了压缩的效率。
-
公开(公告)号:CN103475875B
公开(公告)日:2017-02-08
申请号:CN201310261818.4
申请日:2013-06-27
Applicant: 上海大学
IPC: H04N19/115 , H04N19/147 , H04N19/176 , H04N19/625
Abstract: 本发明涉及一种基于压缩感知的图像自适应测量方法。本方法的操作步骤如下:(1)对输入图像建立恰可辨失真阈值模型,(2)对不同图像区域,自适应采用不同的测量数目进行测量,(3)进行分块正交匹配追踪算法重建,(4)进行反离散余弦变换,生成图像。本发明对图像压缩感知中的测量过程进行了改进,改变了原有的对图像所有的区域进行单一数目测量的方式,而是根据人眼的视觉特性采取对图像不同区域自适应测量。在保证主观质量和客观质量保持不变的情况下,提高了图像的压缩效率。
-
公开(公告)号:CN103533348A
公开(公告)日:2014-01-22
申请号:CN201310444517.5
申请日:2013-09-26
Applicant: 上海大学
IPC: H04N19/00 , H04N19/50 , H04N19/103 , H04N19/147 , H04N19/91 , H04N19/625 , H04N13/00
Abstract: 本发明涉及基于视觉感知的多视点快速模式选择方法。本方法的操作步骤如下:(1)读取B视点输入视频的每帧像素值,建立时域的恰可辨失真阈值模型;(2)利用恰可辨失真模型,进行感知模式选择;(3)输出视频比特流。本发明在保证编码性能几乎不变的同时,能够显著降低多视点视频编码的复杂度,能够满足实际应用中对视频通信的实时需求。
-
公开(公告)号:CN102420988A
公开(公告)日:2012-04-18
申请号:CN201110394257.6
申请日:2011-12-02
Applicant: 上海大学
Abstract: 本发明涉及多视点视频编解码技术领域,尤其涉及一种利用视觉特性的多视点视频编码系统。本发明包括DCT域的最小可察觉失真阈值计算模块、多视点视频编码模块,其中,DCT域的最小可察觉失真阈值计算模块包括空间对比灵敏度函数子模块、背景亮度掩盖效应子模块、纹理掩盖效应子模块、时间对比灵敏度函数子模块,多视点视频编码模块包括预测编码子模块、DCT编码子模块、DCT域滤波子模块、量化和熵编码子模块、视频序列重建子模块、率失真优化子模块,本发明通过建立DCT域的JND模型,并将其运用到多视点视频编码中的DCT域滤波和率失真优化模块。本发明能够在主观质量不变的情况下,降低多视点视频编码码率,提高多视点视频编码效率。
-
公开(公告)号:CN116977198A
公开(公告)日:2023-10-31
申请号:CN202310424130.7
申请日:2023-04-19
Applicant: 上海大学
IPC: G06T5/00 , G06T5/50 , G06T3/40 , G06V10/42 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/09
Abstract: 本发明提供了一种高动态范围图像重建方法和系统,构建基于双分支结构递归频带重建机制的高动态范围图像重建模型;采用公开样本集;构建训练样本集,对所述高动态范围图像进行训练,得到高动态范围图像生成模型;将大运动前景下多张连续不同曝光的低动态图像输入至所述高动态范围图像生成模型,得到对应的高动态范围图像。本发明基于双分支结构递归频带重建机制重建网络,有效解决在大运动前景下高动态范围重建算法容易产生鬼影效应和噪声的问题;通过对输入多曝光低动态范围图中本地特征和全局特征分别进行提取和融合,重建后的高动态范围图像质量更高,并引入递归频带重建机制,从低中高频分别对图像进行重建,网络能够更好的学习重建任务。
-
公开(公告)号:CN109859166B
公开(公告)日:2023-09-19
申请号:CN201811596663.9
申请日:2018-12-26
Applicant: 上海大学
IPC: G06T7/00 , G06V10/774 , G06V10/778 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于多列卷积神经网络的无参3D图像质量评估方法。该方法分为块训练和全局训练两部分。块训练部分,将左右视点分别划分为相同大小的块,计算每块的SSIM,将这些带有SSIM标签的块用基于级联的多列卷积神经网络的深度学习网络进行训练。全局训练部分,将左右视点的块用上一部分的网络预测得到SSIM值,将这些SSIM值排列成一个列向量。最后,用几个全连接网络将特征向量映射为一个3D图像主观质量值。本发明方法在LIVE Phase I和LIVE Phase II通用3D图像数据库上进行试验,都具有较高的鲁棒性和准确性。
-
公开(公告)号:CN109740592B
公开(公告)日:2023-06-16
申请号:CN201811471755.4
申请日:2018-12-04
Applicant: 上海大学
IPC: G06V20/62 , G06V10/778 , G06V10/764
Abstract: 本发明公开了一种基于记忆的图像质量无参考评估方法。首先,通过视觉驱动的图像记忆特征预测模型提取图像记忆特征。利用基于局部协方差的显著性估计法获得失真图像的人眼感兴趣区域,对感兴趣区域使用不同尺度和方向的Gabor滤波器滤波得到感兴趣区域的GIST特征,最后进行独立成分分析得到记忆特征。然后,利用梯度域的局部二值模式(Local binary pattern on gradient domain,GLBP)描述图像的结构特征,计算图像的一阶导数熵(Entropy of first derivative,EFD)描述亮度特征。最后,采用以径向基函数为核函数的支持向量回归模型将图像特征映射到图像质量分数。本发明方法在MDID2013和LIVEMD两个通用混合失真图像数据库上进行试验,都具有较高的鲁棒性和准确性。
-
公开(公告)号:CN109255755B
公开(公告)日:2023-05-23
申请号:CN201811241002.4
申请日:2018-10-24
Applicant: 上海大学
IPC: G06T3/40 , G06N3/0464
Abstract: 本发明公开了一种基于多列卷积神经网络的图像超分辨率重建方法。首先,根据深度学习算法设计多列卷积神经网络模型,包括特征提取部分和图像重建部分。然后,把原始图像切成小块,并对这些高分辨率的小块做下采样,从而得到低分辨率的小块,使用这些低分辨率和高分辨率的小块对来建立训练集。最后,使用随机梯度下降算法对这个模型进行训练,得到一个将低分辨率图像重建到高分辨率图像的模型,将输入的低分辨率图像重建恢复成对应的高分辨率图像。本发明方法在Set5,Set14,BSDS100,Urban100和Manga109五个通用图像数据库上进行试验,都具有较高的鲁棒性和准确性。
-
公开(公告)号:CN110689599B
公开(公告)日:2023-05-19
申请号:CN201910849986.2
申请日:2019-09-10
Applicant: 上海大学
IPC: G06V10/46 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/084 , G06N3/094 , G06N3/096
Abstract: 本发明公开了一种基于非局部增强的生成对抗网络的3D视觉显著性预测方法。具体步骤为:(1)非局部密集增强的编解码器网络生成器:输入是RGB图和深度图,经过网络提取图像的多尺度特征,非局部增强网络可结合局部信息与全局信息和实现特征重用。(2)判别网络:将RGB图、深度图和显著性图作为鉴别器的输入,输出表示输入的图片为人眼显著性的概率。(3)基于非局部增强的生成对抗网络模型训练:在训练过程中,使用双路编码器分别对RGB图像和深度图像分别训练,且深度图像采用迁移训练;采用了多尺度生成损失函数和对抗损失函数联合作为最终损失函数来指导训练。(4)、最后,利用步骤(3)训练好的网络模型进行测试,可得到显著性图。
-
-
-
-
-
-
-
-
-