-
公开(公告)号:CN111083502A
公开(公告)日:2020-04-28
申请号:CN201911065748.9
申请日:2019-11-04
Applicant: 杭州电子科技大学
IPC: H04N19/895 , H04N19/65 , H04N19/103 , H04N19/176 , H04N19/70
Abstract: 本发明涉及一种基于块编码特性的3D视频错误隐藏方法。本发明方法首先区分丢失块所属的区域类型。属于背景区域的丢失块采用加权平均前后向帧中同位块像素的方法恢复。对属于前景区域的丢失块,利用丢失块的周围可用块的信息来估计当前丢失块的编码预测方式,将丢失块分类成帧内编码块、帧间编码块和视间编码块。针对帧内编码,采用加权融合运动补偿块和视间补偿块恢复;针对帧间编码块,采用线性双向预测或单向搜索预测恢复;针对视间编码块,利用灰度共生矩阵改进传统边界匹配准则恢复。本方法根据不同编码特性的丢失块采用不同的恢复方法对3D视频流传输中右视点出错帧,有较好的重建效果。
-
公开(公告)号:CN110049338A
公开(公告)日:2019-07-23
申请号:CN201910344082.4
申请日:2019-04-26
Applicant: 杭州电子科技大学
IPC: H04N19/503 , H04N19/119 , H04N19/96 , H04N19/147 , H04N19/14 , H04N19/30 , H04N19/103
Abstract: 本发明公开了基于多层次分类的HEVC快速帧间编码方法。本发明包括运用CU层次的分类树、PU层次的分类树和TU层次的分类树实现HEVC快速帧间编码,其内容包括基于CU深度分类树的快速CU划分方法、基于帧间模式分类树的快速PU选择方法和基于TU深度分类树的TU划分方法。本发明利用了HEVC编码过程中CU深度、PU模式和TU深度在时空上的相似性,减少了CU划分的复杂度,简化了帧间预测模式的选择过程,同时利用TU的变换系数特征,降低了TU划分的复杂度。
-
公开(公告)号:CN108924568A
公开(公告)日:2018-11-30
申请号:CN201810558850.1
申请日:2018-06-01
Applicant: 杭州电子科技大学
IPC: H04N19/65 , H04N19/597 , H04N19/176 , H04N19/137 , H04N19/513 , H04N13/161 , H04N13/194
CPC classification number: H04N19/65 , H04N19/137 , H04N19/176 , H04N19/513 , H04N19/597
Abstract: 本发明涉及一种基于3D-HEVC框架的深度视频错误隐藏方法。目前还缺乏在错误发生在深度图的情况下,通过错误隐藏方法改进图像最终质量的有效方法。本发明方法先把深度图中各64×64大小的编码单元块进行分类,划分成静止块和运动块,然后对静止块采用从参考帧直接拷贝同位块进行错误隐藏,对运动块采用矢量补偿的方法进行错误隐藏,最后对错误隐藏后性能不佳的错误修复块进行进一步性能优化。矢量补偿方法具体是:首先构建运动共享矢量、空域矢量集,然后计算全局视差矢量集,重建丢失块,最后计算外边界匹配度。本发明方法结合了新标准的特性并改进了已有错误隐藏方法,对立体视频在网络传输中发生的网络丢包现象有很好的恢复效果。
-
公开(公告)号:CN107682705A
公开(公告)日:2018-02-09
申请号:CN201710881865.7
申请日:2017-09-26
Applicant: 杭州电子科技大学
IPC: H04N19/65 , H04N19/176 , H04N19/895 , H04N19/513
Abstract: 本发明涉及一种基于MV-HEVC框架的立体视频B帧错误隐藏方法。传统的错误隐藏技术对于新标准MV-HEVC并不能很好的适应。本发明方法首先对立体视频中的丢失块类型进行划分,将丢失块划分为静止块和运动块,然后对不同的丢失块类型采用不同的恢复方式,静止块选择直接拷贝的方式,对运动块选择运动或视差补偿的恢复方式。本发明方法结合了新标准的特性并改进了已有错误隐藏方法,能解决在HEVC立体视频扩展标准MV-HEVC下没有相应的立体视频错误隐藏恢复技术,以及先前H.264标准下的错误隐藏技术不能直接使用在HEVC标准中的不足,对立体视频在网络传输中发生的网络丢包现象有很好的恢复效果。
-
公开(公告)号:CN105898278B
公开(公告)日:2017-10-27
申请号:CN201610363021.9
申请日:2016-05-26
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种基于双目多维感知特性的立体视频显著性检测方法。传统模型方法无法有效的检测出立体视频的显著区域。本发明方法包括显著特征提取和显著特征融合。显著特征提取是从立体视频的空间、深度以及运动三个不同维度的视图信息分别进行显著性计算,包括二维静态显著区域检测、深度显著区域检测、运动显著区域检测。显著特征融合是将已获取的三种不同维度的显著特征图采取全局非线性归一化的融合策略进行融合,进而获取立体视频显著区域。本发明方法计算复杂度低,获取的立体视频显著图质量高,可以直接应用在3D视频压缩,3D质量评估以及物体识别和追踪等工程领域中。
-
公开(公告)号:CN105198225B
公开(公告)日:2017-07-14
申请号:CN201510670012.X
申请日:2015-10-13
Applicant: 杭州电子科技大学
Abstract: 本发明公开一类双激活离子掺杂双晶相玻璃陶瓷荧光温度探针材料及其制备方法。该玻璃陶瓷组分如下SiO2:30‑50mol%;Al2O3:15‑30mol%;NaF:0‑20mol%;LiF:0‑20mol%;ZnO:0‑15mol%;ReF3:5‑15mol%;Ga2O3:5‑20mol%;LnF3:0.001‑2mol%;TM化合物:0.001‑2mol%。其中Ln为稀土离子发光中心;TM为过渡金属离子发光中心。上述玻璃陶瓷采用熔体急冷法和后续晶化热处理制备。本发明玻璃陶瓷具有强烈的温度依赖发射,可作为自校正荧光温度探测材料,最高温度灵敏度可达到8%K‑1。
-
公开(公告)号:CN106780476A
公开(公告)日:2017-05-31
申请号:CN201611244693.4
申请日:2016-12-29
Applicant: 杭州电子科技大学
CPC classification number: G06T7/0002 , G06T2207/10012 , G06T2207/20221
Abstract: 本发明具体涉及一种基于人眼立体视觉特性的立体图像显著性检测方法,本发明包括立体图像的空间以及深度两个不同维度的视图信息进行显著性计算,首先,先采用SLIC算法对单视点视图进行超像素分割,并进行区域相似性进行合并,然后,再采用GBVS算法计算二维空间显著图;接着,结合视差图中的绝对视差特征,局部视差特征和深度对比度特征进行深度显著性计算;最后,结合人眼视觉疲劳特性,对视差分布进行了合理的处理,将两种不同维度的显著图采用线性加权方式进行显著性聚合,生成立体图像显著图。本发明能够在不同的场景下有效的检测出立体图像的显著区域,适用于可疑物计算、图像检索等领域。
-
公开(公告)号:CN105331364A
公开(公告)日:2016-02-17
申请号:CN201510656765.5
申请日:2015-10-12
Applicant: 杭州电子科技大学 , 杭州广荣科技有限公司
CPC classification number: Y02B20/181 , C09K11/7706 , H01L33/502
Abstract: 本发明提供一种YAG:Mn红色荧光粉以及其制备方法和应用。所研制的红色荧光粉可以有效的应用在白光LED中。本发明的荧光粉其化学通式为:RE(3-y)Al(5-x-z)O12:xMn4+/yCa2+/zME,其中RE为Y3+、Lu3+、Gd3+中的一种或多种;ME=Mg2+、Ge4+中的一种或两种;x=0.001~0.2、y=0~0.8、z=0~0.8,且y、z不同时为0。本发明的荧光粉通过共掺杂Mg2+、Ca2+和Ge4+离子作为化合价补偿离子增强其发光效率。
-
公开(公告)号:CN104780383A
公开(公告)日:2015-07-15
申请号:CN201510053812.7
申请日:2015-02-02
Applicant: 杭州电子科技大学
IPC: H04N19/597 , H04N19/82
Abstract: 本发明涉及一种3D-HEVC多分辨率视频编码方法。本发明方法在视频编码器内部对基本视点视频采用原始分辨率编码,而对依赖视点视频采用降分辨率编码。本发明方法将基本视点视频下采样作为依赖视点视频的参考帧,同时在编码器内对依赖视点视频进行下采样。在解码器内,根据人眼对视频图像亮度的变化敏感度大于色度的变化,采用双滤波器插值方法对亮度分量采用6抽头滤波器进行精确上采样,而对色度分量采用4抽头滤波器进行上采样。本发明方法在保持编码性能的前提下,降低了算法复杂度。
-
公开(公告)号:CN114286093B
公开(公告)日:2025-05-23
申请号:CN202111599851.9
申请日:2021-12-24
Applicant: 杭州电子科技大学
IPC: H04N19/119 , H04N19/105 , H04N19/14 , H04N19/11 , H04N19/593 , H04N19/147 , H04N19/96 , G06V10/764 , G06V10/82 , G06V10/774 , G06V20/40 , G06N3/0464 , G06N3/0455 , G06N3/0499 , G06N3/084
Abstract: 本发明公开了一种基于深度神经网络的快速视频编码方法。本发明包括基于深度神经网络的CU划分模块、基于邻域相关性的PU模式选择模块;CU块在帧内编码时会先经过PU模式选择计算率失真代价,此时先利用基于邻域相关性的PU模式选择模块进行优化,通过轻量级HCT模型的预测结果来减少RDO计算的候选模式数量;PU模式选择结束后,编码器会进行CU块深度判决,判断该CU块是否进行划分,此时由基于深度神经网络的CU划分模块进行优化,从HCT模型获得预测结果来判断是否提前终止划分。否则继续向下划分子CU块,并继续进行PU模式选择和CU块划分判决。本发明降低了CU递归划分的复杂度,简化了帧内预测模式的选择过程,有效地提高了HEVC编码的时间效率。
-
-
-
-
-
-
-
-
-