-
公开(公告)号:CN106209949A
公开(公告)日:2016-12-07
申请号:CN201510230757.4
申请日:2015-05-07
Applicant: 北京大学 , 北大方正集团有限公司北京北大方正电子有限公司
IPC: H04L29/08 , H04L29/06 , H04N21/238 , H04N21/234
Abstract: 本发明实施例提供一种基于WebRTC的交互式直播方法及装置。该方法包括:服务器通过服务器WebRTC接口接收第一用户终端从第一WebRTC接口发送的第一视频数据;所述服务器将所述第一视频数据通过所述服务器WebRTC接口发送给第二用户终端的第二WebRTC接口。本发明实施例用户终端通过WebRTC接口将视频数据发送给服务器,服务器通过WebRTC接口向其他用户终端转发视频数据,使得用户终端与服务器均不需要安装专门的软件或插件便能实现网络视频直播服务,有效简单地实现了网络视频直播服务。
-
公开(公告)号:CN104219522A
公开(公告)日:2014-12-17
申请号:CN201310219528.3
申请日:2013-06-04
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: H04N19/124 , H04N19/136 , H04N19/176
Abstract: 本发明公开了一种对视频图像编码中的码率控制方法及装置,方法为:获取视频序列中的当前帧,若判断该当前帧不是起始帧并且不是场景变换帧,则将当前帧对应的视频图像块划分为预设数目的视频图像子块,并分别获取每一个视频图像子块对应的像素平均梯度,根据当前帧对应的视频图像的量化参数阈值以及像素平均梯度,分别获取每一个视频图像子块对应的QP值;根据上述QP值对当前帧对应的视频图像进行编码。采用本发明技术方案,根据当前帧的特性以及像素平均梯度为视频图像的各个部分分配相应的QP值,减少了码率的波动,提高了编码后视频图像的质量。
-
公开(公告)号:CN101146228A
公开(公告)日:2008-03-19
申请号:CN200710176293.9
申请日:2007-10-24
Applicant: 北京大学
Abstract: 本发明涉及一种基于率失真函数分析模型的SVC平滑重建方法,其包括以下步骤:(1)提出一种伪GOP(Virtual GOP)的概念,每个伪GOP包含两个相邻的关键帧(keypicture)和之间的所有B帧;(2)建立FGS率失真函数模型,所述模型描述为:PSNR(R)=a*R+A-(A-B)/(1+b*R);(3)根据所述模型,对SVC视频进行质量平滑重建。本发明以伪GOP为基本调度单位,根据每个伪GOP中的率失真模型首先对各个伪GOP进行质量平滑,然后进而对伪GOP内各帧进行质量平滑。利用本发明方法,可以以较小的复杂度实现SVC视频平滑,尽可能的提高重建视频的主观以及客观质量。
-
公开(公告)号:CN101031069A
公开(公告)日:2007-09-05
申请号:CN200610165135.9
申请日:2006-12-13
Applicant: 北京大学 , 中国科学院计算技术研究所 , 中国网通集团宽带业务应用国家工程实验室有限公司
Abstract: 本发明涉及一种网络电视视频化电子节目导航方法及系统,本发明方法是在由实时视频源、点播视频源、边缘服务器,IP网络、客户端组成的网络电视视频服务系统中,增设一专门用于生成节目预览所需要的马赛克小视频流的马赛克系统服务器,通过马赛克系统服务器的视频流接收端接收实时视频源或点播视频源的视频流,通过马赛克系统服务器的节目预览视频流编码器将接收的每个节目的视频流编码为正常播放时视频尺寸1/N大小的独立的小尺寸预览视频,并通过马赛克系统服务器的交互接口为客户端提供选定的N个小尺寸节目视频流数据预览画面。本发明在对网络带宽没有更高要求的前提下,客户端可以同时流畅地显示多个用户自定制节目的预览画面供用户选择。
-
公开(公告)号:CN114449296A
公开(公告)日:2022-05-06
申请号:CN202011230701.6
申请日:2020-11-06
Applicant: 北京大学
IPC: H04N19/82 , H04N19/42 , H04N21/4402
Abstract: 本发明公开了一种基于卷积神经网络的环路滤波方法和装置。该方法的步骤包括:建立并训练用于重建视频质量恢复的卷积神经网络,包括第一网络、第二网络和第三网络;利用索贝尔算子和二阶拉普拉斯算子求出输入的重建图像的一阶梯度和二阶梯度;利用第一网络和第三网络对输入的重建图像的一阶梯度和二阶梯度进行恢复,并将恢复的梯度与输入的重建图像的特征图进行整合,得到整合后的特征图;将整合后的特征图经过第二网络,得到恢复后的重建图像。相对于传统的环路滤波技术,本发明通过卷积网络提取视频特征,提高了对压缩视频的恢复能力。本发明在GPU的加速下能够与传统滤波技术的计算复杂度相当,且能够更加有效提升视频编码器压缩视频质量。
-
公开(公告)号:CN114449273A
公开(公告)日:2022-05-06
申请号:CN202011230726.6
申请日:2020-11-06
Applicant: 北京大学
IPC: H04N19/122 , H04N19/129 , H04N19/176 , H04N19/56
Abstract: 本发明公开了一种基于HEVC增强型块划分搜索方法和装置。该方法执行深度优先的完全搜索过程,将编码单元CU划分成特定尺寸的CU;在搜索过程中,判断是否提早终止搜索,如果是则终止搜索;如果否,则通过候选划分优化来决定需要搜索的划分类型,将其加入候选划分集;遍历候选划分集,利用编码信息的信息重用来决定最终的划分类型。相对于原标准,本发明在编码块划分过程中充分考虑上下文的影响,并以此来提升块划分的搜索过程的准确率。本发明能够在不改变视频编解码标准的情况下,进一步提升视频编码的压缩率。
-
公开(公告)号:CN113283585B
公开(公告)日:2022-04-29
申请号:CN202110564160.9
申请日:2021-05-24
Applicant: 北京大学
Abstract: 本发明公开了一种基于自注意力机制的知识追踪方法及系统,涉及知识追踪领域,通过建立多头自注意力机制编码器和解码器神经网络,计算与当前时间序列对应的知识组件的自注意力知识追踪模型的参数,利用自注意力知识追踪模型计算学习者关于当前时间序列对应的题目答题结果正确的概率预测值,通过对比知识追踪数据集中当前时间序列的题目答题结果的真实值,得到与当前时间序列对应的自注意力机制神经网络模型的损失函数,通过回溯算法得到权重参数的优化值;从而实现学习者对当前知识组件的认知状态预测,并以此为依据为学习者规划学习路径。
-
公开(公告)号:CN113283584B
公开(公告)日:2022-03-25
申请号:CN202110557278.9
申请日:2021-05-21
Applicant: 北京大学
Abstract: 本发明提供一种基于孪生网络的知识追踪方法及系统,涉及知识追踪领域,通过建立孪生神经网络,计算知识追踪数据集中题目对应相关关系的孪生网络模型的参数,从而利用孪生网络模型计算题目之间的相似性关系,通过对比知识追踪数据集中当前题目组相似性关系的真实值,得到与当前题目组对应的孪生网络模型的损失函数,从而通过回溯算法得到权重参数的优化值;从而实现题目之间的相似性关系特征预测,并以此知识追踪数据集中相似题目的答对率为依据判断学习者是否能答对当前题目。
-
公开(公告)号:CN108512817B
公开(公告)日:2020-09-04
申请号:CN201710114359.5
申请日:2017-02-28
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: H04L29/06 , H04N21/231 , H04N21/2343
Abstract: 本发明实施例提供一种多视频转码调度方法及装置。该方法包括:计算多个视频中每个视频分别在多个服务器中每个服务器上的转码完成时刻;对每个视频各自对应的最小的转码完成时刻按升序排列构成目标序列;确定目标序列中的两个相邻的转码完成时刻;若两个相邻的转码完成时刻在目标序列的后半部分,则将目标序列中的最后一个转码完成时刻对应的视频安排在服务器上进行转码;若两个相邻的转码完成时刻在目标序列的前半部分,则将目标序列中的第一个转码完成时刻对应的视频安排在服务器上进行转码。本发明实施例减少了多视频转码的整体耗时,提高了转码系统的效率。
-
公开(公告)号:CN108512817A
公开(公告)日:2018-09-07
申请号:CN201710114359.5
申请日:2017-02-28
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: H04L29/06 , H04N21/231 , H04N21/2343
Abstract: 本发明实施例提供一种多视频转码调度方法及装置。该方法包括:计算多个视频中每个视频分别在多个服务器中每个服务器上的转码完成时刻;对每个视频各自对应的最小的转码完成时刻按升序排列构成目标序列;确定目标序列中的两个相邻的转码完成时刻;若两个相邻的转码完成时刻在目标序列的后半部分,则将目标序列中的最后一个转码完成时刻对应的视频安排在服务器上进行转码;若两个相邻的转码完成时刻在目标序列的前半部分,则将目标序列中的第一个转码完成时刻对应的视频安排在服务器上进行转码。本发明实施例减少了多视频转码的整体耗时,提高了转码系统的效率。
-
-
-
-
-
-
-
-
-