-
公开(公告)号:CN102254325A
公开(公告)日:2011-11-23
申请号:CN201110205296.7
申请日:2011-07-21
Applicant: 清华大学
Abstract: 本发明公开了一种运动模糊场景的分割及前景提取方法和系统。该方法包括:将采集到的图像进行颜色空间变换得到第一图像,并对第一图像进行均衡;将采集到的图像与背景图像相减,并将相减后得到的图像进行颜色空间变换得到第二图像,并对第二图像进行均衡;根据均衡后的第一图像和第二图像得到背景区域计算成像平面上每个像素的累积能量,并对能量分布图的二值图进行腐蚀;计算场景模型骨架各组成部分的模糊程度,对选取的在一曝光时刻的清晰图像进行腐蚀;根据腐蚀后的能量分布图的二值图以及腐蚀后的清晰图像得到前景区域;根据前景区域和背景区域,利用trimap算法得到前景提取结果。本发明能够对高速运动造成的大范围模糊实现准确的前景提取。
-
公开(公告)号:CN101282492B
公开(公告)日:2010-07-21
申请号:CN200810112454.2
申请日:2008-05-23
Applicant: 清华大学
Abstract: 本发明涉及三维影像显示深度调整方法,属于三维影像处理技术领域。该方法包括:利用一路平面视频及其对应的深度视频合成三维影像时,首先确定屏幕平面对应的深度值及视差与深度的转化比例,进而求出不同深度区域对应的视差大小,并根据此值对各个区域分别平移得到左右视图结果;而利用左右两路平面视频合成三维影像时,首先确定拍摄对象对应的视差大小,并根据此值将拍摄对象在两路视图中进一步平移得到左右视图结果。接下来对得到的视图结果进行融合补洞处理,并根据处理后的左右视图合成三维影像。本发明通过调整显示深度,可以放大拍摄对象的纵深运动或者将拍摄对象推进到屏幕前;而这些都使得三维影像的立体感和视觉冲击力大大增强。本发明适用于所有基于左右视差原理合成的三维影像。
-
公开(公告)号:CN100557640C
公开(公告)日:2009-11-04
申请号:CN200810105344.3
申请日:2008-04-28
Applicant: 清华大学
Abstract: 本发明涉及一种引入了用户交互式操作的三维重建算法,属于计算机多媒体技术领域。该方法为:用户利用多个摄像机,获得对物体的多个视点的二维图像Ii,提取出其轮廓图;计算机根据各摄像机几何参数和轮廓图,获取实际场景的可视化外壳模型,并将其转化为点云形式;提取各图像中的二维特征,优化出这些特征所对应的实际表面之模型的部分;用户将图像Ii划分出平滑度区域,及凹陷度区域;依据以上选出的各区域建立出不均匀的带权图,并采用求出图的最小割,并从中得出优化后的场景表面模型。该方法根据输入的对实际物体所拍摄的多视点图像和各图像所对应的摄像机参数,结合用户的辅助操作,能够以较快的速度高质量地重建出物体的三维模型。
-
公开(公告)号:CN101282492A
公开(公告)日:2008-10-08
申请号:CN200810112454.2
申请日:2008-05-23
Applicant: 清华大学
Abstract: 本发明涉及三维影像显示深度调整方法,属于三维影像处理技术领域。该方法包括:利用一路平面视频及其对应的深度视频合成三维影像时,首先确定屏幕平面对应的深度值及视差与深度的转化比例,进而求出不同深度区域对应的视差大小,并根据此值对各个区域分别平移得到左右视图结果;而利用左右两路平面视频合成三维影像时,首先确定拍摄对象对应的视差大小,并根据此值将拍摄对象在两路视图中进一步平移得到左右视图结果。接下来对得到的视图结果进行融合补洞处理,并根据处理后的左右视图合成三维影像。本发明通过调整显示深度,可以放大拍摄对象的纵深运动或者将拍摄对象推进到屏幕前;而这些都使得三维影像的立体感和视觉冲击力大大增强。本发明适用于所有基于左右视差原理合成的三维影像。
-
公开(公告)号:CN1988545A
公开(公告)日:2007-06-27
申请号:CN200610165572.0
申请日:2006-12-22
Applicant: 清华大学
IPC: H04L29/06
Abstract: 本发明涉及用于大数量摄像头阵列标定的图像采集方法,属于计算机多媒体技术领域。该方法,包括:采集PC和控制服务器建立TCP/IP连接;设置纸板的位置和角度;控制服务器控制各个采集PC与其相连的摄像头在同一时刻对所述纸板进行图像采集,得到所有摄像头所采集的同一时刻的一组图像;变换所述纸板的位置和角度,再重复步骤3)对纸板进行图像采集,最后得到多组图像。本发明方法可以有效解决多台计算机标定图像采集中的同步问题,提高摄像机标定的精确度。
-
公开(公告)号:CN1259790C
公开(公告)日:2006-06-14
申请号:CN200310101663.4
申请日:2003-10-24
Applicant: 清华大学
Abstract: 本发明涉及一种用于跨网段传输视频码流的容错转码控制方法,属于多媒体通信技术领域。本方法首先在转码器中建立传递指数矩阵;确定转码器中当前处理帧的需刷新宏块百分比Po,并确定其中各个宏块的运动活跃程度;根据Po、传递指数矩阵以及宏块运动活跃程度确定需要进行编码刷新的宏块的位置;根据Ro和需进行编码刷新的宏块的位置,确定当前帧内所有宏块的量化系数,并对转码器中当前已解码帧的所有宏块进行编码,实现对当前处理帧的转码;根据宏块编码,更新转码器的传递指数矩阵。本发明方法实现了视频转码器的信源容错转码,算法简易,适用范围广,根据输入码流的平均比特率、前方信道的可用码率及信道的比特差错,就能实现容错转码。
-
公开(公告)号:CN119520755A
公开(公告)日:2025-02-25
申请号:CN202411639595.5
申请日:2024-11-15
Applicant: 联想(北京)有限公司 , 清华大学
IPC: H04N13/128 , H04N13/156 , H04N13/111 , H04N13/282 , H04N13/243 , H04N13/363 , H04N13/00
Abstract: 本申请公开一种图像显示方法和设备,方法包括,获得目标图像对中第一图像的第一图像特征和第二图像的第二图像特征,第一图像和第二图像分别由两个拍摄设备拍摄得到;将第一图像特征和第二图像特征融合,得到第一融合图像特征和第二融合图像特征;根据第一融合图像特征和第二融合图像特征确定深度信息;处理深度信息、目标图像对所含图像、目标图像对的高斯参数和拍摄设备的设备参数,得到高斯点云数据;根据高斯点云数据生成视点图像;通过裸眼全息显示屏显示视点图像。
-
公开(公告)号:CN118741075A
公开(公告)日:2024-10-01
申请号:CN202410977088.6
申请日:2024-07-19
Applicant: 京东方科技集团股份有限公司 , 清华大学
IPC: H04N13/383 , H04N13/111 , H04N13/106
Abstract: 本公开提供一种全息通讯设备、系统、方法和存储介质,属于计算机视觉技术领域。本公开的全息通讯设备,包括处理器被配置为基于接收到的多张第一图像,实时确定使用者的人眼三维坐标;将接收到的视频流解码为多张第二图像;多张第二图像分别为不同第二相机分别从不同视角拍摄到的、目标对象的图像;基于每张第二图像的序列信息,分别对相邻两张第二图像计算视角间视差,得到多张视差图,并将每张视差图转换为点云数据;基于各个点云数据,将第二图像的图像特征转换至人眼三维坐标,得到视点特征图;利用预先训练好的渲染神经网络模型对视点特征图进行渲染,得到使用者双目分别对应的新视点图;全息显示器被配置为基于各个新视点图进行全息显示。
-
公开(公告)号:CN118212337A
公开(公告)日:2024-06-18
申请号:CN202410626849.3
申请日:2024-05-21
Applicant: 哈尔滨工业大学(威海) , 清华大学
Abstract: 本发明公开了基于像素对齐3D高斯点云表示的人体新视点渲染方法,包括以下步骤:给定目标视点,在源视点中选择两个相邻视点并对其进行立体校正;对两个源视点图像进行特征提取并估计源视点深度;将3D高斯点云定义在源视点二维图像平面并;将多尺度的图像特征和深度特征融合,像素对齐的高斯特征分别解码为旋转特征图,尺度特征图和透明度特征图;将定义在两个视点的高斯特征图逆投影到三维空间中,渲染到目标视点得到最终渲染结果;通过最小化该误差训练神经网络,学习模型参数。本发明所提出的像素对齐3D高斯点云表示,极大程度提升稀疏视点下人体新视点生成的质量和效率。
-
公开(公告)号:CN118075570A
公开(公告)日:2024-05-24
申请号:CN202410333755.7
申请日:2024-03-22
Applicant: 清华大学
IPC: H04N21/81 , G06N3/0455 , G06N3/08 , H04N21/466 , H04N21/44 , G06N3/045 , G06N3/042 , G06N3/0464
Abstract: 本发明提出一种基于扩散模型的细粒度可控人体视频生成方法和系统,其中,方法包括获取一定数量的人体运动视频,基于人体运动视频获得样本视频;基于样本视频获得人体骨架序列和区域特征;构建视频生成模型,视频生成模型包括扩散模型主干和条件嵌入模块;将作为结构引导的人体骨架序列和作为外观引导的区域特征通过条件嵌入模块注入扩散模型主干,利用叠加了预设噪声的样本视频对视频生成模型进行训练;获取给定人体图像和给定人体骨架序列,基于给定人体图像获得目标区域特征;将预设噪声、给定人体骨架序列、目标区域特征输入训练好的视频生成模型得到细粒度可控的对应人体的目标运动视频。
-
-
-
-
-
-
-
-
-