一种基于深度图的全搜索视点预测方法

    公开(公告)号:CN104767987B

    公开(公告)日:2017-04-12

    申请号:CN201510057151.5

    申请日:2015-02-04

    Abstract: 本发明公开了一种基于深度图的全搜索视点预测方法。本发明首先,根据初始视点绘制生成当前视点v0下的深度图然后移动当前视点v0设定的距离r得到参考视点vi,绘制生成参考视点深度图并设置标志数组data[]用以标志当前视点下各个像素能否在参考视点下获取,通过统计标志数组中未标记部分大小,检查是否满足指定的空洞阈值,如果不满足,增大移动距离r,继续移动初始参考视点,直到其空洞大小满足指定阈值。最后,根据全搜索得到最大参考视点vr,绘制渲染此视点下的深度图和颜色图,并连同初始视点下的深度图和颜色图传输给客户端。本发明在搜索的过程中,不进行颜色图的绘制,大大降低了绘制时间,从而实现快速精确的参考视点预测。

    一种基于深度图的全搜索视点预测方法

    公开(公告)号:CN104767987A

    公开(公告)日:2015-07-08

    申请号:CN201510057151.5

    申请日:2015-02-04

    Abstract: 本发明公开了一种基于深度图的全搜索视点预测方法。本发明首先,根据初始视点绘制生成当前视点v0下的深度图然后移动当前视点v0设定的距离r得到参考视点vi,绘制生成参考视点深度图并设置标志数组data[]用以标志当前视点下各个像素能否在参考视点下获取,通过统计标志数组中未标记部分大小,检查是否满足指定的空洞阈值,如果不满足,增大移动距离r,继续移动初始参考视点,直到其空洞大小满足指定阈值。最后,根据全搜索得到最大参考视点vr,绘制渲染此视点下的深度图和颜色图,并连同初始视点下的深度图和颜色图传输给客户端。本发明在搜索的过程中,不进行颜色图的绘制,大大降低了绘制时间,从而实现快速精确的参考视点预测。

    基于深度图绘制的多方向参考视点的WARPING方法

    公开(公告)号:CN104766363B

    公开(公告)日:2016-05-25

    申请号:CN201510057154.9

    申请日:2015-02-04

    Abstract: 本发明公开了一种基于深度图绘制的多方向参考视点的WARPING方法。本发明首先服务器端根据当前视点预测四个参考视点以及八个Cache视点,并绘制这些视点下深度图和颜色图;然后服务器将各个预测的视点下的深度图和颜色图传输给客户端;最后客户端根据交互运动获得新的当前视点值,如果新视点在参考视点范围内,使用3D WARPING技术根据参考视点图像和深度图WARPING合成获得当前视点的图像;如果新视点超出参考视点范围,则根据Cache视点更新参考视点,并向服务器发生请求新Cache视点的信息,更新Cache视点。本发明能够在低延迟下WARPING获得四个参考视点组成矩形区域内的任一视点下的图像。

    基于深度图绘制的多方向参考视点的WARPING方法

    公开(公告)号:CN104766363A

    公开(公告)日:2015-07-08

    申请号:CN201510057154.9

    申请日:2015-02-04

    Abstract: 本发明公开了一种基于深度图绘制的多方向参考视点的WARPING方法。本发明首先服务器端根据当前视点预测四个参考视点以及八个Cache视点,并绘制这些视点下深度图和颜色图;然后服务器将各个预测的视点下的深度图和颜色图传输给客户端;最后客户端根据交互运动获得新的当前视点值,如果新视点在参考视点范围内,使用3DWARPING技术根据参考视点图像和深度图WARPING合成获得当前视点的图像;如果新视点超出参考视点范围,则根据Cache视点更新参考视点,并向服务器发生请求新Cache视点的信息,更新Cache视点。本发明能够在低延迟下WARPING获得四个参考视点组成矩形区域内的任一视点下的图像。

Patent Agency Ranking