-
公开(公告)号:CN102622776B
公开(公告)日:2016-01-13
申请号:CN201210021228.X
申请日:2012-01-30
Applicant: 微软技术许可有限责任公司
IPC: G06T17/00
CPC classification number: G06T17/00 , G06T2200/08
Abstract: 描述了三维环境重构。在一示例中,在由存储在存储器设备上的体素组成的3D容体中生成真实世界环境的3D模型。该模型从描述相机位置和定向的数据以及具有指示相机离环境中的一个点的距离的像素的深度图像中构建。单独的执行线程被分配给容体的平面中的每一个体素。每一个线程使用相机位置和定向来确定其相关联的体素的对应的深度图像位置,确定与相关联的体素和环境中的对应位置处的点之间的距离相关的因子,并且使用该因子来更新相关联的体素处的存储值。每一个线程迭代通过容体的其余平面中的等价体素,从而重复该过程以更新存储值。
-
公开(公告)号:CN104756045B
公开(公告)日:2018-06-08
申请号:CN201380052133.7
申请日:2013-09-18
Applicant: 微软技术许可有限责任公司
CPC classification number: G06F3/017 , G06F3/014 , G06F3/0304
Abstract: 描述了用于跟踪由关节连接的身体部位的可佩戴传感器,诸如允许对手指进行3D跟踪(并且可任选地还允许对手臂和手进行3D跟踪)的腕带式设备,而不需要在手上佩戴手套或标记。在一实施例中,相机捕捉设备的佩戴者的身体的由关节连接的部位的图像,并且该身体部分的由关节连接的模型被实时地跟踪以允许对分开的计算设备(诸如,智能电话、膝上型计算机或其他计算设备)进行基于姿势的控制。在各示例中,该设备具有用于照明由关节连接的身体部位的结构化照明源和漫射照明源。在一些示例中,该传感器中还包括惯性测量单元以允许对手臂和手进行跟踪。
-
公开(公告)号:CN105190703A
公开(公告)日:2015-12-23
申请号:CN201380068406.7
申请日:2013-12-26
Applicant: 微软技术许可有限责任公司
CPC classification number: G06T15/00 , G01S17/89 , G06T7/246 , G06T7/586 , G06T17/00 , G06T19/006 , G06T2207/10016 , G06T2207/10024 , G06T2207/10028 , G06T2207/30244 , H04N13/20
Abstract: 描述了在各示例中使用单一手持设备检测现实世界环境中的表面的诸如反射率、真实颜色和其他属性的材料属性。例如,使用光度立体系统来计算所检测的材料属性,所述光度立体系统利用光照条件、表面法线、真实颜色和图像亮度之间的已知关系。在各示例中,用户在环境中四处移动,在已知光照条件下从不同定向捕捉该场景中的表面的彩色图像。在各示例中,使用所捕捉的数据来计算表面的各小块的表面法线以允许建模精细细节,诸如人类毛发、结网、纹理化表面。在各示例中,所建模的数据被用来渲染用现实描绘该场景的图像或者以现实方式将虚拟图形叠加到现实世界上。
-
公开(公告)号:CN102663722B
公开(公告)日:2018-04-24
申请号:CN201210021583.7
申请日:2012-01-31
Applicant: 微软技术许可有限责任公司
CPC classification number: G06T7/215 , G06T7/194 , G06T2207/10028 , G06T2207/30244
Abstract: 描述了使用深度图像的活动对象分割。在一示例中,活动对象被从接收自移动深度相机的场景的深度图像的背景中分割出来。检索该场景的先前深度图像,并使用迭代最接近点算法来将其与当前深度图像进行比较。迭代最接近点算法包括确定当前深度图像与先前深度图像之间相对应的一组点。在确定该组点期间,检测在这两个深度图像之间不相对应的一个或多个局外点,并且这些局外点处的图像元素被标记为属于活动对象。在各示例中,迭代最接近点算法是作为用于跟踪移动深度相机的算法的一部分来执行的,并且因此不增加大量附加计算复杂度。
-
公开(公告)号:CN102609942B
公开(公告)日:2015-12-02
申请号:CN201210021582.2
申请日:2012-01-31
Applicant: 微软技术许可有限责任公司
IPC: G06T7/00
CPC classification number: G06T7/20 , G06T7/74 , G06T2207/10016 , G06T2207/10021 , G06T2207/10024 , G06T2207/10028 , G06T2207/30244
Abstract: 本发明涉及使用深度图进行移动相机定位。针对机器人、沉浸式游戏、增强现实和其他应用描述了使用深度图进行移动相机定位。在一实施例中,在一环境中跟踪移动深度相机,同时使用所感测的深度数据形成该环境的3D模型。在一实施例中,当相机跟踪失败时,通过使用先前收集的关键帧或以其他方式来检测相机跟踪的失败并重新定位相机。在一实施例中,通过实时地将当前深度图与该3D模型的特征进行比较,检测到移动相机重新访问一位置的环闭合(loop closure)。在一些实施例中,使用所检测到的环闭合来改善该环境的3D模型的一致性和精确度。
-
-
-
-