一种增强现实跟踪注册方法、系统及介质

    公开(公告)号:CN119672063A

    公开(公告)日:2025-03-21

    申请号:CN202411363329.4

    申请日:2024-09-27

    Abstract: 本发明涉及了一种增强现实跟踪注册方法、系统及介质,一种增强现实跟踪注册方法,包括:移动双目相机实时采集工业现场场景双目图像,基于人工标识物以构建跟踪注册结果对应人工标识物坐标系的变换矩阵;分别逐帧提取并匹配工业现场场景双目图像中的点线特征,进行点特征的筛选以及消失点的线特征筛选,基于筛选所得点线特征集合以得到全局位姿图并进行目标AR虚拟物体的追踪定位;构建点线特征融合的重投影误差模型,得到优化后的全局位姿图;实时估计双目相机的实时位姿,基于实时位姿在人工标识坐标系内注册目标AR虚拟物体。本发明可在复杂工业环境中为工业增强现实应用提供更为精确、鲁棒,且更具备工业环境适应性的增强现实。

    一种基于目标检测的装配诱导信息生成及显示方法

    公开(公告)号:CN114549428B

    公开(公告)日:2025-02-28

    申请号:CN202210106507.X

    申请日:2022-01-28

    Abstract: 本发明涉及一种基于目标检测的装配诱导信息生成及显示方法,包括以下步骤:定义装配诱导信息,确定各零部件与装配体装配进程之间的关系,并定义装配进程与诱导信息之间的关联关系;实时采集当前装配体的图像,通过零部件检测模型识别当前装配体上的所有已装配的零部件,并读取每个已装配的零部件的位置信息;根据已装配的零部件确认装配进程,并基于装配进程与诱导信息之间的关联关系查询对应的诱导信息;根据每个已装配的零部件的位置信息确认显示设备的显示画面中的空白区域,在空白区域中显示对应的诱导信息。

    基于Swin Transformer的RGB-D手势识别方法及手势识别系统

    公开(公告)号:CN116343327A

    公开(公告)日:2023-06-27

    申请号:CN202310158549.2

    申请日:2023-02-20

    Abstract: 本发明公开一种基于Swin Transformer的RGB‑D手势识别方法及手势识别系统,该方法包括:S1、获取用于手势识别的RGB图像和深度图像;S2、将RGB图像送入训练好的Swin Transformer网络,深度图像送入训练好的卷积神经网络;S3、将两个网络的结果融合得到最终结果。本发明使用Swin Transformer网络进行静态手势识别,手势信息采用深度摄像机拍摄的RGB‑D图像,包含了空间内各个点相对于摄像头的距离,该深度信息方便计算各点之间的相互距离。实际的识别手势过程中,将采用深度信息预测的结果与RGB信息预测的结果融合作为最终识别结果,提高手势识别准确率。

    一种具有高精度力反馈的可穿戴柔性XR体感手套

    公开(公告)号:CN113261727B

    公开(公告)日:2022-09-02

    申请号:CN202110464493.4

    申请日:2021-04-28

    Abstract: 本发明公开一种具有高精度力反馈的可穿戴柔性XR体感手套,包括括机械结构和可变尺寸的布织材质手套,所述机械结构由手背底板、拇指底板、手指结构组成,手背底板与拇指底板相互独立;手指结构由指节结构和关节结构组成,手指结构由根部至指尖分别是:根指节、第一关节、第一指节、第二关节、第二指节;食指、中指、无名指和小拇指通过根指节连接于手背底板,拇指的根指节连接于拇指底板。本发明通过增加力反馈点的数量,提高反馈效果的强度和精度机械结构设计较为稳固、空间利用率高,因此可以使用更少更轻的材料来满足强度要求,降低了手套的重量,减少佩戴着的疲劳感,提升佩戴者的使用舒适度。

    一种基于目标检测的装配诱导信息生成及显示方法

    公开(公告)号:CN114549428A

    公开(公告)日:2022-05-27

    申请号:CN202210106507.X

    申请日:2022-01-28

    Abstract: 本发明涉及一种基于目标检测的装配诱导信息生成及显示方法,包括以下步骤:定义装配诱导信息,确定各零部件与装配体装配进程之间的关系,并定义装配进程与诱导信息之间的关联关系;实时采集当前装配体的图像,通过零部件检测模型识别当前装配体上的所有已装配的零部件,并读取每个已装配的零部件的位置信息;根据已装配的零部件确认装配进程,并基于装配进程与诱导信息之间的关联关系查询对应的诱导信息;根据每个已装配的零部件的位置信息确认显示设备的显示画面中的空白区域,在空白区域中显示对应的诱导信息。

    基于双目时空自适应的手术3D视频稳像合成系统及方法

    公开(公告)号:CN112866670B

    公开(公告)日:2021-11-23

    申请号:CN202110020768.5

    申请日:2021-01-07

    Abstract: 本发明公开一种基于双目时空自适应的手术3D视频稳像合成系统及方法,该方法包括:步骤一、构建时空关联数据模型;将双目内窥镜的3D成像系统,具体分为构建基于时间相关和构建基于空间相关的数学模型;步骤二、在双通道内窥镜3D视频合成过程中,基于时间序列和空间序列的匹配关系,构建具有双目时空自适应的3D视频合成模型,以构建稳态的全局优化模型。本发明方法可以去除手术过程中内窥镜3D视频中存在的抖动,为医生提供平稳连续的3D视频引导手术操作;且在术中弱纹理组织环境下鲁棒性较好。

    一种基于边缘计算的智能增强现实装配辅助方法及系统

    公开(公告)号:CN113469108A

    公开(公告)日:2021-10-01

    申请号:CN202110806144.6

    申请日:2021-07-16

    Abstract: 本发明公开了一种基于边缘计算的智能增强现实装配辅助方法及系统,该方法包括:在工业装配现场下捕获现场工作台工件装配进程;连接增强现实设备与边缘计算平台,模块化传输所采集数据信息流,将采集图像存入边缘云;通过启动边缘计算框架中控制虚拟机管理多个后端感知虚拟机的启动和数据处理进程:用户指示虚拟机将信息流整合后为用户提供指导;增强现实设备捕捉到工件装配进度发生变化,自动进入下一步装配步骤。本发明可节省数据跳转过程以减少处理时间并减低丢包风险;本发明可在有效缓解增强装配工人精神压力的同时,使用者可佩戴设备在虚拟三维工件引导下快速实现生产装配,减少装配错误,提高了工业生产装配效率和装配可靠性。

    一种基于边缘计算的智能增强现实装配辅助方法及系统

    公开(公告)号:CN113469108B

    公开(公告)日:2023-10-27

    申请号:CN202110806144.6

    申请日:2021-07-16

    Abstract: 本发明公开了一种基于边缘计算的智能增强现实装配辅助方法及系统,该方法包括:在工业装配现场下捕获现场工作台工件装配进程;连接增强现实设备与边缘计算平台,模块化传输所采集数据信息流,将采集图像存入边缘云;通过启动边缘计算框架中控制虚拟机管理多个后端感知虚拟机的启动和数据处理进程:用户指示虚拟机将信息流整合后为用户提供指导;增强现实设备捕捉到工件装配进度发生变化,自动进入下一步装配步骤。本发明可节省数据跳转过程以减少处理时间并减低丢包风险;本发明可在有效缓解增强装配工人精神压力的同时,使用者可佩戴设备在虚拟三维工件引导下快速实现生产装配,减少装配错误,提高了工业生产装配效率和装配可靠性。

Patent Agency Ranking