一种基于边缘感知的投影仪失焦校正方法

    公开(公告)号:CN111311686B

    公开(公告)日:2023-05-02

    申请号:CN202010043774.8

    申请日:2020-01-15

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于边缘感知的投影仪失焦校正方法。方法采用投影仪‑相机系统,投影仪的镜头和相机的镜头均朝向投影表面;将特殊输入图像输入投影仪投影照射至投影表面上,相机采集投影仪投影照射至投影表面后的投影结果作为输出图像;利用特殊输入图像和输出图像进行失焦卷积核标定等步骤获得补偿图片,将补偿图片作为投影仪的输入对投影仪待投影图片进行校正补偿,获得失焦补偿后清晰的投影结果。本发明无需调节投影仪物理焦距,仅通过对输入投影仪的原始图片进行处理,即可实现投影仪失焦投影结果的清晰化,可满足投影仪在存在热失焦、投影表面存在大幅高度变化等复杂应用场景下使用投影仪的需求,一定程度地扩大了投影仪设备的适用性。

    用多头掩模均衡融和单元的手势深度图像连续检测方法

    公开(公告)号:CN111274902B

    公开(公告)日:2023-05-02

    申请号:CN202010043780.3

    申请日:2020-01-15

    Applicant: 浙江大学

    Abstract: 本发明公开了一种用多头掩模均衡融和单元的手势深度图像连续检测方法。通过深度相机捕捉人手动态变化的深度图像序列;将每一帧投影三维空间点云网格化作为该帧的输入网格,组成网格序列;遍历每一帧,输入体卷积神经网络单帧检测模型中处理获得各帧的手部关节拟高斯空间分布;选取上一帧的手部关节拟高斯空间分布输入多头掩模均衡融和单元获得当前帧的掩模,然后将当前帧的掩模与输入网格进行掩模叠加;在输入体卷积神经网络多帧检测模型,获得当前帧的手部关节拟高斯空间分布;重复步骤,将每一帧的手部关节拟高斯空间分布转换为手骨骼关节点的三维坐标。本发明方法通过引入手部关节拟高斯空间分布极大提高了手势检测的稳定性。

    一种基于多维空间不变特征的平板类零件点云拼接方法

    公开(公告)号:CN109242774B

    公开(公告)日:2022-04-19

    申请号:CN201810993803.X

    申请日:2018-08-29

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于多维空间不变特征的平板类零件点云拼接方法。利用最邻近点迭代算法计算点云旋转矩阵,计算多组取样半径,针对不同的取样半径,利用点云纹理和点云密度特征,计算各点在不同尺度下的协方差矩阵,构建协方差描述符;定义两协方差描述符间的多尺度流式距离;根据流式距离确定两点云中的匹配点对并粗配准,获得平移矩阵;再进行最邻近点迭代算法获得旋转矩阵;获得最终变换矩阵,完成拼接。本发明通过对点云中各点定义协方差描述符,利用某点处具有空间不变特性的密度特征和纹理特征,实现平板类零件点云的自动拼接,适合于带有孔特征的板状零件点云的拼接。

    奇异值分解和天牛须寻优算法的灰度图像自适应增强方法

    公开(公告)号:CN108447033B

    公开(公告)日:2022-03-18

    申请号:CN201810201563.5

    申请日:2018-03-12

    Applicant: 浙江大学

    Abstract: 本发明公开了一种奇异值分解和天牛须寻优算法的灰度图像自适应增强方法。通过将输入的原始图像进行离散小波分解,将图像转换到频域。对分解的小波子带使用天牛须寻优算法求解软阈值函数的最优调节参数,使用对应的最优调节参数的软阈值函数进行阈值处理,实现轮廓的增强。对低频子带进行奇异值分解,修正低频子带中的小波系数,实现亮度的变换。最后,通过对处理后的各小波子带进行小波逆变换,实现图像自适应增强。

    一种动态环境下的移动机器人图像视觉定位方法

    公开(公告)号:CN108460779B

    公开(公告)日:2021-09-24

    申请号:CN201810145534.1

    申请日:2018-02-12

    Applicant: 浙江大学

    Abstract: 本发明公开了一种动态环境下的移动机器人图像视觉定位方法。Kinect深度相机固定于移动机器人,针对相邻两帧图像,获得depth深度图像的三维点云,获得RGB彩色图像的匹配点对;通过迭代最近点算法得到相邻两帧图像之间的初始位姿变换矩阵;对三维点云聚类变换,计算相邻两帧图像的三维点云聚类之间的残差进行分割;利用静态背景中的匹配点对和三维点云重复处理得到更准确的位姿变换矩阵,计算所有相邻两帧图像之间的位姿变换矩阵,实现移动机器人图像视觉定位。本发明降低了硬件成本,克服了恢复像素深度值的复杂性,修正了机器人的定位误差,更加准确地估计了移动机器人在室内的运动轨迹。

    基于手部速度与轨迹分布的跟随机器人手势轨迹识别方法

    公开(公告)号:CN110232308B

    公开(公告)日:2021-02-09

    申请号:CN201910309591.3

    申请日:2019-04-17

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于手部速度与轨迹分布的跟随机器人手势轨迹识别方法。kinect相机朝向操作者采样拍摄,获得手部投影平面数据;对手部投影平面数据进行滑动平均平滑处理,建立速度向量,处理速度向量获得手部运动描述子;建立手部运动区域,按采样拍摄的时序遍历所有帧的手部三维位置,将每帧的手部三维位置所在的网格赋值,再计算所有被赋值网格的质心位置;建立质心指向向量,处理质心指向向量得到手部轨迹形状描述子;综合两个夹角余弦值处理获得运动描述子、轨迹形状描述子与标准描述子的共同相似度,取共同相似度最大为结果。本发明能准确识别获得人手势的类型,对手势轨迹的平移、缩放、旋转、轨迹的时序不敏感,灵活性高,节省时间和精力。

    一种无纹理金属零件图像规整化直线段边缘检测方法

    公开(公告)号:CN109801281B

    公开(公告)日:2020-09-18

    申请号:CN201910063585.4

    申请日:2019-01-23

    Applicant: 浙江大学

    Abstract: 本发明公开了一种无纹理金属零件图像规整化直线段边缘检测方法。本发明首先计算输入零件图像各像素点的梯度,之后利用LSD算法检测出初步的直线段,下一步利用直线段之间的距离和角度关系对不连续的直线段进行连接,达到检测完整直线段的目的,避免了检测出的直线段发生断裂的问题。本发明基于LSD算法进行改进,在保留了LSD算法速度快的基础上,又能输出完整的直线段,且同时适用RGB图像与灰度图像,可满足实际应用的需求。

    像点溯源的物体光栅图像相移法相位测量误差校正方法

    公开(公告)号:CN110230994B

    公开(公告)日:2020-08-14

    申请号:CN201910363567.8

    申请日:2019-04-30

    Applicant: 浙江大学

    Abstract: 本发明公开了一种像点溯源的物体光栅图像相移法相位测量误差校正方法。在相移法形貌测量中,表面高度信息由相位信息进行表征。由于设备的非线性,经由相机捕获的图片所计算的相位信息中不可避免地存在误差。首先,通过投影仪投射特殊的光栅投影求解像点溯源映射关系。然后,逆着光路方向,对位于拍摄图片中的任一图片像素,根据像点溯源映射关系,确定将其点亮的位于投影仪成像平面中的点光源位置。最后,利用编码至点光源中的理想相位,替换图片像素中受干扰的相位信息,实现相位误差的校正,提高相移法形貌测量精度。与现有方法相比,本方法便于操作,且效率和精度较高。

    一种基于深度门控递归单元的手势深度图像连续检测方法

    公开(公告)号:CN111274901A

    公开(公告)日:2020-06-12

    申请号:CN202010043771.4

    申请日:2020-01-15

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于深度门控递归单元的手势深度图像连续检测方法。通过深度相机捕捉人手动态变化的深度图像序列;将每一帧均向三维空间投影体素化获得该帧的输入网格,组成人手三维体素的网格序列;遍历网格序列的每一帧作为当前帧,输入三维卷积单帧检测模型中处理获得各帧的手部各关节空间概率分布;选取当前帧的输入和上一帧的隐藏状态变量输入深度门控递归单元处理获得当前帧的隐藏状态变量,再输入三维卷积多帧检测模型得到当前帧的手部关节空间概率分布;重复步骤,依据每一帧的手部各关节空间概率分布提取关节点的三维坐标。本发明方法通过引入时序约束极大提高了手势检测的连续性,降低检测误差。

    基于关键动词特征全密度传递的服务机器人指令解析方法

    公开(公告)号:CN111241233A

    公开(公告)日:2020-06-05

    申请号:CN201911347575.X

    申请日:2019-12-24

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于关键动词特征全密度传递的服务机器人指令解析方法。在已知应用环境下工作,构建服务机器人的各种候选服务下的各种服务指令文本的数据库,对服务指令文本进行预处理;将数据库划分为训练集和验证集;采用斯坦福文本分析工具对每条服务指令文本进行分词,获得关键动词的上下文特征;搭建全密度双向长短期记忆网络模型,用训练集训练模型参数,验证集进行超参数调试;针对待测的一段文本指令处理提取获得候选服务的类型及其候选服务下的指令语义。本发明将服务指令解析任务转化为框架分类及框架填充两个子任务,通过精准地捕捉提取到带有冗余信息的服务指令文本中的核心要素,用于辅助机器人理解复杂的指令意图。

Patent Agency Ranking