基于用户交互与语义分割技术结合的图像压缩方法及装置

    公开(公告)号:CN111953989A

    公开(公告)日:2020-11-17

    申请号:CN202010702091.9

    申请日:2020-07-21

    Abstract: 本发明属于图像处理与计算机视觉技术领域,特别涉及一种基于用户交互与语义分割技术结合的图像压缩方法及装置,所述方法包括利用语义分割网络对待压缩的图像进行预处理,获得该图像的语义分割;根据语义分割,将图像划分为多个类别的图像块;用户设置每个类别图像块的压缩质量;基于设置的压缩质量,利用BPG编码工具对每个类别的图像块进行压缩,获得中间文件;利用BPG解码工具对中间文件进行解码,得到解压缩后的图像块;将解压缩后的图像块进行组合;本发明可以解决特定场景下对图像局部区域进行不同程度压缩的需求,能够自动感知兴趣区域和自主调节图像不同局部区域的图像压缩质量,具有巨大的潜在商业价值和良好的推广价值。

    一种基于改进点云匹配算法的室内移动机器人视觉导航方法

    公开(公告)号:CN109974707B

    公开(公告)日:2022-09-23

    申请号:CN201910208650.8

    申请日:2019-03-19

    Abstract: 本发明涉及基于改进点云匹配算法的室内移动机器人视觉导航方法,属于机器人视觉导航领域。该方法包括:S1:校准Kinect相机,通过外部参数对齐多个点云;S2:得到离线校准的外部参数形成的变换矩阵,计算出多视点变换矩阵;S3:获取周围环境的ORB特征点进行特征提取和匹配;S4:估算相邻图像间相机运动构建局部地图,使用RANSAC算法消除误匹配,对获取的特征点进行PNP求解;S5:引入闭环检测机制确保机器人得到全局一致的轨迹和地图;S6:结合闭环检测机制,采用基于局部与全局特征点的相机位姿闭环约束点云优化算法,抑制系统的累积误差。本发明能够降低计算量,实现机器人对实时性的要求。

    基于浅-中-深三级特征融合与可变矩形窗滤波的Siamese网络跟踪方法

    公开(公告)号:CN113379792A

    公开(公告)日:2021-09-10

    申请号:CN202110512558.8

    申请日:2021-05-11

    Abstract: 本发明公开了一种基于浅‑中‑深三级特征融合与可变矩形窗滤波的Siamese网络跟踪方法,该方法包括步骤:S1,提出了一种浅‑中‑深三级特征融合孪生网络;S2,从浅、中、深三类网络层提取出对应的特征图并进行特征级别的融合得到互补特征图;S3,利用孪生网络两条分支的互补特征图通过相关计算得到一对相似性得分图,并将相似性得分图进行分数级别的融合得到最终的得分图;S4,寻找得分图中的峰值点作为初始聚类中心完成聚类,计算聚类中心与最远聚类点的距离;S5,以该距离控制矩形窗尺寸大小的变化,完成对得分图的滤波。实验结果证明,SiamSMDFFF相较于传统跟踪器在多项性能方面均有明显提高。

    基于目标检测和人体姿态估计的坐姿检测方法

    公开(公告)号:CN108549876A

    公开(公告)日:2018-09-18

    申请号:CN201810357864.7

    申请日:2018-04-20

    Abstract: 本发明涉及一种基于目标检测和人体姿态估计的坐姿检测方法,属于图像处理与计算机视觉技术领域。本发明首先提取由特征I和特征II融合形成的融合特征,并将融合后的特征输入CNN中,若融合特征来自于训练集,则用于训练网络参数;若融合特征来自验证集,则用于验证网络参数,并通过反向传播算法传递误差信号,更新梯度,寻找最优值,利用柔性最大激活函数Softmax做分类回归,得到最终的分类结果和分类准确率。本发明解决了现有坐姿检测中在复杂多目标情况下目标丢失的问题,摒弃了传统的依赖可穿戴设备或传感器的方法,采用了基于目标检测和人体姿态估计的方法,使得在背景复杂,人群密集的情况下能够准确定各个任务目标的坐姿。

    基于改进混合增量动态贝叶斯网络的视觉注意力检测方法

    公开(公告)号:CN109711239B

    公开(公告)日:2023-04-07

    申请号:CN201811057186.9

    申请日:2018-09-11

    Abstract: 本发明请求保护一种基于改进混合增量动态贝叶斯网络的视觉注意力检测方法,该方法融合头部、视线以及预测子模型来对其进行综合估计;在传统人眼模型的基础上对视线检测子模型进行改进,以提升识别速率增加对于不同测试者进行检测时的鲁棒性;针对极端姿态和动态场景下导致的数据缺失问题,提出了预测子模型,利用高斯协方差来度量两个时刻采样图片的相关性,从而有效改善当前时刻的误识别,降低了识别误差。其次就相关子模型进行描述,利用条件概率分别建立贝叶斯回归模型;并利用增量学习的方法来对模型的参数进行动态更新,用以提升模型整体对于新输入数据的适应性。

    一种基于烟花爆炸行为的改进的狼群算法

    公开(公告)号:CN109902796A

    公开(公告)日:2019-06-18

    申请号:CN201910194032.2

    申请日:2019-03-14

    Abstract: 本发明涉及一种基于烟花爆炸行为的改进的狼群算法,属于机器人路径规划技术领域,通过引入烟花算法的爆炸烟花的探寻规则,使靠近猎物的探狼探索步伐变小提高局部探索的能力,远离猎物的探狼增加搜索半径提高全局搜索能力。改进奔袭行为的移动步长,根据每头狼所在的位置自动调整步长,提高奔走行为效率。并改进狼群算法的更新规则,通过按概率选择淘汰狼群个体,以增强算法的全局寻优能力。本发明具有较快的收敛速度和较高收敛精度。

    基于ResNeSt-APW的多模块闭环检测方法

    公开(公告)号:CN113377987B

    公开(公告)日:2023-03-28

    申请号:CN202110511040.2

    申请日:2021-05-11

    Abstract: 本发明公开了一种基于ResNeSt‑APW的多模块闭环检测方法,包括在去除ResNeSt模型中的全局平均池化层及其之后的网络层,在此之后增加一个1×1大小的卷积层;之后添加APW对卷积后的特征图进行下采样计算,并采用ReLU激活函数对输出结果进行激活,所述APW对任意大小的特征图进行计算之后,都生成一个固定大小的特征图;采用LLE算法对输出特征进行降维,并将该特征展开为一个一维矩阵,进行相似度计算;在基于超级字典的基础上将超级字典与历史帧映射区域分为若干个小模块,在每个模块的首尾部分别选取一张图片;采用多线程的方式同时计算所选取的图片与当前图片的相似度。本发明在准确率‑召回率的性能上是具有优势的,同时,检索方式相比于超级字典等方法在耗时方面是有所提升的。

    一种基于自注意力的耦合姿态人脸识别方法

    公开(公告)号:CN112418074B

    公开(公告)日:2022-08-23

    申请号:CN202011308968.2

    申请日:2020-11-20

    Abstract: 本发明请求保护一种基于自注意力的耦合姿态人脸识别方法,属于模式识别技术领域。所述方法主要包括以下步骤:步骤1.利用MTCNN对训练图像进行预处理操作(人脸检测、特征点标定);提出基于K‑means算法的姿态导向策略PGS,确定姿态模板。步骤2.输入网络的图像利用姿态模板生成多个不同姿态人脸,生成网络编码器对其进行特征编码,加权平均得到融合特征,解码器还原成正面人脸图像。步骤3.构建姿态导向的双判别器生成对抗网络PGDD‑GAN,对合成图像进行对抗式训练。步骤4.为了增强合成图像的局部纹理信息,本发明在编码器和判别器网络中植入自注意力模型。本发明降低了模型对源数据集的需求,提高了无监督环境下的人脸识别的鲁棒性。

    基于ResNeSt-APW的多模块闭环检测方法

    公开(公告)号:CN113377987A

    公开(公告)日:2021-09-10

    申请号:CN202110511040.2

    申请日:2021-05-11

    Abstract: 本发明公开了一种基于ResNeSt‑APW的多模块闭环检测方法,包括在去除ResNeSt模型中的全局平均池化层及其之后的网络层,在此之后增加一个1×1大小的卷积层;之后添加APW对卷积后的特征图进行下采样计算,并采用ReLU激活函数对输出结果进行激活,所述APW对任意大小的特征图进行计算之后,都生成一个固定大小的特征图;采用LLE算法对输出特征进行降维,并将该特征展开为一个一维矩阵,进行相似度计算;在基于超级字典的基础上将超级字典与历史帧映射区域分为若干个小模块,在每个模块的首尾部分别选取一张图片;采用多线程的方式同时计算所选取的图片与当前图片的相似度。本发明在准确率‑召回率的性能上是具有优势的,同时,检索方式相比于超级字典等方法在耗时方面是有所提升的。

    一种基于自注意力的耦合姿态人脸识别方法

    公开(公告)号:CN112418074A

    公开(公告)日:2021-02-26

    申请号:CN202011308968.2

    申请日:2020-11-20

    Abstract: 本发明请求保护一种基于自注意力的耦合姿态人脸识别方法,属于模式识别技术领域。所述方法主要包括以下步骤:步骤1.利用MTCNN对训练图像进行预处理操作(人脸检测、特征点标定);提出基于K‑means算法的姿态导向策略PGS,确定姿态模板。步骤2.输入网络的图像利用姿态模板生成多个不同姿态人脸,生成网络编码器对其进行特征编码,加权平均得到融合特征,解码器还原成正面人脸图像。步骤3.构建姿态导向的双判别器生成对抗网络PGDD‑GAN,对合成图像进行对抗式训练。步骤4.为了增强合成图像的局部纹理信息,本发明在编码器和判别器网络中植入自注意力模型。本发明降低了模型对源数据集的需求,提高了无监督环境下的人脸识别的鲁棒性。

Patent Agency Ranking