一种双进程多目标跟踪方法
    41.
    发明公开

    公开(公告)号:CN115546254A

    公开(公告)日:2022-12-30

    申请号:CN202211398601.3

    申请日:2022-11-09

    Abstract: 本发明公开了一种双进程多目标跟踪方法,包括在主进程中运行的主线跟踪器和在子进程中运行的辅线修正器两条分支,所述主线跟踪器分支使用高速低精度模型进行多目标跟踪,所述辅线修正器分支使用低速高精度模型对所述主线跟踪器进行修正。所述两条分支的结果通过融合器融合后得到最终的多目标跟踪结果。本发明能够在不降低所述主线跟踪器跟踪速度的同时,提升其跟踪精度。

    一种基于运动分解的动态物体重建方法及装置

    公开(公告)号:CN115482332A

    公开(公告)日:2022-12-16

    申请号:CN202211062655.2

    申请日:2022-08-31

    Abstract: 本发明公开了一种基于运动分解的动态物体重建方法及装置,该方法包括:对包含目标物体运动过程的初始动态视频集合V逐帧进行分割,得到V中每帧图像的前景动态区域;使用多视角重建的方法,得到V中每帧图像的相机外参数与内参数;对V的每一帧,构造邻居集,并借助于预训练的光流方法对所述邻居集中所选的图片对进行光流估计,得到两帧之间的光流;根据V中每帧图像的前景动态区域、相机外参数与内参数,建立非刚性神经体渲染模型;根据所述非刚性神经体渲染模型和所述光流,结合时序的一致性约束,得到优化的非刚性神经体渲染模型;根据所述优化的非刚性神经体渲染模型,重建所述目标物体每一帧的完整几何和颜色。

    一种基于自注意力机制的通用图像目标检测方法和装置

    公开(公告)号:CN113902926B

    公开(公告)日:2022-05-31

    申请号:CN202111477045.4

    申请日:2021-12-06

    Abstract: 本发明公开一种基于自注意力机制的通用图像目标检测方法,该方法是基于DETR模型的改进,其包括对将含边界框标注的训练集图像输入图像特征提取网络,获得图像特征;将图像特征依次通过多头十字交叉注意力模块和多方向交叉注意力模块,获得解码器输出增强目标查询向量;将增强目标查询向量分别通过模型的分类层和回归层得到目标图像物体边界框和物体类别概率;计算网络整体损失对模型进行训练,得到目标检测模型;利用上述模型对待检测图像进行目标检测。本发明相比于DETR模型,在保证目标检测准确的同时,加快模型训练速度,减小模型的计算复杂度,提高模型灵活性与实用性。

    一种基于生成对抗网络的数据增强方法

    公开(公告)号:CN113487715A

    公开(公告)日:2021-10-08

    申请号:CN202110703465.3

    申请日:2021-06-24

    Abstract: 本发明公开了一种基于生成对抗网络的数据增强方法。通过生成对抗网络的特征提取,将车辆图像的深层特征渲染到一个既定的三维立体结构上,完成一幅二维图像到三维立体结构的重构,再进行三维单眼投影,获得其在所需视角的二维图像,完成车辆不同视角图像的生成。本发明在前沿作者的noise‑to‑image的基础上进行了修正尝试,使其完成了从noise‑to‑image到image‑to‑image的转换,在此之后,可以做到定向修改一种特定属性(车辆视角等),生成新视角的图像。

    一种遮挡行人特征提取与行人重识别方法

    公开(公告)号:CN113177539A

    公开(公告)日:2021-07-27

    申请号:CN202110732419.6

    申请日:2021-06-30

    Abstract: 本发明公开了一种遮挡行人特征提取与重识别方法,其中在利用全局特征提取网络对行人全局特征提取时,创新性嵌入了有效感受野提取模型以及特征激发模型,从而极大地提升了行人特征的代表性与可区分度。通过PartialReID以及PartialiLids数据集测试,本发明证明了上述两模型在处理遮挡行人重识别问题上的有效性以及先进性,对ReID技术的推广与实际场景应用有着积极意义。

    一种用于视觉分层定位的视觉地图构建方法

    公开(公告)号:CN112562081B

    公开(公告)日:2021-05-11

    申请号:CN202110175262.1

    申请日:2021-02-07

    Abstract: 本发明公开了一种用于视觉分层定位的视觉地图构建方法,包括以下步骤:1)按顺序获取双目摄像头采集的双目图像帧数据并确定运动轨迹;2)对图像帧分别提取NetVLAD全局描述子、SuperPoint特征点和局部描述子;3)找出每一帧图像特征点的匹配关键点并增量式恢复出每个特征点的3D位置;4)根据每一帧的3D特征点的2D观测确定该帧的最佳共视关键帧;5)生成最终用于视觉分层定位的视觉地图信息。本发明的视觉地图构建方法结合深度学习特征,增强了视觉地图的描述性,并且生成的用于视觉定位的地图包含多层次描述信息,可用于坐标系一致的视觉全局鲁棒定位。

    一种面向图像处理的卷积神经网络垂直分割方法

    公开(公告)号:CN112363844B

    公开(公告)日:2021-04-09

    申请号:CN202110037236.2

    申请日:2021-01-12

    Abstract: 本发明公开了一种面向图像处理的卷积神经网络垂直分割方法,属于深度学习以及分布式计算领域。该方法首先将连续卷积层最后一层的输入特征图分割为连续的子特征图,再根据子特征图,并依据卷积计算操作,反向逐层计算上一层对应的子特征图,直至第一层,参考第一层的子特征图,对第一层的输入特征图进行分割,将第一层分割后的子特征图分配给多个计算节点。最后,依据单链路连续卷积层的参数和超参数,实施无精度损失的分布式协同推理,并在所有推理结果生成后进行推理结果的汇总,生成最终的输出特征图。相比于过往方法,本发明的方法具有大幅度降低卷积神经网络推理时延并且没有精度损失的特点。

    机器人与服务端之间通信的全双工有状态通讯协议方法

    公开(公告)号:CN112272081B

    公开(公告)日:2021-04-09

    申请号:CN202011424321.6

    申请日:2020-12-08

    Abstract: 本发明公开了一种机器人与服务端之间通信的全双工有状态通讯协议方法,该方法包括:(1)服务端通过TCP/IP协议与机器人建立连接;(2)机器人发起请求,将发送请求的控制报文给服务端;(3)服务端解析请求的控制报文;(4)服务端收到并解析完请求的控制报文后,将结果以返回报文的方式返回给机器人。同时,根据请求的控制报文,服务端选择继续保持连接或者直接断开;(5)机器人解析返回报文,并根据请求的控制报文,机器人选择继续请求或者直接断开。该方法基于人工智能场景,根据请求资源的多少,请求频率的高低,灵活地选择不同的协议配置,实现高并发的通信,降低了通信的成本,使用也非常简便。

    一种多深度相机联合获取高精度深度图的方法

    公开(公告)号:CN112258591B

    公开(公告)日:2021-03-30

    申请号:CN202011422529.4

    申请日:2020-12-08

    Abstract: 本发明公开了一种多深度相机联合获取高精度深度图的方法,该方法通过使用高精度深度相机对若干低精度深度相机进行同时采集,利用两种相机重合部分对使用双边滤波器及高斯滤波器对低精度深度相机进行在线补偿,同时实时标定双边滤波器和高斯滤波器的参数,从而能够获取更高精度的深度图像。本发明的方法能够获得多幅高质量深度图像,降低了获取高精度深度图像的整体成本,其实现方法简便,手段灵活,深度图像质量显著提升,且与硬件具体型号及应用场景无关。

Patent Agency Ranking