-
公开(公告)号:CN112861667A
公开(公告)日:2021-05-28
申请号:CN202110102963.2
申请日:2021-01-26
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于图像分割技术的抓取检测方法,该方法使用图像分割技术,将目标物体从杂乱的场景中分割出来,对只含有目标信息的图像做抓取检测。通过这种方法消除了背景信息对抓取检测的干扰,使得抓取检测为面向对象的抓取检测而不是面向场景的抓取检测。同时通过此种方法提高了模型对不同环境的鲁棒性,减小了模型在抓取检测时对环境特征的依赖,提高了模型对不同背景下物体的检测能力。
-
公开(公告)号:CN113469110B
公开(公告)日:2024-05-07
申请号:CN202110809540.4
申请日:2021-07-15
Applicant: 北京邮电大学
IPC: G06F18/24 , G06F18/213 , G06F18/25 , G06N3/0464 , G06N3/084
Abstract: 本发明提供了一种基于深度学习的超宽带(UltraWide Band,UWB)非视距信号(None‑Line‑Of‑Sight,NLOS)识别方法。该方法以信号的信道脉冲响应(Channel Impulse Response,CIR)作为输入,使用双流神经网络提取信号特征,可实现非视距信号(NLOS)与视距信号(Line‑Of‑Sight,LOS)的识别。该双流神经网络的一路借鉴了ResNet18中的残差结构,以1016个时刻的CIR信号作为输入,提取信号的时域特征;另一路使用一个卷积神经网络(CNN)提取10个额外参数中的特征。为了减小输入数据中的噪声干扰并放大NLOS与LOS信号的差异性,本发明提出了一种新的能量归一化方法。此外,本发明提出了一个专用于识别NLOS和LOS信号的损失函数,使用该损失函数训练神经网络,可以加快网络收敛速度,提升识别精度。
-
公开(公告)号:CN115019147A
公开(公告)日:2022-09-06
申请号:CN202210783135.4
申请日:2022-06-27
Applicant: 北京邮电大学
IPC: G06V10/82 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/40 , G06N3/04 , G06N3/08 , G06T7/70
Abstract: 本发明公开了一种适用于物体堆叠杂乱场景的基于Transformer机制的抓取检测模型,该模型提出使用Transformer机制提取输入图像的特征,然后使用全卷积神经网络预测图片中所有可能的抓取位置。通过将Transformer与卷积神经网络结合,该模型同时融合了Transformer机制优秀的全局建模能力和卷积神经网络的归纳偏置能力。从而使得本模型不需要多次下采样操作在模型的初始阶段就能够对输入图像的全局特征进行建模和相关性计算,避免了传统模型由于下采样造成的特征丢失;此外,本模型同时融合了卷积神经网络的归纳偏置能力,降低了模型训练过程中对大尺寸数据集的依赖。因此,本模型能够更好的对杂乱堆叠场景的特征进行建模,并且可以在小规模数据集上训练出令人满意的结果。基于以上优势,本发明提出的模型可以广泛的应用于各种常见的生活场景的抓取检测任务,具有更强的鲁棒性和环境适应性。
-
公开(公告)号:CN113469110A
公开(公告)日:2021-10-01
申请号:CN202110809540.4
申请日:2021-07-15
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于深度学习的超宽带(Ultra Wide Band,UWB)非视距信号(None‑Line‑Of‑Sight,NLOS)识别方法。该方法以信号的信道脉冲响应(ChannelImpulse Response,CIR)作为输入,使用双流神经网络提取信号特征,可实现非视距信号(NLOS)与视距信号(Line‑Of‑Sight,LOS)的识别。该双流神经网络的一路借鉴了ResNet18中的残差结构,以1016个时刻的CIR信号作为输入,提取信号的时域特征;另一路使用一个卷积神经网络(CNN)提取10个额外参数中的特征。为了减小输入数据中的噪声干扰并放大NLOS与LOS信号的差异性,本发明提出了一种新的能量归一化方法。此外,本发明提出了一个专用于识别NLOS和LOS信号的损失函数,使用该损失函数训练神经网络,可以加快网络收敛速度,提升识别精度。
-
公开(公告)号:CN114092766A
公开(公告)日:2022-02-25
申请号:CN202111406277.0
申请日:2021-11-24
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于特征注意力机制的机器人抓取检测方法,该方法提出使用注意力机制,引导抓取检测器关注于目标物体本身的特征。使得机器人能够根据目标物体自身的类别、结构及纹理特征预测该物体最合理的抓取位置。通过这种方法减小了抓取检测器的检测范围,降低了对物体抓取检测没有贡献的背景信息的影响,提高了抓取检测模型的效率。另外,这种在杂乱场景中专注于目标本体特征的抓取检测方式,更契合人类的抓取习惯,进一步推动了机器人抓取检测的智能化过程。
-
公开(公告)号:CN113378838A
公开(公告)日:2021-09-10
申请号:CN202110748403.4
申请日:2021-06-30
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于深度学习的互感器铭牌文本区域检测方法。该方法利用一阶段模型使用图像像素分类的原理检测互感器设备铭牌上的文本区域。其中互感器铭牌图像特征提取及融合方法采用U‑Net网络多维度特征融合的方法,通过该方法能够准确的提取图像中不同尺寸文字区域的特征。同时,为了提高互感器铭牌图像中长文本的识别性能,在文本检测阶段采用Differentiable Binarization(DB)网络对融合后的特征进行关联、映射及分类,从而避免存在语义关联的长文本在文本检测时被截断的情况。因此,通过U‑Net网络和DB网络相结合的方式既提高了模型对小区域本文的检测能力,也增强了模型对长文本的特征学习能力,从而提高了整个文本检测模型的精度。
-
-
-
-
-