-
公开(公告)号:CN114237235A
公开(公告)日:2022-03-25
申请号:CN202111460950.9
申请日:2021-12-02
Applicant: 之江实验室
IPC: G05D1/02
Abstract: 本发明公开了一种基于深度强化学习的移动机器人避障方法,通过激光雷达获取点云数据,对点云数据进行卷积特征提取,与行人位置、行人速度、全局路径共同作为神经网络输入,建立全连接神经网络,设定环境奖励,通过PPO深度强化学习算法输出机器人动作。相对于其他规划或学习的导航方法,本方法无需对行人进行预测、传感器预处理、简化了算法复杂度,更加适用于在多人环境下的机器人导航策略。同时由于加入全局路径作为输入量,提升了算法的适用范围,同时也加快了算法的收敛时间。
-
公开(公告)号:CN117521011A
公开(公告)日:2024-02-06
申请号:CN202311542251.8
申请日:2023-11-16
Applicant: 之江实验室
IPC: G06F18/25 , G06F18/213 , G06F18/22 , G06V10/40 , G06V10/82 , G06F40/289 , G06N3/0455 , G06N3/0464
Abstract: 本说明书公开了一种基于语言指导采样的指代表达理解方法,可以获取包括图像、指代表达文本及指代表达文本对应指代目标的真实目标框的训练集,通过视觉特征编码器获取包含语义信息的多尺度视觉特征,通过语言特征编码器提取语言特征,根据语言特征,对多尺度视觉特征进行特征采样,得到采样后特征,将采样后特征与多尺度视觉特征进行融合,得到目标特征,根据语言特征以及目标特征,对指代表达文本所指代的图像中的位置进行预测,得到预测目标框,从而对整体的网络进行训练,本发明基于语言指导采样,在语言特征的指导下,能够自适应地采样与语言特征相关的视觉特征,从而提升指代表达理解网络的性能。
-
公开(公告)号:CN115862130A
公开(公告)日:2023-03-28
申请号:CN202211433342.3
申请日:2022-11-16
Applicant: 之江实验室
IPC: G06V40/20 , G06V40/10 , G06V10/40 , G06V10/764 , G06V10/774 , G06V20/52 , G06V10/82 , G06V20/40 , G06N3/0464 , G06N3/047 , G06N3/084
Abstract: 基于人体姿态及其躯干运动场的行为识别方法,包括:获取多人人体彩色图像作为输入;采用目标检测网络从所述多人人体彩色图像中检测二维人体包围框,采用二维人体姿态估计网络从截取的图像中计算二维人体姿态;基于二维人体姿态分别计算关键点热图和躯干运动场,拼接这两种模态作为人体姿态表征;将人体姿态表征作为输入,建立姿态网络用于提取人体行为特征,输出分类器中概率最大的行为类别;采集多人人体彩色图像序列、二维人体姿态以及对应的类别标签作为训练数据集,采用随机梯度下降的优化方法对姿态网络进行预训练优化。本发明减少了复杂背景下行为动作在时间序列的歧义性,提高了低采样帧率下的行为识别的准确率。
-
公开(公告)号:CN115578461B
公开(公告)日:2023-03-10
申请号:CN202211419607.4
申请日:2022-11-14
Applicant: 之江实验室
Abstract: 本发明公开了一种基于双向RGB‑D特征融合的物体姿态估计方法及装置,该方法的核心创新点为特征双向融合模块,通过将RGB与点云特征投影到标准空间以实现对齐,互补和相互增强的作用,提升了最终RGB‑D特征的显著性与代表性。此外,本发明还创新性地引入了感兴趣区域检测,特征恒等映射与残差融合,多任务协同训练,关键点投票与聚类,最小二乘法姿态解算等关键方法,极大改善了传统物体六自由度姿态估计中存在的抗干扰能力弱,精度不足等痛点问题。经多个实际场景测试,本发明可在杂乱环境下,高鲁棒性和高精度地实现对遮挡物体的六自由度姿态估计。
-
公开(公告)号:CN112611384B
公开(公告)日:2023-01-24
申请号:CN202011409790.0
申请日:2020-12-03
Applicant: 之江实验室
IPC: G01C21/20
Abstract: 本申请公开了一种在NLOS场景下UWB与激光融合的机器人定位方法及装置。该方法在复杂室内环境下的UWB定位系统中,针对NLOS导致UWB定位不准确的情况。根据地图和基站位置等先验信息,通过上一时刻定位结果,选择出得到没有遮挡的基站数据进行定位计算,之后与激光进行EKF数据融合定位。相对于其他滤波或补偿的方法,本方法计算简单也更为精确,并具有更高的时效性及应用普适性。
-
公开(公告)号:CN114356078A
公开(公告)日:2022-04-15
申请号:CN202111539274.4
申请日:2021-12-15
Applicant: 之江实验室
IPC: G06F3/01
Abstract: 本发明涉及人工智能机器人行为交互领域,具体涉及一种基于注视目标的人物意图检测方法、装置及电子设备,该方法包括:利用机器人上的深度摄像头获取到彩色图像和深度图,通过注视目标估计方法在彩色图像中估计出人物的注视目标点,通过目标检测方法在彩色图像中检测出通用目标的包围框,将人物的注视目标点与通用目标相关联,得到彩色图像中的注视目标物体;利用深度图和机器人位姿坐标计算出机器人当前位置下的可观测到的点云,彩色图像中的注视目标物体映射到注视目标点云上;在语义地图上查询注视目标点云的位置上的语义信息,作为人物意图。本发明进一步提升机器人在人机交互的能力,更好地为人类进行服务。
-
公开(公告)号:CN114170506A
公开(公告)日:2022-03-11
申请号:CN202111451521.5
申请日:2021-12-01
Applicant: 之江实验室
IPC: G06V20/10 , G06V20/52 , G06V10/44 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08 , G06T7/73
Abstract: 本发明公开了一种面向机器人的基于场景图的视觉场景理解系统及方法,系统包括:彩色图片获取与调用模块、场景图关系识别模块、人群关系预测模块;方法包括:通过彩色图片获取与调用模块获取应用场景中的实时的图像;对象分类模块根据对象的特征计算出对象所属的类别,场景图关系识别模块将所有对象与关系进行关联组合,生成场景图;通过关系分类模块计算出两两对象之间的合理关系类别;人群划分模块依据整个场景中的人物以及人物之间的关系类别,进行合理的人群划分;根据人群划分的结果与人物之间的关系类别,VIP预测模块对人群中的每个人进行相关的关系融合,并根据融合结果判断每个人在人群中的重要程度,最终得出该人群中的VIP。
-
公开(公告)号:CN117610678A
公开(公告)日:2024-02-27
申请号:CN202311433978.2
申请日:2023-10-31
Applicant: 之江实验室
IPC: G06N20/00 , G06F40/186 , G06F18/22 , G06N5/022 , G06F16/242
Abstract: 本申请涉及一种机器人任务规划方法、装置、电子装置和存储介质,其中,该机器人任务规划方法包括:接收任务指令,并提取任务指令中的目标指令文本;当目标指令文本与预设的知识库中的任务指令文本的相似度未超过预设的相似度阈值时,输入任务指令至大模型中,以生成任务指令的问题描述文件;基于问题描述文件以及领域描述文件,使用规划领域定义语言,生成服务机器人的任务规划;领域描述文件是使用规划领域定义语言生成。通过本申请,提高了机器人任务规划的准确度。
-
公开(公告)号:CN115862130B
公开(公告)日:2023-10-20
申请号:CN202211433342.3
申请日:2022-11-16
Applicant: 之江实验室
IPC: G06V40/20 , G06V40/10 , G06V10/40 , G06V10/764 , G06V10/774 , G06V20/52 , G06V10/82 , G06V20/40 , G06N3/0464 , G06N3/047 , G06N3/084
Abstract: 基于人体姿态及其躯干运动场的行为识别方法,包括:获取多人人体彩色图像作为输入;采用目标检测网络从所述多人人体彩色图像中检测二维人体包围框,采用二维人体姿态估计网络从截取的图像中计算二维人体姿态;基于二维人体姿态分别计算关键点热图和躯干运动场,拼接这两种模态作为人体姿态表征;将人体姿态表征作为输入,建立姿态网络用于提取人体行为特征,输出分类器中概率最大的行为类别;采集多人人体彩色图像序列、二维人体姿态以及对应的类别标签作为训练数据集,采用随机梯度下降的优化方法对姿态网络进行预训练优化。本发明减少了复杂背景下行为动作在时间序列的歧义性,提高了低采样帧率下的行为识别的准确率。
-
公开(公告)号:CN115512003B
公开(公告)日:2023-04-28
申请号:CN202211430055.7
申请日:2022-11-16
Applicant: 之江实验室
IPC: G06T11/20 , G06V10/774 , G06V10/764 , G06V10/74 , G06T7/73
Abstract: 本发明属于计算机视觉领域,涉及一种独立关系检测的场景图生成方法和系统,该方法包括:步骤一,建立独立关系检测模型;步骤二,利用图像、图像对应的关系标签以及预定义方向锚训练所述独立关系检测模型,得到训练好的独立关系检测模型;步骤三,使用训练好的独立关系检测模型,输入图像和预定义方向锚,输出图像中存在的关系,对其中相似的关系采用相似关系抑制算法进行抑制;步骤四,同时将通过目标检测算法检测得到的物体包围框与所述输出图像中存在的关系的关系起始点和关系末端点进行位置匹配,得到 的三元组,构成场景图。本发明在不依靠目标检测结果的情况下就能对图像中的关系进行检测,提升了场景图生成的运算速度。
-
-
-
-
-
-
-
-
-