-
公开(公告)号:CN117874258B
公开(公告)日:2025-05-13
申请号:CN202410113790.8
申请日:2024-01-26
Applicant: 北京工业大学
IPC: G06F16/36 , G06N5/022 , G06N3/0464 , G06F40/16
Abstract: 本发明公开了基于语言视觉大模型与知识图谱的任务序列智能规划方法,包括层次化知识图谱构建、基于语言视觉大模型的场景关系感知与预测模型训练以及PDDL自主动作序列规划。从层次化知识图谱构建的知识图谱中查询并提取相关的物体与动作属性,用于自动生成PDDL规划器的域文件,同时基于语言视觉大模型的场景关系感知与预测模型训练,并输出相关物体的初始与目标状态,自动生成PDDL规划器的问题文件;所述域文件与问题文件驱动PDDL自主动作序列规划动作基元序列。本发明可以应用于机器人智能规划领域,只需要输入人的语言任务指令与感知当前场景的视觉图片,机器人就可以根据内置的知识图谱进行相关信息联想与智能规划,获取可行的操作层动作基元序列。
-
公开(公告)号:CN115454134B
公开(公告)日:2024-09-24
申请号:CN202211217407.0
申请日:2022-10-03
Applicant: 北京工业大学
IPC: G05D1/695 , G05D109/20
Abstract: 本发明公开了一种有向通信下具有异构动态不确定性的多智能体的一致跟踪控制方法和系统,所述智能体的模型差异由动态不确定性特性描述。基于输出信息设计分散式状态观测器,利用相邻多智能体间的相对输出信息构建分布式一致跟踪控制协议,使跟随者的输出能够渐进跟踪领航者的输出轨迹。本发明提供的技术方案带来的有益效果为:本发明将多智能体间的模型差异处理为动态不确定性,提出了一种适用于一般异构多智能体系统的一致跟踪控制算法;多智能体间的交换信息仅包含相邻跟随者的相对输出信息,降低了网络通讯负荷;通过充分利用智能体动态不确定性的频域特征,与现有方法相比,所提出的算法极大地降低了系统设计保守性。
-
公开(公告)号:CN117508396A
公开(公告)日:2024-02-06
申请号:CN202311529556.5
申请日:2023-11-16
Applicant: 北京工业大学
IPC: B62D57/028 , B62D57/032 , B25J5/00 , B25J9/16
Abstract: 本发明公开了一种具备全向运动能力的轮足一体化机器人,涉及移动机器人技术领域。包括若干个集成式轮组,可自由切换轮式运动模式和足式运动模式;控制模块,整合感知信息、环境数据和机器人状态,并基于这些信息进行决策和动作规划;动力供应模块,由电池组成,为整个轮足一体化机器人提供所需的电能;智能感应系统,安装在车体的侧面,实现对环境信息的高效感知与数据采集,以支持机器人在不同地形和障碍条件下的灵活移动、越障和路径规划能力;任务执行装置,安装在车体的上面,进行任务作业。本发明可高效切换轮式及足式模式,降低机器人的机械复杂性,提高控制的准确性,具有更好的稳定性、适应性和越障能力。
-
公开(公告)号:CN115570572A
公开(公告)日:2023-01-06
申请号:CN202211401247.5
申请日:2022-11-09
Applicant: 北京工业大学
IPC: B25J9/16
Abstract: 本发明公开了基于层次化知识图谱的复杂装配任务动作序列规划方法,该方法基于对象层、操作层、任务层三个层次构建知识图谱,其中对象层主要描述操作环境中对象属性及其相互关系。图谱内实体属性主要包括物理属性、视觉属性与操作属性等。操作层主要描述多样化动作属性,包括动作的语义名称、特征及功用等。任务层主要描述多种装配方式(装配子任务的分解与组合),如子任务间的约束关系与时序关系描述等。通过建立层次化知识图谱,分层次存储多样化装配序列;模块化设计机器人不同种类动作,针对复杂装配任务,将图谱序列与动作模块相结合规划机器人的可执行动作序列,减免编程繁琐,降低对员工的专业编程能力要求。
-
公开(公告)号:CN114187269A
公开(公告)日:2022-03-15
申请号:CN202111516597.1
申请日:2021-12-07
Applicant: 北京工业大学
Abstract: 本发明公开了小零器件表面缺陷边缘快速检测方法,具体包括两个步骤:零器件边缘最小包络框的获取与复杂形状零器件缺陷边缘的快速检测方法;所述零器件边缘最小包络框的获取用Canny边缘检测算子迅速锁定整个图片中零器件的边缘位置信息并获取零器件的最小包络框,确定缺陷的检测区域;复杂形状零器件缺陷边缘的快速检测方法将最小包络框旋转至与边缘模板图像一致的方向,并通过匹配边缘点位置特征,快速找到器件上的缺陷边缘。本方法只需首先拍摄一幅无缺陷器件图片作为匹配模板,匹配模型更新维护简便,整个算法计算量小,实时性好,不需要大量样本。该方法由于仅对待检测图像的边缘部分进行了识别,大大降低了缺陷检测的计算量。
-
公开(公告)号:CN115454134A
公开(公告)日:2022-12-09
申请号:CN202211217407.0
申请日:2022-10-03
Applicant: 北京工业大学
IPC: G05D1/10
Abstract: 本发明公开了一种有向通信下具有异构动态不确定性的多智能体的一致跟踪控制方法和系统,所述智能体的模型差异由动态不确定性特性描述。基于输出信息设计分散式状态观测器,利用相邻多智能体间的相对输出信息构建分布式一致跟踪控制协议,使跟随者的输出能够渐进跟踪领航者的输出轨迹。本发明提供的技术方案带来的有益效果为:本发明将多智能体间的模型差异处理为动态不确定性,提出了一种适用于一般异构多智能体系统的一致跟踪控制算法;多智能体间的交换信息仅包含相邻跟随者的相对输出信息,降低了网络通讯负荷;通过充分利用智能体动态不确定性的频域特征,与现有方法相比,所提出的算法极大地降低了系统设计保守性。
-
公开(公告)号:CN117726654B
公开(公告)日:2024-12-06
申请号:CN202410003701.4
申请日:2024-01-02
Applicant: 北京工业大学
IPC: G06T7/246 , G06F17/11 , G06F17/18 , G06F17/16 , G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于点云的6‑DOF人机协作姿态规划与类人交互运动生成方法,包含两个子任务:交接点云提取和6‑DOF抓取姿态生成。结合场景深度及相机标定信息,将检测出的人手与物体图像变换到3维空间,通过点云分割算法与统计滤波技术,提取出物体上未被手遮挡的局部点云作为交接点云,并将其作为抓取规划模块的输入。6‑DOF抓取姿态生成子任务根据输入的交接点云预测一组6自由度的抓取候选,并输出最可行的、能够稳定接过物体的6‑DOF抓取姿势。本发明基于GraspNet构建了一个6自由度抓取规划模型,其中GraspNet是一个端到端的深度神经网络,它可以在3维点云上预测候选的6‑DOF抓取姿势。本方法是一种兼顾安全性与稳定性的抓取选择策略,确保生成更可靠和安全的6‑DOF抓取规划。
-
公开(公告)号:CN118990504A
公开(公告)日:2024-11-22
申请号:CN202411345828.0
申请日:2024-09-26
Applicant: 北京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于视觉与力感知的机器人擦拭动作策略学习方法,利用PPO算法构建机器人擦拭动作规划模型,PPO通过使用计算一定截断比例的方法限制策略更新的幅度,确保新策略不会偏离旧策略太远,从而在探索和利用之间找到平衡。这种设计有助于维持学习过程的稳定性和避免大幅度性能下降。本方法经过密集的仿真环境下的训练与奖励机制的不断调优,机械臂将逐步精炼其擦拭技能,不仅提升任务执行效率,还能在保证安全的前提下,灵活应对不同清洁需求。最后,将训练成熟的模型部署至实体机械臂上进行实地测试与微调,显著增强其在多样化的家居应用场景中的擦拭作业能力。
-
公开(公告)号:CN114187269B
公开(公告)日:2024-04-05
申请号:CN202111516597.1
申请日:2021-12-07
Applicant: 北京工业大学
Abstract: 本发明公开了小零器件表面缺陷边缘快速检测方法,具体包括两个步骤:零器件边缘最小包络框的获取与复杂形状零器件缺陷边缘的快速检测方法;所述零器件边缘最小包络框的获取用Canny边缘检测算子迅速锁定整个图片中零器件的边缘位置信息并获取零器件的最小包络框,确定缺陷的检测区域;复杂形状零器件缺陷边缘的快速检测方法将最小包络框旋转至与边缘模板图像一致的方向,并通过匹配边缘点位置特征,快速找到器件上的缺陷边缘。本方法只需首先拍摄一幅无缺陷器件图片作为匹配模板,匹配模型更新维护简便,整个算法计算量小,实时性好,不需要大量样本。该方法由于仅对待检测图像的边缘部分进行了识别,大大降低了缺陷检测的计算量。
-
公开(公告)号:CN117725554A
公开(公告)日:2024-03-19
申请号:CN202410003699.0
申请日:2024-01-02
Applicant: 北京工业大学
IPC: G06F18/25 , G06F40/30 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于视觉语言多模态融合的人机交互意图理解方法,该方法首先在语义层上实现将人的指令语言转换为机器人可理解的文本形式的任务向量。采用融语音识别与自然语言处理NLP一体的实时交互语义解析模型提取意图理解关键信息。在语义层,机器人从人的指令语言中提取的交互意图理解关键信息。操作层接收文本形式的关键信息,并将关键信息中名词文本与视觉检测模型的物品类别名称相匹配,获取关键信息中物品的位置信息。本发明所提出的基于视觉语言多模态融合的模型可将人的语言指令转化为机器人可理解的、操作层的操作向量,模型简洁、高效,具有较强的实用性;尤其是对小物体或复杂交互场景中物品的检测。
-
-
-
-
-
-
-
-
-