-
公开(公告)号:CN117725421A
公开(公告)日:2024-03-19
申请号:CN202410003700.X
申请日:2024-01-02
Applicant: 北京工业大学
IPC: G06F18/214 , G06F18/2411 , G06F17/18 , G06N3/084
Abstract: 本发明公开了一种基于小波模糊熵和t‑SNE的机器人抓取稳定状态识别方法,采用的小波模糊熵算法充分考虑到不同物体触觉信号非平稳性的特点,能够更好地处理非平稳信号,实现更准确的特征提取。本发明在小波处理中,提取时域和频域两个方面的融合特征,可以更好地区分多种物体在三种不同抓握状态,使机器人能够稳定完成抓握任务,提高了机器人系统的可靠性。针对小波模糊熵算法在构建高维特征集时出现数据冗余以及增加计算开销的问题,提出t‑SNE降维可视化算法,可以有效地对高维数据进行降维,在保留主要特征的同时去除冗余数据,使得特征描述更易于状态分类,这对于提升机器人稳定抓握的能力具有重要意义。
-
公开(公告)号:CN117301048A
公开(公告)日:2023-12-29
申请号:CN202311195294.3
申请日:2023-09-16
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于时间最优的机械臂轨迹规划方法,该方法能够使机器人以最短时间精确到达目标位置的同时保证其运动的速度、加速度光滑连续。具体措施为将鲸鱼优化算法与五次多项式插值方法相结合,通过对鲸鱼优化算法进行改进增强以提高其收敛速度和防止陷入局部最优状态,保证其能够得到最优时间下的运动轨迹,以提高机械臂的工作效率。本发明通过引入分段式衰减率和惯性权重保证了该算法具有快速收敛、全局搜索能力强、能有效避免陷入局部最优状态的特点。惩罚策略的引入提高了搜索过程中的位置更新效率。对于提高机器人在装配、码垛等任务中的工作效率具有重要意义。
-
公开(公告)号:CN116679642A
公开(公告)日:2023-09-01
申请号:CN202310645881.1
申请日:2023-06-02
Applicant: 北京工业大学
IPC: G05B19/418
Abstract: 本发明公开了面向非结构环境下复杂装配任务的高效模块化系统设计与知识推理方法,机器人系统进行模块化包括知识库模块、视觉感知模块、动作控制模块及通信模块。知识库模块分层存储零件属性、动作指令与不同的装配任务;视觉感知模块控制相机对工作区域进行拍照,完成对场景中杂乱摆放零件的位置与姿态识别;通信模块与动作控制模块联接;构建知识推理模型,结合知识库内装配要求,机器人自主推理可行的装配操作序列,完成对有覆盖的零件进行移除与再装配。本发明对于复杂装配任务处理形式多样,以知识库的方式存储或通过输入外部任务指令完成;基于知识推理,自主生成可行的装配动作序列,提高了机器人完成复杂装配任务的灵活性、智能性。
-
公开(公告)号:CN116079739A
公开(公告)日:2023-05-09
申请号:CN202310163371.0
申请日:2023-02-24
Applicant: 北京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于跟踪微分器的机械臂末端位置与力变阻抗协同控制方法,将模仿学习与自适应变阻抗控制相结合用于机械臂末端位置与力协同控制策略学习中,设计新的自适应率以应对在斜坡、曲面等复杂环境下的力跟踪问题,由此保证清洁任务的顺利完成。本发明采取末端位置与力协同学习策略,充分保证了机械臂在执行清洁任务时,末端运动轨迹、施力与示教信息特征的相似性;同时,在与不同环境接触时较高精度的期望力跟踪,确保了机器人在不同环境下利用学习到的清洁操作技能完成清洁任务的效率。本发明对于执行易碎物品的接触清洁任务具有重要意义。
-
公开(公告)号:CN119940369A
公开(公告)日:2025-05-06
申请号:CN202510095336.9
申请日:2025-01-21
Applicant: 北京工业大学
IPC: G06F40/30 , G10L15/22 , G10L15/26 , G06F3/0488 , G06F3/16 , G06F16/334 , G06V10/25 , G06V10/26 , G06V10/82 , G06V20/70 , G06N3/0442 , G06N3/045
Abstract: 本发明公开了基于多模式信息融合的交互意图理解与快速学习系统,针对机器人取放物品的操作指令语义理解,在任务语义理解模块构建基于大语言模型的关键信息提取架构,包括多个关键位置与动作文本信息提取,并将提取的信息与视觉、触屏进行多模式交互融合,实现指令意图的正确理解。所述基于大语言模型的关键信息提取架构为基于BERT大语言模型,通过BERT大语言模型训练语言处理模型;所述语言处理模型包括长序列多任务指令,以及语气、场景、正序与倒叙的请求指令的人类指令数据集,实现输入长序列多任务指令语句,输出关键动作序列;该系统能够通过语音、触屏、视觉多模式人机交互技术实现高效、准确地人意图理解,使机器人能够快速学习新物品。
-
公开(公告)号:CN119036445A
公开(公告)日:2024-11-29
申请号:CN202411164412.9
申请日:2024-08-23
Applicant: 北京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于视触觉学习抓取状态分类的方法,搭建该方法的实验场景,用配备平行夹持器的6自由度机器人手臂进行了抓取实验,平行夹持器的两端各装有一个视触觉传感器,用于捕获物体微小滑动趋势;构建可变形物体在过稳定、完全稳定和不稳定三种状态下的光流数据集OFB‑6;利用公开的数据集进行基准测试;通过加入光流前后Transformer模型在识别准确率的提升,验证所提出的光流指导Transformer模型学习的有效性。本发明的光流法可以提前检测到这些微小变化,从而及时调整抓取策略。能够更准确地捕捉到触觉图像中的动态变化。通过融合视觉和触觉信息,模型能够更全面地理解抓取过程中的物理变化,提高整体抓取性能。
-
公开(公告)号:CN117874258A
公开(公告)日:2024-04-12
申请号:CN202410113790.8
申请日:2024-01-26
Applicant: 北京工业大学
IPC: G06F16/36 , G06N5/022 , G06N3/0464 , G06F40/16
Abstract: 本发明公开了基于语言视觉大模型与知识图谱的任务序列智能规划方法,包括层次化知识图谱构建、基于语言视觉大模型的场景关系感知与预测模型训练以及PDDL自主动作序列规划。从层次化知识图谱构建的知识图谱中查询并提取相关的物体与动作属性,用于自动生成PDDL规划器的域文件,同时基于语言视觉大模型的场景关系感知与预测模型训练,并输出相关物体的初始与目标状态,自动生成PDDL规划器的问题文件;所述域文件与问题文件驱动PDDL自主动作序列规划动作基元序列。本发明可以应用于机器人智能规划领域,只需要输入人的语言任务指令与感知当前场景的视觉图片,机器人就可以根据内置的知识图谱进行相关信息联想与智能规划,获取可行的操作层动作基元序列。
-
公开(公告)号:CN117726654A
公开(公告)日:2024-03-19
申请号:CN202410003701.4
申请日:2024-01-02
Applicant: 北京工业大学
IPC: G06T7/246 , G06F17/11 , G06F17/18 , G06F17/16 , G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于点云的6‑DOF人机协作姿态规划与类人交互运动生成方法,包含两个子任务:交接点云提取和6‑DOF抓取姿态生成。结合场景深度及相机标定信息,将检测出的人手与物体图像变换到3维空间,通过点云分割算法与统计滤波技术,提取出物体上未被手遮挡的局部点云作为交接点云,并将其作为抓取规划模块的输入。6‑DOF抓取姿态生成子任务根据输入的交接点云预测一组6自由度的抓取候选,并输出最可行的、能够稳定接过物体的6‑DOF抓取姿势。本发明基于GraspNet构建了一个6自由度抓取规划模型,其中GraspNet是一个端到端的深度神经网络,它可以在3维点云上预测候选的6‑DOF抓取姿势。本方法是一种兼顾安全性与稳定性的抓取选择策略,确保生成更可靠和安全的6‑DOF抓取规划。
-
公开(公告)号:CN116758017A
公开(公告)日:2023-09-15
申请号:CN202310645879.4
申请日:2023-06-02
Applicant: 北京工业大学
IPC: G06T7/00 , G06T7/80 , G06V10/764 , G06V10/82 , G06T7/70 , G06T7/50 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了流水线上密集竖排的袋装食品精确数量与异常情况的视觉实时检测方法,该方法采用改进的YOLO深度神经网络对密集竖排的袋装食品进行检测,得到小袋装食品的位置、类别、数量和姿态角度;利用该识别结果与视觉深度信息相结合,实时检测出流水线上异常摆放的个别小包装的位姿,便于及时处理异常摆放的食品。为进一步精确判别目标个数,根据每个检测出的包围框的宽度信息判断个数检测的可信度,若可信度低,对误判的目标物体个数进行纠正,确保识别准确。该方法具有检测速度快、密集排列袋装食品的数量检测精确、且可以识别异常情况的优点,对于机器人按多样的数量与排列要求实时自主地完成包装任务至关重要。
-
公开(公告)号:CN115570572B
公开(公告)日:2024-08-02
申请号:CN202211401247.5
申请日:2022-11-09
Applicant: 北京工业大学
IPC: B25J9/16
Abstract: 本发明公开了基于层次化知识图谱的复杂装配任务动作序列规划方法,该方法基于对象层、操作层、任务层三个层次构建知识图谱,其中对象层主要描述操作环境中对象属性及其相互关系。图谱内实体属性主要包括物理属性、视觉属性与操作属性等。操作层主要描述多样化动作属性,包括动作的语义名称、特征及功用等。任务层主要描述多种装配方式(装配子任务的分解与组合),如子任务间的约束关系与时序关系描述等。通过建立层次化知识图谱,分层次存储多样化装配序列;模块化设计机器人不同种类动作,针对复杂装配任务,将图谱序列与动作模块相结合规划机器人的可执行动作序列,减免编程繁琐,降低对员工的专业编程能力要求。
-
-
-
-
-
-
-
-
-