-
公开(公告)号:CN118254170A
公开(公告)日:2024-06-28
申请号:CN202410338659.1
申请日:2024-03-22
Applicant: 河南大学
Abstract: 本发明公开了一种基于深度强化学习的机械臂渐进式训练方法、存储介质和电子设备,具体包括如下步骤:根据现实场景构建机械臂仿真工作环境,采用无模型算法完成渐进式训练系统的第一阶段训练任务;采用世界模型算法完成渐进式训练系统的第二阶段训练任务;采用训练后的无模型算法和用世界模型算法对机械臂进行具体的任务执行。本发明通过对复杂任务作分解,将工作空间由外向内分为粗操作区与精操作区,对机械臂的训练也据此按先后分为粗训练阶段和精训练阶段,通过结合了非端到端方式和端到端方式,系统中的训练方案在训练时间和训练精度上都优于单独采用无模型算法或世界模型算法,大大提升了机械臂训练效率。
-
公开(公告)号:CN118254169A
公开(公告)日:2024-06-28
申请号:CN202410334795.3
申请日:2024-03-22
Applicant: 河南大学
IPC: B25J9/16 , G06N3/0455 , G06N3/0464 , G06N3/0495 , G06N3/08
Abstract: 本发明公开了一种基于稀疏卷积神经网络的机械臂无序抓取方法、存储介质和电子设备,包括:在Pybullet物理仿真环境中搭建抓取场景;仿真环境中根据场景点云进行抓取点采样,生成训练样本及标签;构建PointGrasp‑Net模型,对PointGrasp‑Net模型进行训练,得到最优权重参数。本发明在仿真环境中采集数据,摆脱真实环境的限制,节省成本。本发明中PointGrasp‑Net网络模型只对有效的3D场景点进行处理而非整个点云空间,计算速度快,能够实时生成抓取姿态,并且根据点云数据的特点,融入了点云的曲率和法线信息,提高抓取成功率。在物体的表面点云上随机生成抓取姿态,不受物体形状结构的影响,随机无序抓取,适用于非结构化场景。
-
公开(公告)号:CN118015707A
公开(公告)日:2024-05-10
申请号:CN202410334773.7
申请日:2024-03-22
Applicant: 河南大学
IPC: G06V40/20 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种手语识别系统中手语动作与非手语动作辨别分类方法、存储介质和电子设备,基于原手语分类网络的预测分数对手语动作进行辨别分类,具体步骤为:分别将若干已训练的手语动作样本和若干非手语动作样本输入手语识别系统的预测网络中得到预测分数;对预测分数进行预处理;搭建用于分类预测分数的分类网络;将预处理后的预测分数输入神经网络中进行训练,将训练好的分类网络置入手语识别系统的手语分类模型输出与最终预测之间,将手语分类模型输出的预测分数进行处理后输入分类网络中,根据分类网络的分类结果判断目标是否为已训练的手语动作。通过本发明可以弥补现有手语识别系统的缺陷,使手语识别系统能够准确地区分。
-
公开(公告)号:CN118123838A
公开(公告)日:2024-06-04
申请号:CN202410451582.9
申请日:2024-04-15
Applicant: 河南大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于深度强化学习的机械臂控制系统校准方法、存储装置和电子设备具体通过定义了系统误差,包括相机位姿误差和机械臂坐标系误差;其次,校准相机位姿误差,从现实系统中获取标物体的多个位姿信息及对应的真实图像,仿真系统中根据上述位姿信息获取相同张数的仿真图像,再利用深度强化学习模型处理上述两组图像,并根据处理结果,指导两套系统相机位姿误差校准。最后,校准机械臂坐标系误差,其校准过程与相机位姿误差的校准类似,但目标物体改为机械臂,位姿调整也由相机改为机械臂。本专利减少了仿真环境与现实环境的差异,使仿真环境中训练的人工智能算法可以直接在现实环境中的机械臂上直接使用,大大降低了算法的迁移难度。
-
公开(公告)号:CN118169704A
公开(公告)日:2024-06-11
申请号:CN202410334946.5
申请日:2024-03-22
Applicant: 河南大学
IPC: G01S17/58 , G06T7/246 , G06T7/80 , G06V10/20 , G06V10/25 , G06V10/74 , G06T7/50 , G06N3/0464 , G06N3/08 , G06F17/10 , G06F17/16 , G01S17/86
Abstract: 本发明公开了一种基于相机和激光雷达多传感器融合的测速方法、存储介质和电子设备,属于图像处理技术领域。所述方法如下:依照合适尺寸设计并打印3D外壳模型用来集成封装激光雷达和相机,选取色彩和纹理丰富的场景测量相机和激光雷达的内外参数,然后利用相机捕捉并跟踪目标物体,再利用外参变换矩阵将目标图像信息转化为点云信息,最后利用激光雷达对点云进行处理和计算得到目标的移动速度。传统的单一传感器测速方法往往有着种种局限性,而本发明将相机和激光雷达相融合,结合二者的优点,能够实现测量结果精确度和鲁棒性很高的同时,又能使得测量结果直观明了。
-
公开(公告)号:CN116434330A
公开(公告)日:2023-07-14
申请号:CN202310276833.X
申请日:2023-03-21
Applicant: 河南大学
IPC: G06V40/20 , G06V20/52 , G06V10/764 , G06V10/40 , G06V10/82 , G06V10/25 , G06V10/774
Abstract: 本发明公开了一种餐馆场景下的人物交互行为识别方法及安全监控系统,属于视频分析技术领域,所述方法包括:确定各视频监控采集区域画面、数据预处理等任务;建立餐馆员工人脸及人体目标、顾客人体、餐馆常见物品标签库;建立与餐馆常见物品交互的肢体相关动作行为、人与人之间交互的标签库,判断其行为的安全/非安全性且建立标签;构建双任务双流并行学习网络,提取目标识别的特征信息与人物交互动作行为的特征信息;处理融合模型网络提取到的特征信息,构建一种对餐馆顾客安全监控、对员工服务工作内容理解的网络模型,并判断是否存在不安全的员工和顾客行为,建立了一种智能监控的系统,对视频智能监控系统的自动化水平有一定帮助作用。
-
公开(公告)号:CN116352709A
公开(公告)日:2023-06-30
申请号:CN202310276559.6
申请日:2023-03-21
Applicant: 河南大学
IPC: B25J9/16 , G06F30/27 , G06N3/08 , G06N3/04 , G06F119/14
Abstract: 本发明提出了通过在机械臂训练系统中输入并融合多视角的二维图像,以提高机械臂训练效率的方法。由于维度的限制,相机采集的二维图像在描述三维场景下机械臂运动状态的过程中存在局限性,导致机械臂实际训练的难度增加,因此本发明首先在机械臂训练系统中增加三个机位,分别获得机械臂三维场景下的正视图、侧视图和俯视图。然后在训练阶段中将采集到的三组不同视角下的图像分别输入到编码器中,得到三组关于图像的隐变量,依次与世界模型中的隐变量融合。由于三种视图描述了三维场景下不同视角的状态,因此系统中通过融合后所获得的状态信息量大于其中任意一种视角下的图像,这种方法使机械臂得到高效训练,有助于机械臂完成更复杂的任务。
-
公开(公告)号:CN116320221A
公开(公告)日:2023-06-23
申请号:CN202310269718.X
申请日:2023-03-20
Applicant: 河南大学
Abstract: 本发明公开了一种基于音频驱动的场景视频生成方法、装置和存储介质。所述方法包括以下步骤:利用驱动音频文件和目标视频文件,将音频文件通过音频处理模块得到音频特征矩阵;提取目标视频帧图像,并将视频帧图像分为前景和背景两部分,分别得到视频帧图像的前景信息矩阵和背景信息矩阵;根据音频特征矩阵和视频帧图像的前景信息矩阵、背景信息矩阵,利用音频驱动视频帧生成模块,生成与驱动音频对应的动作视频帧图像;使用FFmpeg将驱动音频文件和上述生成的动作视频帧图像进行拼接,生成最终的场景视频。本发明只需要对一段几十秒钟的视频进行训练,就可以生成丰富多样的场景视频,是一种更加高效和灵活的场景视频生成方法。
-
-
-
-
-
-
-