-
公开(公告)号:CN119941863A
公开(公告)日:2025-05-06
申请号:CN202411873377.8
申请日:2024-12-18
Applicant: 江淮前沿技术协同创新中心
Abstract: 本公开提供一种热红外相机的光度标定方法、装置、计算机设备和介质,包括:获取热红外相机采集的第一图像帧的像素点数据、第二图像帧的像素点数据和第三图像帧的像素点数据;基于第一图像帧的像素点数据和第二图像帧的像素点数据,确定目标特征点相对于第一图像帧的目标像素强度值;基于第二图像帧的像素点数据和第三图像帧的像素点数据,确定目标特征点相对于第二图像帧的目标像素强度值;基于目标特征点相对于第一图像帧的目标像素强度值和目标特征点相对于第二图像帧的目标像素强度值,对第一图像帧中目标特征点的当前像素强度值以及第二图像帧中目标特征点的当前像素强度值进行光度标定。从而,有效提升特征点追踪效率。
-
公开(公告)号:CN119888175A
公开(公告)日:2025-04-25
申请号:CN202411936024.8
申请日:2024-12-26
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明提供一种移动机器人目标搜寻方法及系统,方法包括:S1、获取目标物品描述,根据目标物体的呈现形式,对目标物体进行特征编码,得到关键点矩阵;利用移动机器人执行规划导航算法,探索未知环境,根据关键点矩阵,读取RGBD相机数据,执行图像分割算法,构建语义栅格地图,确定敏感目标;利用移动机器人,对敏感目标与目标物品进行匹配操作,确定待筛选目标物品;对已发现的待筛选目标物品,进行的筛选、人工干预机制,得到一次筛选结果;根据一次筛选结果,对目标物品进行二次搜寻,在缓存的语义栅格地图中寻找并确定最终目标物品。本发明解决了对场景真实地图的依赖、传感设备成本高以及数据存储开销和数据处理复杂度高的技术问题。
-
公开(公告)号:CN119887921A
公开(公告)日:2025-04-25
申请号:CN202411990973.4
申请日:2024-12-31
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明提供空间自旋非合作目标抓捕方法及系统,方法包括:对当前图像预处理,将图像灰度均值调整至预设范围内;实时采集目标星的点云数据;对点云数据帧进行点云匹配;状态估计,获取目标物的最终位置和姿态;通过视觉伺服控制,调整末端速度以及关节角。本发明解决了依赖目标材料的磁性特性,易受磁场、强辐射、高温差等因素干扰以及训练初期控制精度低的技术问题。
-
公开(公告)号:CN119867753A
公开(公告)日:2025-04-25
申请号:CN202411887199.4
申请日:2024-12-19
Applicant: 江淮前沿技术协同创新中心 , 华南理工大学
IPC: A61B5/16 , A61B5/055 , A61B5/00 , G16H50/20 , G16H50/30 , G16H30/20 , G16H50/70 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/0442 , G06N3/042 , G06N3/048 , G06N3/084
Abstract: 本发明公开了一种基于多模态核磁影像图神经网络的抑郁状态检测系统。所述系统包括脑数据处理模块、特征提取模块和分类器模块;脑数据处理模块根据输入的fMRI数据,对大脑划分网格聚合得到多个图节点,计算图节点和边值,进而完成脑功能连接图的构建;特征提取模块对脑功能连接图进行分析,通过网络层与池化层提取特征向量H,表征大脑功能连接的特性;分类器模块训练抑郁状态分类器,最终由训练完成的抑郁状态分类器根据输入的特征向量H输出抑郁症患者或健康个体的概率。本发明利用图神经网络以及自注意力机制来全面探索fMRI数据中抑郁特征,为抑郁状态检测提供支持。再借由域分类器,提高抑郁状态分类器的鲁棒性和泛化能力。
-
公开(公告)号:CN119845264A
公开(公告)日:2025-04-18
申请号:CN202411863016.5
申请日:2024-12-17
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明公开了一种基于已知点云地图的动态场景定位方法及装置,该方法包括:获取目标动态场景在不同时刻对应的激光点云数据以及惯性测量数据,生成若干帧点云数据以及若干帧惯性测量数据;针对任一当前帧点云数据:确定当前帧点云数据对应的当前帧惯性测量数据;基于当前帧惯性测量数据和当前帧点云数据,对机器人观测位姿进行估计,输出当前位姿估计值;基于当前位姿估计值调整当前帧点云数据对应的位姿,得到目标帧点云数据;对目标帧点云数据进行动态点云滤除处理,输出静态帧点云数据;基于静态帧点云数据和目标动态场景的历史点云数据,进行全局优化处理,输出机器人的当前最优观测位姿。由此,能够确保目标动态场景下重复定位的一致性。
-
公开(公告)号:CN119784973A
公开(公告)日:2025-04-08
申请号:CN202411798045.8
申请日:2024-12-09
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明提供在3D场景图中的谱图稀疏化方法及系统,方法包括:传感器数据采集;构建场景图;特征分析与特征提取;构建场景图的拉普拉斯矩阵;计算特征值与特征向量;谱稀疏化;验证稀疏图的连通性和有效性。本发明解决了大规模三维场景图中节点冗余,导致计算和存储规模显著增加,以及场景图复杂度较高的技术问题。
-
公开(公告)号:CN119748429A
公开(公告)日:2025-04-04
申请号:CN202411791525.1
申请日:2024-12-06
Applicant: 江淮前沿技术协同创新中心
IPC: B25J9/16
Abstract: 本发明公开了一种针对人形机器人双臂协同的控制方法及装置,该方法包括:获取人形机器人双臂执行目标任务过程中所生成的动作图像序列;确定动作图像序列对应的第一特征向量序列、机械臂关节位置向量序列,以及目标掩膜图像序列对应的第二特征向量序列;对第一特征向量序列、第二特征向量序列、机械臂关节位置向量序列,以及动作图像序列对应的目标风格变量进行编码处理,输出特征键‑值对序列;将特征键‑值对序列以及人形机器人本体位置向量共同作为训练样本;对若干训练样本进行有监督的模仿学习,生成用于双臂协同的运动控制模型。由此,基于运动控制模型能够使得人形机器人双臂完成更复杂的长动作序列任务,有效提高了目标任务执行的成功率。
-
公开(公告)号:CN119600578A
公开(公告)日:2025-03-11
申请号:CN202411625455.2
申请日:2024-11-14
Applicant: 江淮前沿技术协同创新中心 , 合肥工业大学
IPC: G06V20/59 , G06V20/52 , G06V40/20 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于多模态数据融合的飞行员危险驾驶行为监测方法,属于多模态数据融合监测领域,包括利用多元传感器获取飞行员起飞与着陆状态下的生理数据,判断飞行员的疲劳状态,利用眼动仪与相机对起飞与着陆状态下的飞行员进行数据采集,获得飞行员眨眼频率、眼睑闭合度、瞳孔变化、打哈欠次数、点头频率、操纵杆平均移动速度、移动方向的行为数据,判断飞行员的疲劳状态;构建基于Transformer的多模态数据融合的网络,并对其进行训练;利用训练好的基于Transformer的多模态数据融合的网络对飞行员的驾驶行为进行监测;通过多通道交互技术提高信息的全面性和准确性,降低环境、个体差异的影响,增强稳定性和鲁棒性。
-
公开(公告)号:CN119554992A
公开(公告)日:2025-03-04
申请号:CN202411610600.X
申请日:2024-11-12
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明提供基于改进的多曝光图像融合的结构光三维测量方法及系统,方法包括:利用白光投射下不同曝光时长的图像制作掩模;利用掩模图像与光栅投射下相应曝光时长的条纹图像序列相乘后进行线性变换;将线性变换后的条纹图像序列叠加并进行归一化处理,使用伽马函数对其进行暗部处理后进行灰度值还原,得到适用于三维重建的条纹图像;最后通过相位解算和标定参数得到三维点云。本发明解决了系统复杂度及制造维护成本较高、由于物体局部高光而导致的点云缺失,以及复杂几何形状物体反射信号不清晰的技术问题。
-
公开(公告)号:CN119388433A
公开(公告)日:2025-02-07
申请号:CN202411723333.7
申请日:2024-11-28
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明涉及机器人协同交互技术领域,公开了一种基于磁力反馈的移动式机器人多人协同交互方法及系统,方法包括:设定操作参数,选择操作模式;通过交互装置接收操作人员的手部运动信息,作为机器人的操作信息;所述交互装置能够跟随操作人员手部移动;依据力补偿算法,改变交互装置向操作人员手部传递的反馈力;根据单个操作人员的操作信息生成运动指令或者根据多个操作人员的操作信息生成运动指令,对运动指令进行预测仿真,将通过预测仿真验证后的运动指令发送给移动机器人执行。本发明使用移动机器人作为磁场装置的载体进行操作人员手部位置的实时跟踪,并结合混合现实装置统一用户操作空间与反馈空间,解决了操作空间与反馈空间分离的缺陷。
-
-
-
-
-
-
-
-
-