-
公开(公告)号:CN117537890A
公开(公告)日:2024-02-09
申请号:CN202311446384.5
申请日:2023-11-02
Applicant: 山东唐口煤业有限公司 , 兖矿能源集团股份有限公司山东煤炭科技研究院分公司 , 山东大学
IPC: G01F23/284 , G01F23/80
Abstract: 本发明涉及地质环境监测技术领域,具体涉及一种基于GNSS定位和GNSS‑IR技术的采煤矿区积水水位监测方法,包括利用GNSS定位技术测量GNSS天线在空间坐标系中大地高,同时利用GNSS‑IR技术测量地表积水面至GNSS天线的反射高;将GNSS大地高转换为正常高后,两者相减获得采煤地表沉陷场景下的积水面正常高。本发明通过GNSS‑IR测量地表积水面的反射高度,实现积水水位的测量,这种方式无需将信号接收设备(信号接收天线)延伸至被测表面(地表积水面)上方,在实施中将GNSS天线安装在积水区附近即可;仪器设备的现场安装简单、对野外观测环境的要求低,能够适用于绝大多数采煤沉陷区地表积水面水位的监测。
-
公开(公告)号:CN117392390A
公开(公告)日:2024-01-12
申请号:CN202311398315.1
申请日:2023-10-25
Applicant: 山东大学
IPC: G06V10/26 , G06V10/774 , G06V10/776 , G06V10/764
Abstract: 本发明提供了一种无分类偏差的连续语义分割方法及系统,提出了无分类偏见的连续语义分割网络,CWCB通过原型重播来重建类分布,从而在保持存储效率的同时,实现了出色的性能,CWCB结合了原型重播和背景重复,分别校正前景类和背景的比例;通过保存和重播原型而不是原始图像,CWCB将存储成本降低到其他重播基础方法的约1%,且不需要额外的数据;此外,本发明还提出了一个旧类特征维护损失,以保持旧类特征不变,同时保留学习新类的灵活性。
-
公开(公告)号:CN117351310A
公开(公告)日:2024-01-05
申请号:CN202311283502.5
申请日:2023-09-28
Applicant: 山东大学
IPC: G06V10/80 , G06V10/764 , G06V10/26
Abstract: 本发明提出了基于深度补全的多模态3D目标检测方法及系统,涉及目标检测技术领域,获取待检测的RGB图像及对应的3D稀疏深度图;将RGB图像及对应的3D稀疏深度图输入到训练好的3D目标检测网络中,输出目标物的3D检测结果;3D目标检测网络从RGB图像中获取每个像素点的类别标签,基于3D稀疏深度图中像素点的深度信息与类别标签的对应关系,生成稠密深度图,对稠密深度图和RGB图像进行融合预测,得到目标物的3D锚框和类别标签;本发明将单目RGB图像信息和LIDAR深度信息进行结合,利用在图像局部区域同一目标具有相似深度的先验,对LIDAR获取的深度信息进行稠密化,以实现更加精确的3D目标检测效果。
-
公开(公告)号:CN117173394A
公开(公告)日:2023-12-05
申请号:CN202310989860.1
申请日:2023-08-07
Applicant: 山东大学 , 中国电子科技集团公司第五十四研究所
Abstract: 本发明提出了面向无人机视频数据的弱监督显著性目标检测方法及系统,分别对视频的RGB图像和光流图进行浅层特征和深层特征的提取,浅层特征包括物体的边缘和纹理等特征信息,深层特征包括丰富的显著性语义内容,将不同模态的浅层特征进行模态对齐和校准,能够更加关注每个模态的显著性信息;不同模态的深层特征进行跨模态融合,充分融合了深层特征的显著性语义信息,然后基于跨模态浅层增强特征和跨模态深层交互特征进行融合得到检测结果,能够很好地抑制视频中复杂背景信息,提高了视频显著性目标检测的准确性,而且应用在弱监督中可达到部分全监督检测效果。
-
公开(公告)号:CN117103241A
公开(公告)日:2023-11-24
申请号:CN202210536727.6
申请日:2022-05-17
Applicant: 山东大学 , 腾讯科技(深圳)有限公司
IPC: B25J9/16
Abstract: 本申请涉及一种机器人姿态控制方法、装置、计算机设备和存储介质。所述方法可应用于使用人工智能技术的机器人应用场景,该机器人可结合地图和真实地形进行运动;所述方法包括:获取机器人的状态数据;状态数据包括在真实地形运动时的状态反馈数据和待执行的方向指令;通过通用控制器对状态数据进行数据处理,得到动作控制数据;通过专用控制器对状态数据进行数据处理,得到残差动作控制数据;基于动作控制数据和残差动作控制数据生成第一动作控制指令;依据第一动作控制指令对机器人的运动姿态进行控制。采用本方法使得机器人能够适应于复杂多变的真实地形。
-
公开(公告)号:CN117009794A
公开(公告)日:2023-11-07
申请号:CN202311258519.5
申请日:2023-09-27
Applicant: 山东大学 , 山东字节信息科技有限公司
IPC: G06F18/2131 , F03D17/00 , G06F18/2415 , G06N3/045 , G06N3/048 , G06N3/047 , G06N3/088 , G06N3/096 , G06F123/00 , G06F123/02
Abstract: 本发明属于机器故障诊断技术领域,提出了一种基于无监督子域自适应的机器故障诊断方法及系统,方法包括:对构建的子域自适应深度神经网络进行训练,基于训练后的网络对机器故障进行诊断;其中,基于训练集对网络进行训练包括:分别将源域和目标域数据集输入至滑动时频特征提取器,得到源域和目标域的自适应加权时频特征并输入分类器,基于分类器的预测结果,计算子域确定性和差异性损失函数,结合分类器的预测损失构建总损失函数;更新网络参数并最小化总损失函数,得到训练后的网络。本发明解决了无监督子域自适应的机器故障诊断问题,提出了一个新的时频特征提取器和对齐方法,高效地解决了时间、频率和自适应权重的特征提取问题。
-
公开(公告)号:CN116737899A
公开(公告)日:2023-09-12
申请号:CN202310691898.0
申请日:2023-06-12
Applicant: 山东大学
IPC: G06F16/332 , G06F16/33 , G06F40/30 , G06N5/04
Abstract: 本发明公开了基于常识信息辅助的视觉自然语言导航方法及系统,属于视觉语言导航技术领域。本发明借鉴语义推理的思想,对输入的指令信息进行特征提取,对这些特征信息进行推理和添加常识性信息作为额外信息输入参与决策;利用跨模态Transformer,将输入的语言指令、环境输入和扩充信息聚合,获取目标预测点,进行智能体的行动控制;能够提高视觉自然语言导航的准确性。解决了现有技术中存在“不能使智能体真正理解语言中语义信息与实际场景之间的关系”的问题。
-
公开(公告)号:CN116503612A
公开(公告)日:2023-07-28
申请号:CN202310752531.5
申请日:2023-06-26
Applicant: 山东大学
IPC: G06V10/40 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/82 , G06T7/00 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本公开提供了基于多任务关联的风机叶片损伤识别方法与系统,涉及风机叶片图像识别技术领域,方法包括:获取风机叶片的图像,首先利用多任务主干网络提取风机叶片图像的底层共享特征,之后在两个子任务分支网络中分别提取损伤位置特征以及损伤类型特征,然后分别输出风机叶片损伤的位置以及损伤类型的识别结果;其中,将两个子任务分支网络在各自特征提取时进行任务相关联,由线性映射函数将分支任务的高维特征映射到另一个分支任务的标签空间中,并通过激活函数转换为概率分布的形式,进而通过另一个分支任务的真实标签对概率分布进行损失评价,获取两个分支任务之间存在的相关性。本公开提高两个风机叶片损伤子任务的识别精度。
-
公开(公告)号:CN116428129A
公开(公告)日:2023-07-14
申请号:CN202310691478.2
申请日:2023-06-13
Applicant: 山东大学
IPC: F03D17/00 , G06F18/213 , G06F18/241 , G06N3/045 , G06N3/044 , G06N3/047 , G06N3/0442 , G06N3/08 , G01H17/00
Abstract: 本发明提出基于注意力混合神经网络的风机叶片冲击定位方法及系统,涉及风机叶片的冲击检测领域。包括获取所有叶片上的振动信号;将振动信号输入至注意力混合神经网络中,提取振动信号每个时刻的特征,完成任务识别,预测受到冲击的叶片;将预测的受到冲击的叶片上的振动信号分别输入至注意力回归定位网络和自适应决策网络中,在注意力回归定位网络中,利用局部时序注意力机制提取每个时间块的特征;对每个时间块的特征的重要性进行决策,将需要的时间块的特征输入到注意力循环神经网络中,通过注意力循环神经网络得到振动信号的时空特征向量,进而得到定位距离。本发明能够准确识别施加在风机叶片上的动态冲击载荷的具体位置。
-
公开(公告)号:CN115809751B
公开(公告)日:2023-06-27
申请号:CN202211345844.0
申请日:2022-10-31
Applicant: 山东大学
IPC: G06Q10/047 , G06F18/214 , G06N3/0464 , G06N3/08
Abstract: 本发明提出了一种基于强化学习的两阶段多机器人环境覆盖方法及系统,涉及多机器人协同序列决策领域,检测未被覆盖的主动区域,为每个机器人分配一个规划路径最小且与其余机器人没有冲突的主动区域作为子目标;提取机器人在环境中感知到的局部信息的特征向量;融合邻居的局部感知信息特征向量;融合后的特征向量通过多层感知机映射出动作分布,根据采样到的执行动作,机器人完成覆盖的任务;本发明在较为高层的角度引导机器人规划至未被覆盖区域,基于通信交换和融合邻居的观测丰富机器人的局部感知信息,与此同时考虑机器人子目标之间的冲突问题,使机器人学会分散覆盖,极大地减少重复覆盖率,降低环境完整覆盖的时间成本,并提高覆盖效率。
-
-
-
-
-
-
-
-
-