-
公开(公告)号:CN110308795A
公开(公告)日:2019-10-08
申请号:CN201910604878.9
申请日:2019-07-05
Applicant: 济南大学
Abstract: 本发明公开了一种动态手势识别方法及系统,该方法包括以下步骤:获取手部运动数据,包括三轴加速度和角速度数据;对手部运动数据进行处理,截取有效的手势动作数据;对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
-
公开(公告)号:CN109194603A
公开(公告)日:2019-01-11
申请号:CN201811391688.5
申请日:2018-11-21
Applicant: 济南大学
IPC: H04L27/26 , H04L1/00 , H04B7/0413
CPC classification number: H04L27/2614 , H04B7/0413 , H04L1/0071
Abstract: 本发明公开了降低MIMO-OFDM系统峰均功率比的导向交织方法,包括:获得MIMO-OFDM系统中各个发射天线上的原始OFDM候选信号并计算各个候选信号的PAPR值;每次交织处理之前,均要比较各个发射天线上候选信号的PAPR值,然后对PAPR值最大的候选信号所在天线进行交织处理进而产生新的OFDM候选信号;将发射天线中新的OFDM候选信号的PAPR值PM与该天线上现存的OFDM候选信号PAPR值PAm进行比较,若PM
-
公开(公告)号:CN105933714B
公开(公告)日:2017-06-09
申请号:CN201610247833.7
申请日:2016-04-20
Applicant: 济南大学
IPC: H04N19/597 , H04N19/577
Abstract: 本发明公开了一种基于深度引导扩展块匹配的三维视频帧率提升方法,包括:对视频帧进行基于图像块的双向运动估计,利用估计得到的运动向量进行补偿得到初始深度插入帧根据初始深度插入帧,计算插入帧中每个深度图像块的二维结构张量,根据二维结构张量将图像块分成边缘图像块和非边缘图像块;将边缘图像块分成子块,利用基于深度信息引导的扩展块匹配方法估计每个子块的运动向量;以图像块为单位,对非边缘图像块和边缘图像子块进行适应性运动补偿,实现插入帧的重建。本发明有效的解决了三维视频帧率提升中插入帧前景物体边缘模糊的问题。
-
公开(公告)号:CN106341676A
公开(公告)日:2017-01-18
申请号:CN201610865067.0
申请日:2016-09-29
Applicant: 济南大学
IPC: H04N13/00 , H04N19/597
CPC classification number: H04N13/128 , H04N13/161 , H04N19/597
Abstract: 本发明公开了基于超像素的深度图像预处理和深度空洞填充方法,包括以下步骤:步骤一:待处理的深度图像的超像素分割:对于该待处理的深度图像对应的彩色图像进行超像素分割,然后利用彩色图像的分割结果对该待处理的深度图像进行分割;步骤二:基于超像素的深度图像预处理;步骤三:虚拟视点深度图像超像素分割:利用待处理的深度图像对应的彩色图像和预处理后的深度图像进行三维变换,生成虚拟视点初始彩色图像和虚拟视点初始深度图像,对虚拟视点初始深度图像进行超像素分割;步骤四:虚拟视点深度图像填充。本发明采用基于超像素的深度图像预处理和基于超像素的深度空洞处理,空洞填充准确性较高,计算量较小,有利于视点合成的实时实现。
-
公开(公告)号:CN119295779A
公开(公告)日:2025-01-10
申请号:CN202411318602.1
申请日:2024-09-20
Applicant: 济南大学
IPC: G06V10/74 , G06V10/82 , G06V10/774 , G06V10/44 , G06V10/75 , G06V30/18 , G06N3/0499 , G06N3/0455 , G06N3/08 , G06V20/52
Abstract: 本发明提供了一种文本到图像跨模态行人重识别方法及系统,所述方案包括:获取待查询文本描述及其对应图像库;对于所述文本描述及图像库,分别利用预先训练的图像和文本特征编码器,获得文本特征和图像库中图像样本的图像特征;其中,所述图像和文本特征编码器的训练的损失函数包括整体匹配损失、局部匹配损失以及文本掩码预测损失;基于获得的文本特征和图像库中图像样本图像特征,通过相似度计算,确定与待查询文本描述相对应的图像,实现文本到图像跨模态行人重识别。
-
公开(公告)号:CN119068341A
公开(公告)日:2024-12-03
申请号:CN202411269884.0
申请日:2024-09-11
Applicant: 济南大学
Abstract: 本申请公开了一种基于边缘增强网络的SAR图像目标检测优化方法。其实现方法的实现步骤为:构造边缘增强网络模块;将边缘增强网络模块引入到一般的基于卷积神经网络的物体检测模型中;划分物体检测数据集;对数据集中的图像进行预测处理;使用训练数据用物体检测模型和边缘增强网络模块进行协同训练;将验证数据送入到检测模型进行检测;得到检测结果;本发明利用构建的边缘增强网络模块和一般的基于深度卷积神经网络的物体检测模型进行协同训练,用来增强检测模型的特征提取网络来用于SAR图像物体检测,在计算代价相当的同时提高了物体检测精度。
-
公开(公告)号:CN118470484A
公开(公告)日:2024-08-09
申请号:CN202410672169.5
申请日:2024-05-28
Applicant: 济南大学
IPC: G06V10/80 , G06V10/82 , G06V20/40 , G06V20/70 , G06V40/18 , G06V10/764 , G06N3/0499 , G06N5/04 , G08G1/01
Abstract: 本发明属于计算机视觉领域,提供了一种基于眼动注意力引导的空间通道自适应事故预测方法及系统,包括获取行车记录仪图像,利用训练好的骨干网络进行特征提取,得到行车记录仪空间通道特征图;利用骨干网络不同尺度的的残差块输出生成不同尺度的补丁,将不同尺度的补丁进行拼接后得到多尺度多视图特征;基于自定义初始历史时序特征图,经过时间自注意力模块、空间交叉注意力模块以及前馈神经网络提取时间特征,得到当前时序特征图,其中空间交叉注意力模块将多尺度多视图特征作为输入以提取空间信息,将当前时序特征图作为下一时间戳的历史时序特征图进行递归提取;将当前时序特征图与行车记录仪空间通道特征图进行融合分类,得到事故预测结果。
-
公开(公告)号:CN111665941B
公开(公告)日:2023-12-22
申请号:CN202010509144.5
申请日:2020-06-07
Applicant: 济南大学
Abstract: 本发明涉及一种面向虚拟实验的多模态语义融合人机交互系统和方法,包括交互信息集成模块,还包括交互信息获取模块、交互意图推理模块和交互任务直行模块,其中,所述交互信息模块采用多模态融合模型来准确识别操作者的真实意图,并将获取到的信息提供给交互意图推理模块;所述交互意图推理模块根据手势语义和语言语义结合场景当前的交互情景来识别用户的交互意图,预测潜在的交互行为;所述交互任务执行模块根据交互意图推理模块预测的交互动作,生成用户期望的实验动作,生成响应的实验效果,返回对应的操作反馈,最后,实验效果和反馈通过不同的通道输出给用户。本发明解决了当下虚拟实验中面临的交互困难的问题。
-
公开(公告)号:CN116681176A
公开(公告)日:2023-09-01
申请号:CN202310689450.5
申请日:2023-06-12
Applicant: 济南大学
IPC: G06Q10/04 , G08G1/01 , G08G1/065 , G06Q50/30 , G06F18/23 , G06F18/22 , G06F17/16 , G06F17/10 , G06N3/04 , G06N3/045 , G06N3/08
Abstract: 本发明提供了一种基于聚类和异构图神经网络的交通流预测方法,属于交通流预测领域,所述交通流预测方法包括聚类模块、图转换模块以及时空特征学习模块;聚类模块通过动态时间规整算法与瓦瑟斯坦距离度量各节点在交通模式上的相似性,并使用谱聚类将节点按交通模式划分为不同簇;图转换模块用以自适应地为同簇节点构造元路径图;时空特征学习模块用以根据元路径图捕获节点间的时空相关性。本发明可以移植并应用于多种现有的基于图神经网络的交通流预测模型,在其基础上对交通数据的异质性建模,提高其预测精度。
-
公开(公告)号:CN115880149A
公开(公告)日:2023-03-31
申请号:CN202211489722.9
申请日:2022-11-25
Applicant: 济南大学
IPC: G06T3/40 , G06T7/246 , G06V10/80 , G06V10/82 , G06N3/044 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于轻量化驱动和三尺度编码的视频帧插值方法及系统,获取待插值视频的第i帧原始图像和第i+1帧原始图像;分别对第i帧原始图像和第i+1帧原始图像进行尺度缩放,得到第i帧缩小尺度的图像、第i+1帧缩小尺度的图像、第i帧放大尺度的图像、第i+1帧放大尺度的图像;将原始图像和尺度缩放后的图像均输入到训练后的视频帧插值模型中,输出插值图像;其中,训练后的视频帧插值模型,对原始图像和尺度缩放后的图像,分别进行三个尺度的特征提取,采用通道注意力机制模块对三个尺度的特征进行融合,采用双重注意力机制模块对融合后的特征进行增强;再对增强后的特征进行帧扭曲操作,得到插值图像。
-
-
-
-
-
-
-
-
-