-
公开(公告)号:CN106954076B
公开(公告)日:2018-01-12
申请号:CN201710146159.8
申请日:2017-03-13
Applicant: 济南大学
IPC: H04N19/89 , H04N19/513
Abstract: 本发明一种基于视点间关系的多视点视频帧插入方法,首先,利用单向运动估计算法进行前向和后向运动估计,获取前向运动向量场和后向运动向量场;其次,根据深度信息检测出上一帧图像和当前帧图像中遮挡图像块,并进一步将遮挡图像块分成覆盖型图像块和非覆盖型图像块;然后,利用多视点视频视点间的关系进行遮挡图像块的处理;最后,对插入帧中的每个图像块进行运动向量分配,并利用双向运动补偿实现帧插入。本发明充分考虑多视点视频中不同视点在空间上的关系,利用这种空间关系解决视频帧插入中遮挡区域处理这一关键问题,减弱现有的二维视频和三维视频帧插入方法中存在的前景物体边缘模糊现象,从而明显提升了插入帧的视觉质量。
-
公开(公告)号:CN106358044B
公开(公告)日:2017-07-21
申请号:CN201610976656.6
申请日:2016-10-28
Applicant: 济南大学
IPC: H04N19/513 , H04N19/52 , H04N19/577
Abstract: 本发明公开了一种立体视频帧率提升中运动矢量检测与校正方法及系统,首先,利用运动矢量的空间相关性,即相邻运动矢量之间的方向相关性和幅度相关性,对插入帧运动矢量场中的错误运动矢量和不可靠运动矢量进行检测;其次,利用融合空间、颜色和深度信息的方法校正插入帧运动矢量场中的错误运动矢量和不可靠运动矢量,得到插入帧的真实运动矢量场。本发明提高了检测效果,降低了错误运动矢量的漏检率。
-
公开(公告)号:CN106954076A
公开(公告)日:2017-07-14
申请号:CN201710146159.8
申请日:2017-03-13
Applicant: 济南大学
IPC: H04N19/89 , H04N19/513
CPC classification number: H04N19/89 , H04N19/513
Abstract: 本发明一种基于视点间关系的多视点视频帧插入方法,首先,利用单向运动估计算法进行前向和后向运动估计,获取前向运动向量场和后向运动向量场;其次,根据深度信息检测出上一帧图像和当前帧图像中遮挡图像块,并进一步将遮挡图像块分成覆盖型图像块和非覆盖型图像块;然后,利用多视点视频视点间的关系进行遮挡图像块的处理;最后,对插入帧中的每个图像块进行运动向量分配,并利用双向运动补偿实现帧插入。本发明充分考虑多视点视频中不同视点在空间上的关系,利用这种空间关系解决视频帧插入中遮挡区域处理这一关键问题,减弱现有的二维视频和三维视频帧插入方法中存在的前景物体边缘模糊现象,从而明显提升了插入帧的视觉质量。
-
公开(公告)号:CN106358044A
公开(公告)日:2017-01-25
申请号:CN201610976656.6
申请日:2016-10-28
Applicant: 济南大学
IPC: H04N19/513 , H04N19/52 , H04N19/577
CPC classification number: H04N19/513 , H04N19/521 , H04N19/577
Abstract: 本发明公开了一种立体视频帧率提升中运动矢量检测与校正方法及系统,首先,利用运动矢量的空间相关性,即相邻运动矢量之间的方向相关性和幅度相关性,对插入帧运动矢量场中的错误运动矢量和不可靠运动矢量进行检测;其次,利用融合空间、颜色和深度信息的方法校正插入帧运动矢量场中的错误运动矢量和不可靠运动矢量,得到插入帧的真实运动矢量场。本发明提高了检测效果,降低了错误运动矢量的漏检率。
-
公开(公告)号:CN113971797B
公开(公告)日:2025-02-07
申请号:CN202111473235.9
申请日:2021-12-02
Applicant: 山东海量信息技术研究院 , 济南大学
IPC: G06V20/59 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明属于计算机视觉技术领域,提供了一种基于动作行为特征的危险驾驶行为识别方法及系统,该网络以CenterNet为目标检测主体,将ResNet‑50和Hourglass网络各自做了改进并结合,用作CenterNet的主干。为了提升精度和速度,在其他多个模块也都做了改进,并采集自然条件下的驾驶员危险驾驶行为数据集用于评估网络,实验部分分别做了消融实验和对比实验,证明每一个模块的改进都可以对模型性能产生积极影响。
-
公开(公告)号:CN118447487A
公开(公告)日:2024-08-06
申请号:CN202410664375.1
申请日:2024-05-27
Applicant: 济南大学
IPC: G06V20/59 , G06V40/20 , G06V10/82 , G06N3/0464 , G06N3/096
Abstract: 本发明提出了一种基于局部与全局知识蒸馏的驾驶分心检测方法及系统,通过在教师网络中引入分组卷积技术能够有效降低模型的参数量和计算复杂度,同时保持特征提取的有效性,使得模型在有限的计算资源下仍能提取丰富的特征信息。引入了注意力机制,能够使模型自适应地关注图像中与驾驶分心行为最相关的区域,显著提升了特征的表征能力,使得模型能够更加专注于关键信息;采用局部蒸馏和全局蒸馏相结合的方式,使得学生网络在推理阶段能够更全面地分析驾驶员行为,提高检测的准确性,使得学生网络能够在保持较低参数量的情况下达到与教师网络相近的检测精度。
-
公开(公告)号:CN112099632B
公开(公告)日:2024-04-05
申请号:CN202010974163.5
申请日:2020-09-16
Applicant: 济南大学
Abstract: 本发明提供了一种面向助老陪护的人‑机器人协同交互方法,本发明通过识别获得所需手势信息、认知目标和语音信息,并通过过滤处理,输出各模态的有效信息,通过基于意图理解的多模态融合算法在意图库的支持下输出意图槽,实现用户意图的准确捕获,并对意图槽和必要的识别结果一起作为输入信息,通过基于认知模型的协同任务决策算法进行处理,在知识库和规则库的支持下,输出子任务执行的决策结果,实现人‑机器人协同工作。本发明可在降低老人交互负担的前提下,提高老年人和机器人之间的任务完成的绩效,使得老年人对机器人的陪护给予较高的满意度评价。
-
公开(公告)号:CN116895037A
公开(公告)日:2023-10-17
申请号:CN202310912141.X
申请日:2023-07-24
Applicant: 济南大学
IPC: G06V20/40 , G06T3/40 , G06V10/82 , G06N3/0464 , G06V10/86
Abstract: 本发明属于计算机视觉技术领域,具体为一种基于边缘信息和多尺度交叉融合网络的帧插入方法及系统,包括:获取连续的两帧图像,对图像进行裁剪和尺度变换,得到裁剪后的原尺度图像以及尺度变换后的图像;对原尺度图像进行特征提取,利用基于边缘信息的特征增强模块对提取的特征进行增强得到增强后的特征;对增强后的特征进行尺度变换后,分别对不同尺度的增强后的特征进行像素级参数提取,接着使用自适应流协作根据提取的像素级参数对不同尺度的图像进行帧扭曲操作,得到三个尺度的扭曲帧;将三个尺度的扭曲帧输入多尺度交叉融合网络中以合成插值帧。本发明的基于边缘信息的特征增强模块能够使模型获得更加完整的特征图,从而提高模型性能。
-
公开(公告)号:CN116541734A
公开(公告)日:2023-08-04
申请号:CN202310502078.2
申请日:2023-04-28
Applicant: 济南大学
IPC: G06F18/2321 , G06F16/2458
Abstract: 本发明属于机器学习领域,提供了一种基于自适应密度峰值聚类的工业数据划分方法及系统,其方案为:基于工业设备用电数据和自适应密度峰值聚类算法进行聚类得到数据划分结果;其中,所述自适应密度峰值聚类算法的构建过程为:引入数据点的共享邻居调整数据点之间的距离度量值,计算数据点的局部域密度;结合数据点的局部域密度,引入密度衰减现象,通过密度衰减现象将数据点自适应地汇聚成微簇;采用两阶段分配策略代替一阶段分配策略,对数据进行划分,第一阶段,将微簇合并形成簇主干,第二阶段,用第一阶段已分配的簇主干指导第二步剩余数据点的分配。
-
公开(公告)号:CN110362210B
公开(公告)日:2022-10-11
申请号:CN201910670994.0
申请日:2019-07-24
Applicant: 济南大学
IPC: G06F3/01 , G06V40/20 , G06V40/10 , G06V40/18 , G06V10/764
Abstract: 本公开提供了一种虚拟装配中融合眼动跟踪和手势识别的人机交互方法和装置,根据获取到眼动数据,进行注视点跟踪;根据获取的手势信息,进行手势的识别,对得到的手势识别数据和眼动数据进行标注,构成训练集,构建多流卷积神经网络‑长短期记忆网络模型,所述网络模型利用训练集进行自我学习;将训练得到的最优网络模型应用在虚拟装配过程,获取虚拟装配过程的眼动数据和手势信息,提取眼动与手势特征,根据特征信息分析得出操作人员的行为类别进而完成装配任务。解决了单一模态下对相似行为的误判问题,并利用深度学习算法的优势,以较高的准确率识别视频中操作人员的行为,完成虚拟装配任务,实现人机交互。
-
-
-
-
-
-
-
-
-