-
公开(公告)号:CN104463139A
公开(公告)日:2015-03-25
申请号:CN201410806622.3
申请日:2014-12-23
Applicant: 福州大学
CPC classification number: G06K9/00718 , G06K9/6267 , G10L25/63
Abstract: 本发明涉及一种音频情感的驱动下的体育视频精彩事件检测方法。本发明方法充分利用视频文件中的音频信息,首先利用两阶段的音频情感感知技术感知出音频中的高层情感语义;在第一阶段中构建了基于分层二叉树支持向量机的音频分类器,从底层音频特征中识别出中层情感类型;第二阶段中利用音频情感映射技术从中层音频类型中映射得到高层情感语义类型,得到高层情感语义后顺利挖掘到音频流中的高层情感语义波动序列;最终在音频情感波动序列的基础上结合静音以及激动情感语义定位出精彩事件。本发明的方法简单,利用音频情感从语义上驱动体育视频精彩事件的检测,所提取的体育视频精彩事件对于用户而言更加精彩更加有效。
-
公开(公告)号:CN109064389B
公开(公告)日:2023-04-18
申请号:CN201810859788.X
申请日:2018-08-01
Applicant: 福州大学
IPC: G06T3/00 , G06N3/0475 , G06N3/08
Abstract: 本发明涉及一种手绘线条画生成现实感图像的深度学习方法,S1:建立双层GAN结构,包括第一层GAN结构和第二层GAN结构;S2:收集并生成用于训练网络的“真实图像‑模拟线条画”数据集;S3:根据“真实图像‑模拟线条画”数据集,训练第一层GAN结构,得到训练后的第一层GAN结构;S4:将待处理的手绘线条画输入训练后的第一层GAN结构,得到粗粒度现实感图像;S5:根据“真实图像‑粗粒度现实感图像”数据集,训练第二层GAN结构,得到训练后的第二层GAN结构;S6:将粗粒度现实感图像输入训练后的第二层GAN结构,得到高分辨现实感图像。本发明采用级联两层GAN网络结构,逐步纠偏、丰富图像细节,生成具有现实感的高分辨图像;便捷实用,有利于人机交互,生成图效果具真实感。
-
公开(公告)号:CN109064389A
公开(公告)日:2018-12-21
申请号:CN201810859788.X
申请日:2018-08-01
Applicant: 福州大学
CPC classification number: G06T3/0012 , G06N3/0454 , G06N3/08
Abstract: 本发明涉及一种手绘线条画生成现实感图像的深度学习方法,S1:建立双层GAN结构,包括第一层GAN结构和第二层GAN结构;S2:收集并生成用于训练网络的“真实图像‑模拟线条画”数据集;S3:根据“真实图像‑模拟线条画”数据集,训练第一层GAN结构,得到训练后的第一层GAN结构;S4:将待处理的手绘线条画输入训练后的第一层GAN结构,得到粗粒度现实感图像;S5:根据“真实图像‑粗粒度现实感图像”数据集,训练第二层GAN结构,得到训练后的第二层GAN结构;S6:将粗粒度现实感图像输入训练后的第二层GAN结构,得到高分辨现实感图像。本发明采用级联两层GAN网络结构,逐步纠偏、丰富图像细节,生成具有现实感的高分辨图像;便捷实用,有利于人机交互,生成图效果具真实感。
-
公开(公告)号:CN104092960A
公开(公告)日:2014-10-08
申请号:CN201410358511.0
申请日:2014-07-26
Applicant: 福州大学
Abstract: 本发明涉及一种基于视觉主观感受的视频源切换方法,其特征在于:服务器端通过训练获取视觉主观感受预测器NMSVM,并将该视觉主观感受预测器NMSVM分发至客户端,客户端对视觉主观感受预测器NMSVM进行部署;客户端通过多项式拟合预测当前网络服务状态下一阶段可能的网络视频丢包率;客户端通过差分自回归移动平均方法预测当前视频源下一阶段可能的视频内容视觉特性;客户端通过视觉主观感受预测器NMSVM对当前视频源下一阶段的视觉主观感受进行预测,并根据预测结果决定是否需要切换视频源格式。本发明综合考虑网络丢包率、视频源格式、视频内容特性等因素,实现了网络流媒体服务不间断下的视频源格式无缝切换,方法简单灵活,具有较强的实用性。
-
公开(公告)号:CN104036023A
公开(公告)日:2014-09-10
申请号:CN201410297974.0
申请日:2014-06-26
Applicant: 福州大学
IPC: G06F17/30
CPC classification number: G06F17/30858
Abstract: 本发明属于视频检索技术领域,实现了一种构建树形的视频语义索引的方法。所构建的视频语义索引包含了多种粒度的视频语义,而且这种语义索引融合了视频语义之间的上下文,根据上下文将不同粒度的视频语义联系起来,形成了树形的结构。利用这种方法为视频建立语义索引后,用户能够输入不同粒度的关键词检索视频,而且索引中的上下文信息能够缩小搜索空间,提高检索系统的效率。本技术的特征在于:先以镜头为单位提取各个镜头的镜头语义集。然后有监督地获取视频镜头语义的上下文,并用上下文标签树表示。再结合镜头语义集和上下文信息进行场景语义的推理。最后将镜头语义集、场景语义嵌入到上下文标签树中并作为视频的索引。
-
公开(公告)号:CN104008175A
公开(公告)日:2014-08-27
申请号:CN201410248555.8
申请日:2014-06-06
Applicant: 福州大学
CPC classification number: G06T7/20
Abstract: 本发明涉及一种情感激励下的视频关键帧自适应提取方法。从视频观看者情绪波动的角度考虑,通过计算视频帧的运动强度作为视频观看者观看视频时的视觉情感激励度,计算短时平均能量、音调作为听觉情感激励度,将听视觉情感激励度进行线性融合得到镜头内每个视频帧的视频情感激励度并生成镜头的视频情感激励度曲线;然后根据镜头的视频情感激励变化情况得到本镜头应分配到的视频关键帧数目KN;最后取视频情感激励度曲线情感激励度最高的前KN个波峰所对应的视频帧作为镜头关键帧。本发明的方法简单,从视频观看者情感变化的角度入手考虑,用视频情感激励度从语义从指导关键帧提取,所提取的视频关键帧更具有代表性以及有效性。
-
-
-
-
-