一种文本控制图像风格的语义图像合成的方法及系统

    公开(公告)号:CN114610935A

    公开(公告)日:2022-06-10

    申请号:CN202210511529.4

    申请日:2022-05-12

    Abstract: 本发明公开了一种文本控制图像风格的语义图像合成的方法及系统,包括图像离散编码器和风格迁移对抗生成网络联合训练模块、文本和图像联合建模模块和文本和语义图像控制特定风格语义图像合成模块。本发明通过自然语言处理模型以及图像生成模型,将设定的风格语句和表征语义的掩膜图像输入到模型中,自动地生成具有相应风格和语义的图片,以此解决了人们想要依据自己想法,及时获取到相应风格图片的需求。

    一种视频多目标人脸表情识别方法和系统

    公开(公告)号:CN112990119B

    公开(公告)日:2021-09-10

    申请号:CN202110446571.8

    申请日:2021-04-25

    Abstract: 本发明属于人工智能领域,具体涉及一种视频多目标人脸表情识别方法和系统,该方法包括如下步骤:S1、抽取视频流中图像帧并提取人脸区域;S2、对视频流中的目标进行人脸跟踪;S3、对跟踪目标进行表情识别;S4、结合历史表情识别结果进行分析。本发明提供的方法,通过融合目标跟踪技术实现视频中多目标表情识别、利用前后帧结果加权提升动态表情识别结果的正确性和鲁棒性,防止视频表情识别结果产生的单帧抖动,同时本发明的视频表情识别系统具有表情分析结果及原始视频存储功能,能够帮助做出合理分析和建议,例如在校教育场景,智能驾驶辅助场景等。

    一种基于视频基础单元分析的复杂行为识别方法

    公开(公告)号:CN112990122B

    公开(公告)日:2021-08-17

    申请号:CN202110448783.X

    申请日:2021-04-25

    Abstract: 本发明公开了一种基于视频基础单元分析的复杂行为识别方法。该方法将视频的行为识别拆分为时序上的原子行为,空间上基于目标检测和场景识别提取视频中的物体和背景信息,并将提取的语义信息送入时序模型进行分析。该方法相比以往的视频行为识别,将视频在时间和空间上进行分解为基础任务进行检测和识别,可解释性更强。同时基于此方法,可以针对不同的任务情况,选择性的提取需要的基础单元信息,通过拆分的方法增强了复杂行为识别任务的灵活性。

    一种基于视频基础单元分析的复杂行为识别方法

    公开(公告)号:CN112990122A

    公开(公告)日:2021-06-18

    申请号:CN202110448783.X

    申请日:2021-04-25

    Abstract: 本发明公开了一种基于视频基础单元分析的复杂行为识别方法。该方法将视频的行为识别拆分为时序上的原子行为,空间上基于目标检测和场景识别提取视频中的物体和背景信息,并将提取的语义信息送入时序模型进行分析。该方法相比以往的视频行为识别,将视频在时间和空间上进行分解为基础任务进行检测和识别,可解释性更强。同时基于此方法,可以针对不同的任务情况,选择性的提取需要的基础单元信息,通过拆分的方法增强了复杂行为识别任务的灵活性。

    用于影视智能创作的情景互动的短视频生成方法及系统

    公开(公告)号:CN115496863A

    公开(公告)日:2022-12-20

    申请号:CN202211354722.8

    申请日:2022-11-01

    Abstract: 本发明涉及影视创作领域,公开一种用于影视智能创作的情景互动的短视频生成方法和系统,通过预训练的跨模态文本‑图像匹配模型和预训练的语言模型,可以实现场景图片和动作序列的匹配筛选;基于三维深度估计算法,计算出场景图像对应的深度信息,并通过预设的相机内参,估计出该场景图对应的三维信息;基于smpl‑x人体模型,对用户上传的人体进行参数估计和纹理贴图,获取带纹理的人体模型;通过估计的三维信息、动作序列、带纹理的人体模型、场景图片,合成互动者融于该场景图片的短视频。本发明可有效应用于当前影视创作中的分镜稿、故事版及预演动画等智能化生成工作,对影视创造的流程具体革新作用。

    一种电影场景内镜头视频排序系统及方法

    公开(公告)号:CN115022711A

    公开(公告)日:2022-09-06

    申请号:CN202210460469.8

    申请日:2022-04-28

    Abstract: 本发明属于视频制作领域,公开了一种电影场景内镜头视频排序系统及方法,包括电影数据预处理模块、镜头特征提取模块、镜头排序模块;电影数据预处理模块包括镜头检测与分割,用于将输入的整个电影按照镜头进行切分;镜头特征提取模块用于提取单个镜头的多个关键帧图像的内容特征;镜头排序模块,用于将一个场景下的图像时序特征进行组合为一组特征图,多个场景的多组特征图进行输入;选定一个视频片段作为初始片段,预测出下一个视频片段是其中的哪一个镜头,直至完成所有视频片段的排序。本发明可实现以每一个分镜的多个镜头作为输入,自动的从中选择一个最符合此视频风格的镜头并将其串联成一个完整的视频。

    一种基于深度学习的面部动作捕捉方法及系统

    公开(公告)号:CN114049678A

    公开(公告)日:2022-02-15

    申请号:CN202210023895.5

    申请日:2022-01-11

    Abstract: 本发明公开了一种基于深度学习的面部动作捕捉方法及系统,包括以下步骤:S1:使用深度相机采集人脸的视频数据和对应的深度数据,构建数据集;S2:构建面部动作识别网络,使用所述数据集进行面部动作识别网络训练;S3:将任意视频序列输入训练后的面部动作识别网络,预测混合形状系数;S4:将所述预测混合形状系数应用于任意的虚拟形象上,驱动虚拟形象的面部动作。系统包括视频采集模块,网络训练模块,面部动作预测模块,虚拟形象动画展示模块。本发明的算法运行速率高,只在训练时使用了深度信息进行训练,在预测阶段只需要输入单相机拍摄的视频就可以完成动作捕捉,无需额外的深度采集设备,可实时的进行面部动作捕捉。

    一种基于复合表情加工的注意偏向训练评估系统和方法

    公开(公告)号:CN113576482B

    公开(公告)日:2022-01-18

    申请号:CN202111141810.5

    申请日:2021-09-28

    Abstract: 本发明属于注意偏向训练技术领域,涉及一种基于复合表情加工的注意偏向训练评估系统和方法,招募正常组和社交焦虑组的被试者,利用多通道脑电测量设备采集原始脑电信号,并提取P100脑电成分的平均潜伏期特征和N170、P300脑电成分的平均波幅特征作为神经指标,通过社交焦虑组前测复合表情刺激测试与常模复合表情刺激测试、社交焦虑组后测复合表情刺激测试与常模复合表情刺激测试的指标水平差异性检验,对注意偏向训练的效果进行客观评估和优化。本发明可以有效避免传统测量手段事后采样、主观性强、社会期许偏差等问题,同时具有非侵入性、安全高效、成本较低的特点,具有广泛的市场应用前景。

    一种融合人群信息的语音情感识别方法和系统

    公开(公告)号:CN112712824A

    公开(公告)日:2021-04-27

    申请号:CN202110322720.X

    申请日:2021-03-26

    Abstract: 本发明属于人工智能领域,具体涉及一种融合人群信息的语音情感识别方法和系统,该方法包括以下步骤:S1、采集用户语音信号;S2、预处理语音信号,获取梅尔谱;S3、切除梅尔谱前后静音段;S4、通过人群分类网络获取深度人群信息;S5、通过梅尔谱预处理网络获取梅尔谱深度信息;S6、通过SENet融合特征,获取融合信息;S7、通过分类网络,得到情感识别结构。本发明融合人群信息特征,使情感特征提取更加准确,通过SENet的通道注意力机制进行信息融合,能够有效的进行深度特征的提取,提高整体识别精度。

    用于影视智能创作的情景互动的短视频生成方法及系统

    公开(公告)号:CN115496863B

    公开(公告)日:2023-03-21

    申请号:CN202211354722.8

    申请日:2022-11-01

    Abstract: 本发明涉及影视创作领域,公开一种用于影视智能创作的情景互动的短视频生成方法和系统,通过预训练的跨模态文本‑图像匹配模型和预训练的语言模型,可以实现场景图片和动作序列的匹配筛选;基于三维深度估计算法,计算出场景图像对应的深度信息,并通过预设的相机内参,估计出该场景图对应的三维信息;基于smpl‑x人体模型,对用户上传的人体进行参数估计和纹理贴图,获取带纹理的人体模型;通过估计的三维信息、动作序列、带纹理的人体模型、场景图片,合成互动者融于该场景图片的短视频。本发明可有效应用于当前影视创作中的分镜稿、故事版及预演动画等智能化生成工作,对影视创造的流程具体革新作用。

Patent Agency Ranking