-
公开(公告)号:CN119692335A
公开(公告)日:2025-03-25
申请号:CN202411760336.8
申请日:2024-12-03
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06F40/205 , G06F18/2431 , G06V30/41
Abstract: 本发明提供了一种基于多模型的PDF解析方法、电子设备和存储介质,方法包括利用规则提取、版面分析、表格识别、公式检测、公式识别、多模态大模型chart2text、多模态大模型段落排序等方法获取复杂PDF中可能出现的所有元素类型。本发明能够实现复杂PDF的完整结构化解析以及支持扫描件和非扫描件。
-
公开(公告)号:CN116996707B
公开(公告)日:2024-08-13
申请号:CN202310967284.0
申请日:2023-08-02
Applicant: 北京中科闻歌科技股份有限公司
IPC: H04N21/234 , H04N21/44 , G06T3/4038 , G06N3/094 , G06N3/0475 , G06N3/0464 , G06T3/4046 , G06V10/82 , G06V40/16
Abstract: 本发明提供了一种虚拟角色的视频渲染方法,包括如下步骤:基于目标虚拟角色的第一人脸图像和目标虚拟角色对应的目标音频数据,获取到预设口型图像集;预设口型图像集包括若干个口型图像;根据若干个口型图像和第二人脸图像,获取到拼接人脸图像集;拼接人脸图像集包括若干个拼接人脸图像;根据若干个拼接人脸图像和目标换脸模型,获取到目标人脸图像集;目标人脸图像集包括若干个目标人脸图像;根据若干个目标人脸图像和目标虚拟角色的初始人脸图像,获取到目标虚拟角色对应的目标渲染视频。本发明能够实现虚拟角色视频的实时驱动与渲染,并能够应用于多种语言的语音播报。
-
公开(公告)号:CN119692472A
公开(公告)日:2025-03-25
申请号:CN202411760334.9
申请日:2024-12-03
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06N5/04 , G06N20/00 , G06F40/284
Abstract: 本发明提供了一种多模态图表问答大模型构建方法、电子设备和存储介质,包括:基于第一样本数据集对图文对齐模型进行训练,得到训练好的图文特征对齐模型;其中,第一样本数据集中包括图像样本和对应的文本内容;基于第二样本数据集对具有训练好的图文特征对齐模型的多模态图表问答大模型进行训练,得到训练后的多模态图表问答大模型,作为最终的多模态图表问答大模型,第二样本数据集包括图表样本的上下文表示信息、图像和问答对数据。本发明得到的多模态图表问答大模型相对于现有的多模态图表问答大模型的图表问答能力能够得到进一步提升,且具有较强的中文理解能力。
-
公开(公告)号:CN116996630A
公开(公告)日:2023-11-03
申请号:CN202310964008.9
申请日:2023-08-02
Applicant: 北京中科闻歌科技股份有限公司
IPC: H04N5/262 , G10L21/10 , G10L21/18 , H04N5/265 , G06N3/0475 , G06N3/094 , G06F16/332
Abstract: 本发明提供了一种实时问答虚拟人视频生成方法、电子设备及存储介质,方法包括:基于待播报信息获取对应的场景视频;对音频文件进行特征提取,得到对应的音频特征;基于场景视频和音频特征,生成口型与音频特征相匹配的场景视频,作为初始人脸驱动视频;基于场景视频中的目标图像以及初始驱动视频,获取对应的人脸关键点、人脸深度图和人脸的RGB编码特征;基于获取的人脸关键点、人脸深度图和人脸的RGB编码特征,得到目标人脸驱动视频;利用目标人脸驱动视频中的人脸替换场景视频中的人脸,得到虚拟人视频;将虚拟人视频和音频文件进行合成,得到待播报的虚拟人播报视频。本发明能够提高虚拟人视频的制作效率。
-
公开(公告)号:CN116996630B
公开(公告)日:2024-07-12
申请号:CN202310964008.9
申请日:2023-08-02
Applicant: 北京中科闻歌科技股份有限公司
IPC: H04N5/262 , G10L21/10 , G10L21/18 , H04N5/265 , G06N3/0475 , G06N3/094 , G06F16/332
Abstract: 本发明提供了一种实时问答虚拟人视频生成方法、电子设备及存储介质,方法包括:基于待播报信息获取对应的场景视频;对音频文件进行特征提取,得到对应的音频特征;基于场景视频和音频特征,生成口型与音频特征相匹配的场景视频,作为初始人脸驱动视频;基于场景视频中的目标图像以及初始驱动视频,获取对应的人脸关键点、人脸深度图和人脸的RGB编码特征;基于获取的人脸关键点、人脸深度图和人脸的RGB编码特征,得到目标人脸驱动视频;利用目标人脸驱动视频中的人脸替换场景视频中的人脸,得到虚拟人视频;将虚拟人视频和音频文件进行合成,得到待播报的虚拟人播报视频。本发明能够提高虚拟人视频的制作效率。
-
公开(公告)号:CN116996707A
公开(公告)日:2023-11-03
申请号:CN202310967284.0
申请日:2023-08-02
Applicant: 北京中科闻歌科技股份有限公司
IPC: H04N21/234 , H04N21/44 , G06T3/40 , G06N3/094 , G06N3/0475 , G06N3/0464 , G06V10/82 , G06V40/16
Abstract: 本发明提供了一种虚拟角色的视频渲染方法,包括如下步骤:基于目标虚拟角色的第一人脸图像和目标虚拟角色对应的目标音频数据,获取到预设口型图像集;预设口型图像集包括若干个口型图像;根据若干个口型图像和第二人脸图像,获取到拼接人脸图像集;拼接人脸图像集包括若干个拼接人脸图像;根据若干个拼接人脸图像和目标换脸模型,获取到目标人脸图像集;目标人脸图像集包括若干个目标人脸图像;根据若干个目标人脸图像和目标虚拟角色的初始人脸图像,获取到目标虚拟角色对应的目标渲染视频。本发明能够实现虚拟角色视频的实时驱动与渲染,并能够应用于多种语言的语音播报。
-
-
-
-
-