-
公开(公告)号:CN118897904B
公开(公告)日:2025-04-18
申请号:CN202411388060.5
申请日:2024-10-08
Applicant: 山东大学 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 浙江大华技术股份有限公司 , 哈尔滨工业大学(威海)
IPC: G06F16/732 , G06F16/75 , G06F40/30
Abstract: 本发明属于自然语言处理领域,提供了一种查询语句语义树生成编码方法及系统,获取给定的查询语句,根据查询语句的完备性,对其进行分类;对于其中的不完备的查询语句,利用过程补全大语言模型进行基于思维链引导的查询过程的补全;基于完备的查询语句或补全后的查询语句,通过成分分析树提取相邻词语之间的深入语义关联,通过依存语法树提取非相邻词语的长距离关联,融合依存语法树和成分分析树,形成最终的语义树。本发明对查询语句进行完备性分类,随后利用大型语言模型自动推断和完善查询语句,从而生成能够准确反映动作中间过程的语义树,实现关键语义内容的补充,可以支持在开放场景视频中进行精准的动作检索和定位。
-
公开(公告)号:CN118196307A
公开(公告)日:2024-06-14
申请号:CN202410605128.4
申请日:2024-05-16
Applicant: 哈尔滨工业大学(威海) , 清华大学
Abstract: 本发明公开了基于可驱动高斯点云的单目人体数字化身建模方法,包括以下步骤:从人物视频中估计人体SMPL模型序列和拍摄相机的位姿;提取视频中人体的掩膜得到只包含该人物形象的序列;定义人体高斯点云属性,并将其绑定在人体SMPL模型表面;记录定义在人体SMPL模型上高斯点云的位置UV图并预测每一个高斯渲染单元的属性;通过预测的人体SMPL模型姿态驱动高斯点云;将驱动后的高斯点云渲染成图片;以目标人物形象图片作为监督约束,学习网络模型参数和姿态修正量。本发明通过采用可驱动高斯点云的设计,实现了人体数字化身在实时驱动方面的高度真实感。通过外观和姿态的联合优化,进一步提升了人体建模质量和姿态估计的准确性。
-
公开(公告)号:CN117953137B
公开(公告)日:2024-06-14
申请号:CN202410353427.3
申请日:2024-03-27
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明公开了一种基于动态表面反射场的人体重光照方法,包括以下步骤:将4D空间利用多平面及哈希表示进行分解,对多视角动态人体视频编码得到紧凑的时空位置编码;得到光线采样点的符号距离函数值、几何特征及颜色值;得到对应像素的深度、法向、颜色及材质;建模直接光照、光线可见性及间接光照;同时约束渲染图像,学习模型参数,得到动态人体重光照视频。本发明通过设计高效的4D隐式表示对人体表面反射场进行建模,克服了基于模板的方法中固有的拟合误差大和较低的运动自由度的问题,实现准确的动态人体表面反射场的估计。光照建模中通过光线追踪引入可见性及间接光,精准地模拟了二次弹射的着色效果,实现更准确的材质解算和重光照效果。
-
公开(公告)号:CN117437120A
公开(公告)日:2024-01-23
申请号:CN202210799973.0
申请日:2022-07-08
Applicant: 哈尔滨工业大学(威海)
IPC: G06T3/4038 , G06T3/4046 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06V10/44 , G06V10/766 , G06V10/82
Abstract: 本发明公开了一种端到端的基于深度学习的图像拼接方法,包括以下训练步骤:在第一阶段,预先训练好一个深度单应性变换网络。在第二阶段,将一组多视角图像输入到图像对齐变换模块,由深度单应性基线网络接收,并输出单应性变换矩阵;将单一性变换矩阵与输入的原始图像输入到空间转换器层中,该层允许对网络内的数据进行空间操作,从而将单应性变换后的图像进行最小空余的对齐,得到对齐后的图像;将变换后的一组图像先进行下采样,然后利用编解码器网络对拼接图像进行重构,学习图像拼接的变形规则,输出拼接图像;将对齐变换后的拼接图像输入到图像矩形化模块中,处理不规则的边界,首先通过一个编码器来提取图像特征,即堆栈简单的卷积池块,从输入中提取高级语义特征;输入到一个完全卷积结构的网格运动回归器,以基于规则网格预测每个顶点的水平和垂直运动;扭曲中间特征映射和网格运动,输入到残差渐进回归器,进而渐进地估计精确的网格运动;将最后将逐步迭代得到的精细网格运动指导原图进行扭曲,最终得到矩形图像。
-
公开(公告)号:CN112070896B
公开(公告)日:2022-05-03
申请号:CN202010927633.2
申请日:2020-09-07
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明公开了一种基于3D建模的人像自动瘦身方法,包括以下步骤:使用自训练的人体检测算法获取图片中所有人体的位置坐标、性别及其胖瘦评级;针对每个待处理的人体区域获取人物主体的骨骼关键点,去除背景;将去除背景后的人体区域配合关键点坐标送入3D建模算法获取人体的3D模型;使用PCA主成分分析获取3D模型输出的人体外形参数,实现对于3D模型的瘦身操作;完成瘦身的3D模型投影至2D图像上;使用Delaunay三角形剖分算法获取三角形网格,得到最终的瘦身结果。本发明大大简化了使用软件手动液化瘦身的步骤,克服了主流自动瘦身功能无法对身体的每个部位进行细粒度调整的困难。
-
公开(公告)号:CN112070896A
公开(公告)日:2020-12-11
申请号:CN202010927633.2
申请日:2020-09-07
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明公开了一种基于3D建模的人像自动瘦身方法,包括以下步骤:使用自训练的人体检测算法获取图片中所有人体的位置坐标、性别及其胖瘦评级;针对每个待处理的人体区域获取人物主体的骨骼关键点,去除背景;将去除背景后的人体区域配合关键点坐标送入3D建模算法获取人体的3D模型;使用PCA主成分分析获取3D模型输出的人体外形参数,实现对于3D模型的瘦身操作;完成瘦身的3D模型投影至2D图像上;使用Delaunay三角形剖分算法获取三角形网格,得到最终的瘦身结果。本发明大大简化了使用软件手动液化瘦身的步骤,克服了主流自动瘦身功能无法对身体的每个部位进行细粒度调整的困难。
-
公开(公告)号:CN109711354A
公开(公告)日:2019-05-03
申请号:CN201811626841.8
申请日:2018-12-28
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明公开了一种基于视频属性表示学习的目标跟踪方法,包括以下步骤:构建具有多属性分支的深度卷积神经网络模型;将训练数据按照视频属性进行分组;在训练数据中选取目标样本和背景样本;按照两阶段训练策略训练深度卷积神经网络模型;使用训练后的深度卷积神经网络模型对目标进行跟踪。使用不同分支学习不同属性下的表示降低了每个分支的学习难度,使得每个分支所需求的训练数据数量也降低。这些表示被自适应地融合后用于分类,提高了特征表示的判别力,使得本提案的方法可以应对复杂的跟踪场景。两阶段训练策略保证了多视频属性分支卷积神经网络可以达到预期目的。
-
公开(公告)号:CN119399342B
公开(公告)日:2025-04-08
申请号:CN202510005486.6
申请日:2025-01-03
Applicant: 哈尔滨工业大学(威海)
Abstract: 本公开的实施例提供了一种基于全局‑局部表面协同感知的物体高斯逆渲染方法;涉及图形逆渲染领域。方法包括进行光线投射与采样,获取采样点;利用几何网络和颜色网络计算采样点的神经辐射距离值和颜色值,获取全局几何表征;根据神经辐射距离值,初始化高斯点云位置;从初始化高斯点云中选取局部控制点,以局部控制点为中心,确定局部采样点并构建局部距离函数;根据局部采样点,利用局部距离函数和神经辐射距离函数,计算局部采样点的局部距离值和全局神经辐射距离值;根据全局几何表征,以这两个距离值为约束,重建几何细节;为高斯点云添加属性值进行材质与光照建模,获取材质属性与光照条件。以此缓解物体表面粗糙、提高细节捕捉能力。
-
公开(公告)号:CN118897905A
公开(公告)日:2024-11-05
申请号:CN202411388560.9
申请日:2024-10-08
Applicant: 山东大学 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 浙江大华技术股份有限公司 , 山东省计算中心(国家超级计算济南中心) , 哈尔滨工业大学(威海)
IPC: G06F16/735 , G06F16/783 , G06F16/738 , G06N3/0455 , G06N3/08
Abstract: 本发明属于视频检索技术领域,提供了一种基于细粒度时空关联建模的视频片段定位方法及系统,其技术方案为:获取视频片段,利用时空查询表示,隐式挖掘视频片段中潜在所有物体信息;随后,基于时空表示多维交互模块,充分建模物体间时空关联关系;之后,通过有机融合局部和全局表示,全面提升视频片段的表示能力;最后,依据视频片段表示与用户查询表示相似性分数确定目标视频片段。本发明克服了现有技术中依赖离线物体检测工具进行物体时空信息提取、物体细粒度交互信息建模不充分等导致视频理解不佳的问题。
-
公开(公告)号:CN117994708A
公开(公告)日:2024-05-07
申请号:CN202410397545.4
申请日:2024-04-03
Applicant: 哈尔滨工业大学(威海)
IPC: G06V20/40 , G06N3/0455 , G06N3/0464 , G06N3/09 , G06V10/82 , G06V40/20
Abstract: 本发明公开了基于时序一致隐空间引导扩散模型的人体视频生成方法,包括以下步骤:从人物动作视频中提取骨骼序列并形成骨骼序列的视频;对输入视频、人物形象以及骨骼序列提取特征;输入特征至扩散模型中进行前向加噪及噪声预测;以加入的噪声作为监督定义约束并对扩散模型进行训练;将目标姿态序列和人物图片输入至训练好的扩散模型中;将时空坐标通过隐式网络映射为像素值;以目标视频以及目标姿态序列作为监督约束,学习模型参数;对隐式网络的输出视频进行特征提取,再次输入训练完成的扩散模型,得到人物动作视频。本发明设计迭代优化的策略,通过时序一致的隐空间引导提升扩散模型的生成结果连续性,以提高姿态引导的人体视频生成质量。
-
-
-
-
-
-
-
-
-