-
公开(公告)号:CN119399342A
公开(公告)日:2025-02-07
申请号:CN202510005486.6
申请日:2025-01-03
Applicant: 哈尔滨工业大学(威海)
Abstract: 本公开的实施例提供了一种基于全局‑局部表面协同感知的物体高斯逆渲染方法;涉及图形逆渲染领域。方法包括进行光线投射与采样,获取采样点;利用几何网络和颜色网络计算采样点的神经辐射距离值和颜色值,获取全局几何表征;根据神经辐射距离值,初始化高斯点云位置;从初始化高斯点云中选取局部控制点,以局部控制点为中心,确定局部采样点并构建局部距离函数;根据局部采样点,利用局部距离函数和神经辐射距离函数,计算局部采样点的局部距离值和全局神经辐射距离值;根据全局几何表征,以这两个距离值为约束,重建几何细节;为高斯点云添加属性值进行材质与光照建模,获取材质属性与光照条件。以此缓解物体表面粗糙、提高细节捕捉能力。
-
公开(公告)号:CN118897905B
公开(公告)日:2025-01-21
申请号:CN202411388560.9
申请日:2024-10-08
Applicant: 山东大学 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 浙江大华技术股份有限公司 , 山东省计算中心(国家超级计算济南中心) , 哈尔滨工业大学(威海)
IPC: G06F16/735 , G06F16/783 , G06F16/738 , G06N3/0455 , G06N3/08
Abstract: 本发明属于视频检索技术领域,提供了一种基于细粒度时空关联建模的视频片段定位方法及系统,其技术方案为:获取视频片段,利用时空查询表示,隐式挖掘视频片段中潜在所有物体信息;随后,基于时空表示多维交互模块,充分建模物体间时空关联关系;之后,通过有机融合局部和全局表示,全面提升视频片段的表示能力;最后,依据视频片段表示与用户查询表示相似性分数确定目标视频片段。本发明克服了现有技术中依赖离线物体检测工具进行物体时空信息提取、物体细粒度交互信息建模不充分等导致视频理解不佳的问题。
-
公开(公告)号:CN118918521B
公开(公告)日:2024-12-17
申请号:CN202411413830.7
申请日:2024-10-11
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 山东大学 , 浙江大华技术股份有限公司 , 哈尔滨工业大学(威海)
Abstract: 本发明属于目标视频片段定位领域,提供了一种基于多机协同的目标视频片段定位方法及系统,方法包括获取时间同步的多视角的单帧图像;进行各图像的特征匹配,依据特征匹配关系建立不同视角图像之间的对应关系;基于建立的对应关系,进行多视角图像的融合,得到完备的全景视频特征;响应于查询文本,基于全景视频特征,进行目标视频片段定位。本发明通过特征匹配建立不同视角之间的对应关系,利用视角融合剔除重复冗余信息,生成完整的全景视图,实现不同视角的互补,基于视角融合后的视频实现目标视频片段的高效定位;克服了现有技术中多视角视频匹配难、融合差的缺陷。
-
公开(公告)号:CN118916518B
公开(公告)日:2024-12-17
申请号:CN202411411688.2
申请日:2024-10-11
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 山东大学 , 浙江大华技术股份有限公司 , 山东省计算中心(国家超级计算济南中心) , 哈尔滨工业大学(威海)
IPC: G06F16/738 , G06F16/735 , G06N5/022 , G06F16/783
Abstract: 本发明属于数据处理技术领域。提供了一种基于知识增强的视频片段摘要生成方法及系统,抽取视频片段的多个视频帧的信息,得到向量表征集合、物体名称集合、视觉表征集合以及文本表征集合,进一步的得到以物体间常识关系为边的第一常识图、以物体间场景关系为边的第二常识图、以物体间时空关系为边的第三常识图;将第一常识图、第二常识图和第三常识图整合后采用图注意力网络,得到所有物体的表征,将所有物体的表征与向量表征集合拼接成为视频表征,以所述视频表征与提示词文本作为大语言模型的输入,得到视频片段的摘要文本描述;本发明通过融合常识知识、场景知识和时空知识,提升了视频摘要生成的准确性和全面性。
-
公开(公告)号:CN117994708B
公开(公告)日:2024-05-31
申请号:CN202410397545.4
申请日:2024-04-03
Applicant: 哈尔滨工业大学(威海)
IPC: G06V20/40 , G06N3/0455 , G06N3/0464 , G06N3/09 , G06V10/82 , G06V40/20
Abstract: 本发明公开了基于时序一致隐空间引导扩散模型的人体视频生成方法,包括以下步骤:从人物动作视频中提取骨骼序列并形成骨骼序列的视频;对输入视频、人物形象以及骨骼序列提取特征;输入特征至扩散模型中进行前向加噪及噪声预测;以加入的噪声作为监督定义约束并对扩散模型进行训练;将目标姿态序列和人物图片输入至训练好的扩散模型中;将时空坐标通过隐式网络映射为像素值;以目标视频以及目标姿态序列作为监督约束,学习模型参数;对隐式网络的输出视频进行特征提取,再次输入训练完成的扩散模型,得到人物动作视频。本发明设计迭代优化的策略,通过时序一致的隐空间引导提升扩散模型的生成结果连续性,以提高姿态引导的人体视频生成质量。
-
公开(公告)号:CN117974867A
公开(公告)日:2024-05-03
申请号:CN202410381197.1
申请日:2024-04-01
Applicant: 哈尔滨工业大学(威海)
IPC: G06T15/00 , G06V20/40 , G06V40/16 , G06V10/774 , G06V10/82
Abstract: 一种基于高斯点渲染的单目人脸化身生成方法,包括以下步骤:从单目人像视频中提取FLAME的表情参数和姿态参数;定义初始化空间、标准空间、形变空间;从点在形变空间与初始化空间的位置信息,获取点在形变空间中的高斯参数;将点在形变空间中的高斯参数输入渲染器,并渲染图像;将渲染图像与输入单目人像视频做图像损失,通过最小化该约束进行训练;每次训练迭代中加入增删点策略以实现点数增加;通过驱动视频对训练好的特定人物化身进行驱动。本发明设计迭代优化的策略,以及高斯点云的增删点策略,利用高斯抛雪球渲染器的渲染速度和渲染质量,通过预训练的线性混合蒙皮函数引导高斯参数网络和点的形变网络的训练,提高人像化身的生成质量。
-
公开(公告)号:CN117953137A
公开(公告)日:2024-04-30
申请号:CN202410353427.3
申请日:2024-03-27
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明公开了一种基于动态表面反射场的人体重光照方法,包括以下步骤:将4D空间利用多平面及哈希表示进行分解,对多视角动态人体视频编码得到紧凑的时空位置编码;得到光线采样点的符号距离函数值、几何特征及颜色值;得到对应像素的深度、法向、颜色及材质;建模直接光照、光线可见性及间接光照;同时约束渲染图像,学习模型参数,得到动态人体重光照视频。本发明通过设计高效的4D隐式表示对人体表面反射场进行建模,克服了基于模板的方法中固有的拟合误差大和较低的运动自由度的问题,实现准确的动态人体表面反射场的估计。光照建模中通过光线追踪引入可见性及间接光,精准地模拟了二次弹射的着色效果,实现更准确的材质解算和重光照效果。
-
公开(公告)号:CN113643277A
公开(公告)日:2021-11-12
申请号:CN202111001291.2
申请日:2021-08-30
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明涉及图像处理技术领域,具体地,涉及一种基于马尔可夫链的交互式三分图优化方法。本发明的目的是提供一种基于马尔可夫链的交互式三分图优化方法,通过超像素将原始图像划分成块状,块内图像的纹理特征中高度相似。而对于由智能算法得来的三分图,需要人工简单地标识出有错误的地方,本方法会根据马尔可夫链来将标志区域扩大,从而减少用户的交互。
-
公开(公告)号:CN112070815A
公开(公告)日:2020-12-11
申请号:CN202010928126.0
申请日:2020-09-07
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明公开了基于人体外轮廓变形的自动瘦身方法,包括以下步骤:对输入图片使用人体检测算法,获取图片中所有人物主体的位置;依次对每个人物位置框内的人物主体使用骨骼关键点检测算法,获取其姿态信息;将姿态信息送入基于K‑means聚类算法的姿势匹配算法获取参考模板库中与其姿势最相近的参考模板;获取瘦身幅度和变形方向使用基于人体外轮廓的变形方法对待修改人体进行瘦身操作。本发明大大简化了使用软件手动液化瘦身的步骤,克服了主流自动瘦身功能无法维持原图片尺寸以及无法处理多人情况的困难。使得图像中的人物主体得到一定程度的瘦身,身材比例、骨骼轮廓都得到一定程度的改善,获得了更加完美的视觉效果。
-
公开(公告)号:CN107491761B
公开(公告)日:2020-04-03
申请号:CN201710730930.6
申请日:2017-08-23
Applicant: 哈尔滨工业大学(威海)
Abstract: 本发明公开了一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法,包括以下步骤:在跟踪的起始帧随机选取若干目标样本和背景样本;对目标样本进行目标样本特征提取,对背景样本进行背景样本特征提取;将提取的目标样本特征聚类成若干个目标模板集合,将提取的背景样本特征聚类成若干个背景模板集合;通过降低同类别样本间距离并增大不同样本间的距离来学习投影矩阵;根据高斯分布对后续帧进行目标候选采集;提取目标候选的特征,并使用投影矩阵将目标模板集合、背景模板集合和目标候选投影到共同的子空间;计算每个目标候选到所有目标模板集合的距离,距离之和作为每个目标候选的得分,最终的跟踪结果为距离最小的前若干个目标候选的平均值。
-
-
-
-
-
-
-
-
-