-
公开(公告)号:CN113434918B
公开(公告)日:2022-12-02
申请号:CN202110717686.6
申请日:2021-06-28
Applicant: 北京理工大学
IPC: G06F30/10 , G06F30/27 , G06V10/764 , G06N3/04 , G06N3/08
Abstract: 本发明公开的一种基于文本的三维体素模型生成方法,属于从文本到三维体素模型的跨模态生成领域。本发明通过文本编码器将自然语言处理为计算机能够理解的文本向量;通过条件生成对抗网络框架使生成器获得生成匹配文本描述模型的能力;通过重建模型标签的判别器,指导生成器训练生成更为精致的模型;通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将三维体素模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成模型更精致;通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率。本发明具有适用性广、生成效果好的优点。
-
公开(公告)号:CN109086869B
公开(公告)日:2021-08-10
申请号:CN201810774516.X
申请日:2018-07-16
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于注意力机制的人体动作预测方法,属于人机交互与虚拟现实技术领域。本发明方法从人体动作姿态数据集中读取全部数据并进行标准化处理,然后根据指令中需要进行训练的帧的长度,按照生成的随机数进行训练数据批次的读取,将数据输入到注意力模型中进行数据处理,依据处理后的数据进行动作重建。本发明采用了两种注意力机制,即全局注意力机制和局部注意力机制。本发明方法对比现有技术,在一定的时间上能够避免信息冗余,同时在一定窗口下对注意力进行分配。
-
公开(公告)号:CN105761314A
公开(公告)日:2016-07-13
申请号:CN201610150721.X
申请日:2016-03-16
Applicant: 北京理工大学
CPC classification number: G06T17/205 , G06T9/001
Abstract: 本发明涉及一种基于显著颜色属性特征保持的模型简化方法,属于计算机图形学、虚拟现实技术领域。本发明具体步骤为:读入原始网格模型数据,对网格模型进行规整化,包括顶点的几何位置和颜色属性的规整化;计算所有顶点的二次误差矩阵;对模型执行属性的显著性计算,得到所有顶点的属性显著度;计算待折叠边的几何属性误差和颜色属性误差,然后得到待折叠边的折叠代价;依折叠代价从小到大对所有的边进行排序;从中选择代价最小的边进行折叠操作,并更新相关信息,包括全局特征重要度,以及与之关联的边的折叠代价;反复进行边折叠操作,直到达到简化要求或堆为空。本发明不但能很好的实现对带属性网格的网格简化,同时能有效保持模型的颜色显著属性特征,在简化率达到90%时依然可以保持模型的颜色显著特征。
-
公开(公告)号:CN113436314B
公开(公告)日:2022-10-04
申请号:CN202110712031.X
申请日:2021-06-25
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于结构的计算机三维网格模型重建方法,属于计算机图形学及视觉技术领域。首先,将网格模型的各个部件分别编码。然后,将部件编码序列,利用序列到序列的结构进行编码和解码,重建部件编码序列,再将重建的部件编码序列利用网格变形的方法进行解码重建出各个网格部件,从而得到整个网格模型。之后,让神经网络学习从图像到上述过程中学到的编码潜在空间的映射,从而实现从图像到结构化网格模型的重建。与现有的网格模型重建方法相比,本方法能够重建模型的结构信息,保留有关结构的细节,与一些其他的结构化模型重建方法相比,又能够得到整体形状更优的网格模型。
-
公开(公告)号:CN113255813A
公开(公告)日:2021-08-13
申请号:CN202110635370.2
申请日:2021-06-02
Applicant: 北京理工大学
Abstract: 本发明公开的一种基于特征融合的多风格图像生成方法,属于计算机视觉领域。本发明实现方法为:将语义分割图输入内容特征提取网络,提取语义图中的内容特征向量;将风格图输入风格特征提取网络,提取风格图中的风格特征向量;将提取出的内容特征向量fc和风格特征向量fs输入内容风格特征融合网络进行特征融合,得到特征融合后的融合特征向量;构建由生成器和判别器组成的生成对抗网络,并通过设计损失函数在数据集上训练生成对抗网络;利用训练得到的损失函数最小化的生成器,生成具有语义图内容和风格图风格的多风格图像。本发明能够将生成的具有语义图内容和风格图风格的多风格图像,应用于吸引注意力的场景,解决相关工程技术问题。
-
公开(公告)号:CN105955501B
公开(公告)日:2018-10-12
申请号:CN201610244240.5
申请日:2016-04-19
Applicant: 北京理工大学
IPC: G06F3/023
Abstract: 本发明涉及一种基于人机交互的汉字信息流可视化方法,属于数据可视化研究领域。具体为:①将显示页面分为键盘区、主机区和显示器区。主机区分为内存区和硬盘区。在键盘区内,有输入法类型的选项。②选择一种输入法类型。③通过键盘得到输入码并显示在键盘区内。④在对应输入法类型的输入码和机内码对映表,查找输入码对应的机内码并在显示页面的内存区显示。⑤将十六进制的机内码转换为二进制形式并在显示页面的内存区上显示。⑥将机内码转换为国标码,并在硬盘区显示。⑦将国标码转换为区位码并在硬盘区显示。⑧根据区位码在区位表中查找对应汉字并在显示器区显示。本发明实现了输入字符到对应机内码、国标码、区位码和对应汉字的可视化。
-
公开(公告)号:CN103984724B
公开(公告)日:2017-06-13
申请号:CN201410205449.1
申请日:2014-05-15
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于空间优化树布局的可视化交互方法,属于计算机图形学、计算机可视化技术领域。具体操作步骤为:①使用空间优化树布局算法对层次结构信息集合进行可视化,得到空间优化树布局以及索引;②用户确定查看位置;③确定待放大节点;④对待放大节点进行放大。本发明提出的基于空间优化树布局的可视化交互方法与已有技术相比较,在放大待查看区域的同时,有效解决了在交互过程中遇到的边重叠问题,并且计算量小。
-
公开(公告)号:CN113436314A
公开(公告)日:2021-09-24
申请号:CN202110712031.X
申请日:2021-06-25
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于结构的计算机三维网格模型重建方法,属于计算机图形学及视觉技术领域。首先,将网格模型的各个部件分别编码。然后,将部件编码序列,利用序列到序列的结构进行编码和解码,重建部件编码序列,再将重建的部件编码序列利用网格变形的方法进行解码重建出各个网格部件,从而得到整个网格模型。之后,让神经网络学习从图像到上述过程中学到的编码潜在空间的映射,从而实现从图像到结构化网格模型的重建。与现有的网格模型重建方法相比,本方法能够重建模型的结构信息,保留有关结构的细节,与一些其他的结构化模型重建方法相比,又能够得到整体形状更优的网格模型。
-
公开(公告)号:CN113434918A
公开(公告)日:2021-09-24
申请号:CN202110717686.6
申请日:2021-06-28
Applicant: 北京理工大学
Abstract: 本发明公开的一种基于文本的三维体素模型生成方法,属于从文本到三维体素模型的跨模态生成领域。本发明通过文本编码器将自然语言处理为计算机能够理解的文本向量;通过条件生成对抗网络框架使生成器获得生成匹配文本描述模型的能力;通过重建模型标签的判别器,指导生成器训练生成更为精致的模型;通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将三维体素模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成模型更精致;通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率。本发明具有适用性广、生成效果好的优点。
-
公开(公告)号:CN113191375A
公开(公告)日:2021-07-30
申请号:CN202110642098.0
申请日:2021-06-09
Applicant: 北京理工大学
Abstract: 本发明公开的一种基于联合嵌入的文本到多对象图像生成方法,属于从文本到图像的跨模态生成领域。本发明实现方法为:将文本描述输入到语义编码器中得到文本和图像的联合语义特征,将文本输入到空间布局编码器中得到文本和分割图的联合空间特征,联合语义特征和空间特征都包含句子级和单词级。使用动态融合模块分别融合单词级特征和句子级特征。将融合得到的句子级特征喂入生成式对抗网络中的初始生成器中,生成低分辨率图像,将融合得到的单词级特征喂入到后续生成器中,生成精细高分辨率图像。构建由多对生成器和判别器组成的级联生成式对抗网络,并通过设计损失函数在数据集上训练生成对抗网络,使用训练得到的生成器生成对应图像。
-
-
-
-
-
-
-
-
-