-
公开(公告)号:CN104751511B
公开(公告)日:2018-02-06
申请号:CN201310744437.1
申请日:2013-12-30
Applicant: 北京师范大学
Abstract: 本发明公开了一种三维场景构建方法和装置:在三维场景构建过程中,当每次接收到用户所绘制的、用于进行三维模型检索的二维草图时,分别进行如下处理:生成所述二维草图的特征向量;针对三维模型数据库中的每个三维模型,分别计算预先生成的该三维模型的各二维正交投影轮廓线图的特征向量与所述二维草图的特征向量之间的距离,并将计算出的最小距离作为该三维模型与所述二维草图之间的距离;按照与所述二维草图之间的距离由小到大的顺序,对所述三维模型数据库中的各三维模型进行排序,并将排序后处于前X位的三维模型推荐给用户,X为正整数;将所推荐的各三维模型中的一个加载到三维场景中。应用本发明所述方案,能够提高三维场景的构建效率等。
-
公开(公告)号:CN119046722A
公开(公告)日:2024-11-29
申请号:CN202411015053.0
申请日:2024-07-26
Applicant: 北京师范大学
IPC: G06F18/24 , G06V10/764 , G06V10/44 , G06N3/0455 , G06F18/25 , G06N3/0499 , G06N3/096
Abstract: 本发明公开一种基于可组合文本提示框架的开放域图像识别方法,包括:步骤1,对图像x进行预处理并token化,采用clip视觉模型获取token化特征Fv;步骤2,初始化任务相关文本提示ptt和视觉相关文本提示pvt;步骤3,pvt利用跨模态注意力机制学习融合视觉后的提示#imgabs0#步骤4,ptt和#imgabs1#采用自注意力机制融合学习组合提示#imgabs2#步骤5,采用clip文本模型获取#imgabs3#特征,并计算损失优化提示和提示组合模块,所述方法分别学习视觉相关提示和视觉无关提示,视觉相关提示利用跨模态注意来捕捉视觉信息,视觉无关提示通过自注意力与视觉相关提示相结合,实现相互优化。
-
公开(公告)号:CN110147822B
公开(公告)日:2021-04-02
申请号:CN201910303586.1
申请日:2019-04-16
Applicant: 北京师范大学
Abstract: 本发明属于人脸识别以及情感计算技术领域技术领域,具体涉及一种基于人脸动作单元检测的情绪指数计算方法,具体步骤包括:建立待训练数据集,形成人脸动作单元数据库;人脸动作单元动作强度检测;计算情绪指数;本发明实现了通过面部表情所表达的情绪过程,能够更加准确客观的传达细节信息,更能弥补语言所不能描述和传达的深邃信息,尤其对语言表达障碍及无法正常获取语言信息的情景应用提供了一种非常可行的方案。
-
公开(公告)号:CN108830237B
公开(公告)日:2020-08-11
申请号:CN201810645394.4
申请日:2018-06-21
Applicant: 北京师范大学
IPC: G06K9/00
Abstract: 本发明涉及一种人脸表情的识别方法,具体包括以下步骤:步骤1:针对人脸表情数据集中的各个图像,检测图像中的人脸及特征点;步骤2:在步骤1的基础上,生成人脸图像上各个特征点局部区域的特征向量,计算基于人脸特征点的表情特征;步骤3:进行计算人脸表情特征向量;步骤4:在步骤3的基础上,利用自编码神经网络方法进行降维;步骤5:计算并得到非线性高维分类模型;步骤6:当用户输入人脸视频后,按照步骤1~步骤4方法构造新型较低维的形状特征描述符;步骤7:将输入视频人脸图像特征描述符与分类模型进行比较,从而确定出人脸表情图像在不同分类中的概率值。本发明的有益效果是:提高表情特征的描述能力;提高了表情识别的准确率。
-
公开(公告)号:CN110363156A
公开(公告)日:2019-10-22
申请号:CN201910644906.X
申请日:2019-07-17
Applicant: 北京师范大学
IPC: G06K9/00
Abstract: 本发明涉及一种姿态无关的面部动作单元(AU)识别方法,传统方法对头部的姿态十分敏感,对于正面姿态面部图像表现良好,但对于其他非正面姿态效果较差。这是因为深度学习算法是数据驱动的,而侧面姿态AU数据集比正面姿态AU数据集更难获取,因为在大量侧面面部图片上标注AU需要消耗大量人力、物力。为了解决这一限制,提出了一种基于深度残差映射和注意力增强的姿态无关的AU识别方法,对卷积神经网络中的深层特征进行姿态转正。在深层特征空间中,通过注意力增强的残差映射模块,将非正面姿态映射到正面,从而减小AU识别难度,提高识别AU准确率。
-
公开(公告)号:CN103927742A
公开(公告)日:2014-07-16
申请号:CN201410108342.5
申请日:2014-03-21
Applicant: 北京师范大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于深度图像的全局自动配准建模方法,所述方法包括:利用三维激光扫描仪采集不同视角的深度图像;深度图像预处理;基于全等三点的邻接深度图像的自动配准;基于全局特征点集的多个深度图像的全局配准;基于转轴估计的配准结果反馈;深度图像的融合等步骤。本发明的优越效果在于,依据边长和角度信息,通过全等三点实现邻接深度图像的自动粗配准,降低了噪声对配准结果的影响。通过选择稳定度高、几何属性稳定的对应点及其对应关系的度量函数,建立了基于全局特征点集的多个深度图像配准的方法,提高了多视深度图像配准的准确性。基于转轴估计的配准结果反馈方法相比较于欧式距离的度量方法,更容易评估配准结果的准确性。
-
-
-
-
-