-
公开(公告)号:CN114758560B
公开(公告)日:2023-06-06
申请号:CN202210332565.4
申请日:2022-03-30
Applicant: 厦门大学
Abstract: 本发明提供了音准识别技术领域的一种基于动态时间规整的哼唱音准评价方法,包括如下步骤:步骤S10、获取大量的哼唱数据,并对各所述哼唱数据进行预处理;步骤S20、提取预处理后的所述哼唱数据中的音频特征;步骤S30、对各所述音频特征进行预处理;步骤S40、基于动态时间规整算法创建一音准评价模型,利用预处理后的所述音频特征对音准评价模型进行训练;步骤S50、利用训练后的所述音准评价模型对待评价音频进行评价,生成评价结果。本发明的优点在于:极大的提升了音准评价的准确性。
-
公开(公告)号:CN111816148B
公开(公告)日:2023-04-07
申请号:CN202010590728.X
申请日:2020-06-24
Applicant: 厦门大学
IPC: G10H1/00 , G06N3/08 , G06N3/0442 , G06N3/045 , G06N3/0464
Abstract: 本发明提供了一种基于生成对抗网络的虚拟人声视唱方法和系统,所述方法包括:步骤一、输入abc记谱法文件和用Vocaloid制作的人声唱谱音频;步骤二、将abc文件转化为自定义格式的文本文件,将自定义文本文件和人声音频作为Tacotron‑2神经网络模型的输入;步骤三、在Tacotron‑2神经网络中,输入的文本文件中的字符通过512维的字符嵌入Character Embedding表示;步骤四、完成了虚拟人声波形文件的合成;步骤五、得到一段完整的虚拟人声视唱音乐。本发明用虚拟人声演唱乐谱,输出的语音节奏流畅自然,从而使得听者在聆听信息时会感觉自然,而不会感到设备的语音输出带有机械感与生涩感。
-
公开(公告)号:CN109584904B
公开(公告)日:2022-10-28
申请号:CN201811580476.1
申请日:2018-12-24
Applicant: 厦门大学
Abstract: 应用于基础音乐视唱教育的视唱音频唱名识别建模方法,涉及视唱音频唱名识别。提供可帮助用户提升自己音乐视唱方面能力的一种应用于基础音乐视唱教育的视唱音频唱名识别建模方法。唱名识别效果可以达到专业的识别的水平,识别精准率较高;唱名识别运算效率较高,可以在3~5s之内完成唱名识别过程,达到工业应用要求;唱名识别抗噪能力较强,在有一定背景噪声的情况下也能较好的识别。
-
公开(公告)号:CN109461431B
公开(公告)日:2022-09-27
申请号:CN201811580835.3
申请日:2018-12-24
Applicant: 厦门大学
IPC: G10H7/00
Abstract: 应用于基础音乐视唱教育的视唱错误曲谱标注方法,涉及基础音乐视唱教育。提供可帮助用户提升自己音乐视唱方面能力的一种应用于基础音乐视唱教育的视唱错误曲谱标注方法。五线谱显示用户哼唱错误标注效果可以达到专业的标注的水平,标识精准率较高;错误标注运算效率较高,可以在3~5s之内完成错误标注过程,达到工业应用要求;错误标注抗噪能力较强,在有一定背景噪声的情况下也能较好的进行错误标注。
-
公开(公告)号:CN114863241A
公开(公告)日:2022-08-05
申请号:CN202210430505.6
申请日:2022-04-22
Applicant: 厦门大学
Abstract: 本发明提供了计算机技术领域的一种基于空间布局与深度学习的影视动画评估方法,包括:步骤S10、获取动画图像并提取空间特征,基于空间特征构建无向全连通图;步骤S20、构建内容相似度网络,通过图卷积对无向全连通图进行推理;步骤S30、将内容相似度网络里的空间节点映射到潜在空间以构建空间关系全连通图;步骤S40、构建空间关系网络,通过图卷积对空间关系全连通图进行推理得到潜在特征并映射回原始空间;步骤S50、基于空间关系网络以及内容相似度网络的输出计算构图评分;步骤S60、提取动画图像的颜色特征并输入颜色评价模型获取颜色评分;步骤S70、基于构图评分以及颜色评分计算综合评分。本发明的优点在于:极大的提升了影视动画评估的可解释性。
-
公开(公告)号:CN114124957A
公开(公告)日:2022-03-01
申请号:CN202111391958.4
申请日:2021-11-19
Applicant: 厦门大学
IPC: H04L67/10 , H04L67/1074 , H04L67/12 , G06F8/20 , G06F9/54
Abstract: 本发明提供了计算机技术领域的一种应用于机器人的分布式节点互联方法,包括:步骤S10、客户端获取代码并转换为若干个结构化的节点;步骤S20、客户端将各节点发送给服务端;步骤S30、服务端将各节点拆解为一个消费者和若干个生产者,并将消费者加入消费者池,将生产者加入生产者池;步骤S40、服务端的发现器进行节点扫描,获取扫描到的节点携带的生产者并缓存在资源池中,并将生产者池中的生产者注入发现器;步骤S50、服务端的调度器基于消费者池中的消费者,从资源池中匹配对应的生产者并发送给客户端;步骤S60、客户端将接收的生产者关联的节点转换为对象,基于对象与对应的节点进行互联。本发明的优点在于:极大的提升了节点互联的自律性、灵活性以及兼容性。
-
公开(公告)号:CN111814609A
公开(公告)日:2020-10-23
申请号:CN202010589037.8
申请日:2020-06-24
Applicant: 厦门大学
Abstract: 本发明提供了一种基于ECOC和深度学习的微表情识别方法,所述方法包括:步骤一、采集微表情图像,使用光流法和光流应变法结合的三维特征作为微表情的特征;步骤二、使用改进的基于多重数据复杂度的ECOC方法处理微表情数据;步骤三、构造基于深度森林和卷积神经网络的异质集成模型,将深度森林的重表示特征经过卷积层和卷积神经网络的深度特征混合形成新的图像特征,帮助分类器实现判别分类;步骤四、结合当前场景内容和微表情分类,与识别对象进行交互。本发明实现了更高的准确率,相比其他微表情识别算法,集成算法表现出更好的鲁棒性。需要更少的参数,训练时消耗更少的时间和资源,是一种轻量高效的微表情识别方法。
-
-
-
-
-
-