-
公开(公告)号:CN109461431A
公开(公告)日:2019-03-12
申请号:CN201811580835.3
申请日:2018-12-24
Applicant: 厦门大学
IPC: G10H7/00
Abstract: 应用于基础音乐视唱教育的视唱错误曲谱标注方法,涉及基础音乐视唱教育。提供可帮助用户提升自己音乐视唱方面能力的一种应用于基础音乐视唱教育的视唱错误曲谱标注方法。五线谱显示用户哼唱错误标注效果可以达到专业的标注的水平,标识精准率较高;错误标注运算效率较高,可以在3~5s之内完成错误标注过程,达到工业应用要求;错误标注抗噪能力较强,在有一定背景噪声的情况下也能较好的进行错误标注。
-
公开(公告)号:CN114678039B
公开(公告)日:2025-01-24
申请号:CN202210388559.0
申请日:2022-04-13
Applicant: 厦门大学
Abstract: 本发明提供了歌唱评价技术领域的一种基于深度学习的歌唱评价方法,包括如下步骤:步骤S10、获取大量的歌唱数据,对各所述歌唱数据进行清洗;步骤S20、提取清洗后的各所述歌唱数据的音频特征,构建特征数据集;步骤S30、创建一音频对齐模型,基于所述音频对齐模型对特征数据集中的各音频特征进行对齐;步骤S40、基于深度学习创建一多维度评价模型,利用对齐后的所述特征数据集对多维度评价模型进行训练;步骤S50、获取待评价音频,将所述待评价音频输入多维度评价模型,得到音准评价值、节奏评价值以及发音评价值并进行展示。本发明的优点在于:极大的提升了歌唱评价的准确性以及可解释性。
-
公开(公告)号:CN112381036B
公开(公告)日:2024-10-15
申请号:CN202011343361.8
申请日:2020-11-26
Applicant: 厦门大学
IPC: G06V40/16 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0442 , G06N3/082
Abstract: 一种应用于刑侦的微表情与宏表情片段识别方法,步骤一:采集犯罪嫌疑人视频信息;步骤二:将视频数据转换成图像数据,并进行人脸定位;步骤三:将人脸视频序列数据分别进行微表情片段和宏表情片段的发现;步骤四:然后将发现的微表情和宏表情片段进行相应的微表情和宏表情的识别,得出结果。本发明通过对犯罪嫌疑人视频中发现微表情和宏表情片段并对其进行识别,可以帮助更好的捕捉宏微表情序列,消除了时间,光照,和头部移动的对结果的影响,有较高的鲁棒性和泛化能力,提高预测精度。
-
公开(公告)号:CN117972782A
公开(公告)日:2024-05-03
申请号:CN202410152868.7
申请日:2024-02-02
Applicant: 厦门大学
Abstract: 本发明提供了一种隐私计算任务执行方法及装置,该方法至少包括第一计算节点和第二计算节点,第一计算节点和第二节点均位于第一Kubernetes集群中,该方法用于部署于第一Kubernetes集群中的第一任务调度引擎,包括以下步骤:S1,获取第一隐私计算任务;S2,根据第一隐私计算任务,创建第一Pod容器组和第二Pod容器组;S3,根据第二描述信息,将第一Pod容器组调度至第一计算节点运行,以及将第二Pod容器组调度至第二计算节点运行。本发明在每个集群中创建Pod容器组执行调度到该集群的分任务,分任务中的每一个任务步骤对应通过运行Pod容器组中的一个Pod容器来执行,Pod容器组中和组间的Pod容器自行互相通知配合计算,不需要同步到主节点,实现了隐私计算任务的去中心化执行。
-
公开(公告)号:CN111709431B
公开(公告)日:2023-02-10
申请号:CN202010541014.X
申请日:2020-06-15
Applicant: 厦门大学
IPC: G06V10/46 , G06F40/232 , G06F40/58 , G06N3/04
Abstract: 本发明公开了一种即时翻译方法、装置、计算机设备和存储介质。其中,所述方法包括:输入语言和对应该语言的场景图像,和从该场景图像中识别出该语言对应的语言场景,以及根据该语言场景,采用多模态深度语义交互的神经网络方式,将该语言信息翻译成另一种语言信息。通过上述方式,能够实现结合该输入的语言信息的语言场景的翻译,能够实现提高语言翻译的准确率。
-
公开(公告)号:CN113095707A
公开(公告)日:2021-07-09
申请号:CN202110442082.5
申请日:2021-04-23
Applicant: 厦门大学
Abstract: 本发明公开了一种基于区块链的应急物资管理方法,所述方法包括:接收到物资采集方发布应急物资的物资采集请求,其中,所述物资采集请求包括应急物资清单和应急地区;基于所述采集请求通过募集和/或采购的方式获取目标应急物资;检验所述目标应急物资通过后,设置对应所述目标应急物资的防伪识别码;根据所述目标应急物资的始发站点生成到达所述应急地区的物流路线,并存储于所述区块链中;确认与所述物流路线所关联的每一物流节点的通行状态后,基于所述始发站点执行运送;实时跟踪所述物流节点的所述通行状态,或根据交通路况和/或天气情况自动更新所述物流路线。能够实现有效的进行物资物流全过程信息记录、追踪和监督,以进行物资的筹集的合理调配。
-
公开(公告)号:CN111816157A
公开(公告)日:2020-10-23
申请号:CN202010590726.0
申请日:2020-06-24
Applicant: 厦门大学
IPC: G10L13/02
Abstract: 本发明提供了一种基于语音合成的乐谱智能视唱方法和系统,所述方法包括:步骤一、数据准备,输入并解析abc乐谱,得出具体一个abc乐谱中每个音符的音高以及时长信息;步骤二、训练参数,制作训练数据时生成了长度5个以内的音符,即在处理一个完整的abc乐谱时,将其所有音符划分成5个音符一组;步骤三、合成音频拼接,具体包括乐谱分段识别、片段拼接、波形对齐与空白段填充三个子步骤;步骤四、对合成的音频进行可视化展示。本发明解决了训练过程计算量大、直接拼接时拼接痕迹会比较明显、拼接杂音等技术问题,生成的音频和原数据的效果对比很难分辨出差别。
-
公开(公告)号:CN111709431A
公开(公告)日:2020-09-25
申请号:CN202010541014.X
申请日:2020-06-15
Applicant: 厦门大学
IPC: G06K9/46 , G06F40/232 , G06F40/58 , G06N3/02
Abstract: 本发明公开了一种即时翻译方法、装置、计算机设备和存储介质。其中,所述方法包括:输入语言和对应该语言的场景图像,和从该场景图像中识别出该语言对应的语言场景,以及根据该语言场景,采用多模态深度语义交互的神经网络方式,将该语言信息翻译成另一种语言信息。通过上述方式,能够实现结合该输入的语言信息的语言场景的翻译,能够实现提高语言翻译的准确率。
-
公开(公告)号:CN109584904A
公开(公告)日:2019-04-05
申请号:CN201811580476.1
申请日:2018-12-24
Applicant: 厦门大学
Abstract: 应用于基础音乐视唱教育的视唱音频唱名识别建模方法,涉及视唱音频唱名识别。提供可帮助用户提升自己音乐视唱方面能力的一种应用于基础音乐视唱教育的视唱音频唱名识别建模方法。唱名识别效果可以达到专业的识别的水平,识别精准率较高;唱名识别运算效率较高,可以在3~5s之内完成唱名识别过程,达到工业应用要求;唱名识别抗噪能力较强,在有一定背景噪声的情况下也能较好的识别。
-
公开(公告)号:CN114093386B
公开(公告)日:2024-06-25
申请号:CN202111327656.0
申请日:2021-11-10
Applicant: 厦门大学
Abstract: 本发明提供了歌唱评价技术领域的一种面向教育的多维度歌唱评价方法,包括:步骤S10、获取包括待评价音频数据和标准音频数据的音频数据集;步骤S20、对音频数据集进行数据清洗;步骤S30、提取音频数据集的声学特征;步骤S40、对声学特征进行预处理;步骤S50、创建乐感评价模型、音准评价模型、节奏评价模型、整体性评价模型、咬字吐字评价模型、总评价模型;步骤S60、基于乐感评价模型、音准评价模型、节奏评价模型、整体性评价模型、咬字吐字评价模型以及声学特征对评价音频数据进行评价,依次生成评价值;步骤S70、总评价模型基于各评价值生成总评价值。本发明的优点在于:实现对歌唱进行多维度评价,极大的提升了歌唱评价的准确性和可解释性。
-
-
-
-
-
-
-
-
-