一种应用于机器人的分布式节点互联方法

    公开(公告)号:CN114124957B

    公开(公告)日:2022-12-06

    申请号:CN202111391958.4

    申请日:2021-11-19

    Applicant: 厦门大学

    Abstract: 本发明提供了计算机技术领域的一种应用于机器人的分布式节点互联方法,包括:步骤S10、客户端获取代码并转换为若干个结构化的节点;步骤S20、客户端将各节点发送给服务端;步骤S30、服务端将各节点拆解为一个消费者和若干个生产者,并将消费者加入消费者池,将生产者加入生产者池;步骤S40、服务端的发现器进行节点扫描,获取扫描到的节点携带的生产者并缓存在资源池中,并将生产者池中的生产者注入发现器;步骤S50、服务端的调度器基于消费者池中的消费者,从资源池中匹配对应的生产者并发送给客户端;步骤S60、客户端将接收的生产者关联的节点转换为对象,基于对象与对应的节点进行互联。本发明的优点在于:极大的提升了节点互联的自律性、灵活性以及兼容性。

    一种基于生成对抗网络的虚拟人声视唱方法和系统

    公开(公告)号:CN111816148A

    公开(公告)日:2020-10-23

    申请号:CN202010590728.X

    申请日:2020-06-24

    Applicant: 厦门大学

    Abstract: 本发明提供了一种基于生成对抗网络的虚拟人声视唱方法和系统,所述方法包括:步骤一、输入abc记谱法文件和用Vocaloid制作的人声唱谱音频;步骤二、将abc文件转化为自定义格式的文本文件,将自定义文本文件和人声音频作为Tacotron-2神经网络模型的输入;步骤三、在Tacotron-2神经网络中,输入的文本文件中的字符通过512维的字符嵌入Character Embedding表示;步骤四、完成了虚拟人声波形文件的合成;步骤五、得到一段完整的虚拟人声视唱音乐。本发明用虚拟人声演唱乐谱,输出的语音节奏流畅自然,从而使得听者在聆听信息时会感觉自然,而不会感到设备的语音输出带有机械感与生涩感。

    一种基于检索和对比学习的情感分析方法

    公开(公告)号:CN116227486A

    公开(公告)日:2023-06-06

    申请号:CN202211609151.8

    申请日:2022-12-14

    Applicant: 厦门大学

    Abstract: 本发明提供了自然语言处理技术领域的一种基于检索和对比学习的情感分析方法,包括:步骤S10、获取大量的情感文本数据,并对各情感文本数据进行预处理;步骤S20、提取预处理后的各情感文本数据中的实体,对各实体进行标注以构建样本,进而生成情感数据集;步骤S30、通过E l ast i csearch对所述情感数据集中的样本进行倒排索引,为各所述样本检索与其相似的样本;步骤S40、基于神经网络创建一情感分类模型,利用情感数据集对情感分类模型进行训练,训练的同时,使用对比学习技术拉近各样本与相似的样本的向量距离;步骤S50、利用训练完成的情感分类模型进行情感分析。本发明的优点在于:极大的提升了模型情感表示能力,进而极大的提升了情感分类性能。

    一种基于语音合成的乐谱智能视唱方法和系统

    公开(公告)号:CN111816157B

    公开(公告)日:2023-01-31

    申请号:CN202010590726.0

    申请日:2020-06-24

    Applicant: 厦门大学

    Abstract: 本发明提供了一种基于语音合成的乐谱智能视唱方法和系统,所述方法包括:步骤一、数据准备,输入并解析abc乐谱,得出具体一个abc乐谱中每个音符的音高以及时长信息;步骤二、训练参数,制作训练数据时生成了长度5个以内的音符,即在处理一个完整的abc乐谱时,将其所有音符划分成5个音符一组;步骤三、合成音频拼接,具体包括乐谱分段识别、片段拼接、波形对齐与空白段填充三个子步骤;步骤四、对合成的音频进行可视化展示。本发明解决了训练过程计算量大、直接拼接时拼接痕迹会比较明显、拼接杂音等技术问题,生成的音频和原数据的效果对比很难分辨出差别。

    一种应用于社交机器人的动态延长编码微表情识别方法

    公开(公告)号:CN114973362A

    公开(公告)日:2022-08-30

    申请号:CN202210549594.6

    申请日:2022-05-20

    Applicant: 厦门大学

    Abstract: 本发明公开了一种应用于社交机器人的动态延长编码微表情识别方法,属于微表情领域;所述方法包括如下步骤:S1、对数据集中的数据进行增强扩充数据量并预处理;S2、搭建表情识别模型并利用S1中的数据集进行训练;S3、将步骤S2中训练后的表情识别模型进行优化调整;S4、输出最终的表情识别模型;本发明方法构建表情识别模型为基于一个标准卷积神经网络的实时CNN,有四个residual模块,每一个卷积均有一个BatchNormalization和Relu处理,末尾的卷积层也添加了全局平均池化层和softmax层;此架构包含大约六万个参数,是基本模型的十分之一;经过测试,系统在自闭症患儿数据集上的准确率达到70%,改进后的模型相较于之前获得了更高的识别精度。

    一种基于动态时间规整的哼唱音准评价方法

    公开(公告)号:CN114758560A

    公开(公告)日:2022-07-15

    申请号:CN202210332565.4

    申请日:2022-03-30

    Applicant: 厦门大学

    Abstract: 本发明提供了音准识别技术领域的一种基于动态时间规整的哼唱音准评价方法,包括如下步骤:步骤S10、获取大量的哼唱数据,并对各所述哼唱数据进行预处理;步骤S20、提取预处理后的所述哼唱数据中的音频特征;步骤S30、对各所述音频特征进行预处理;步骤S40、基于动态时间规整算法创建一音准评价模型,利用预处理后的所述音频特征对音准评价模型进行训练;步骤S50、利用训练后的所述音准评价模型对待评价音频进行评价,生成评价结果。本发明的优点在于:极大的提升了音准评价的准确性。

    一种面向教育的多维度歌唱评价方法

    公开(公告)号:CN114093386A

    公开(公告)日:2022-02-25

    申请号:CN202111327656.0

    申请日:2021-11-10

    Applicant: 厦门大学

    Abstract: 本发明提供了歌唱评价技术领域的一种面向教育的多维度歌唱评价方法,包括:步骤S10、获取包括待评价音频数据和标准音频数据的音频数据集;步骤S20、对音频数据集进行数据清洗;步骤S30、提取音频数据集的声学特征;步骤S40、对声学特征进行预处理;步骤S50、创建乐感评价模型、音准评价模型、节奏评价模型、整体性评价模型、咬字吐字评价模型、总评价模型;步骤S60、基于乐感评价模型、音准评价模型、节奏评价模型、整体性评价模型、咬字吐字评价模型以及声学特征对评价音频数据进行评价,依次生成评价值;步骤S70、总评价模型基于各评价值生成总评价值。本发明的优点在于:实现对歌唱进行多维度评价,极大的提升了歌唱评价的准确性和可解释性。

    基于区块链的短时停车车位租赁方法和装置以及设备

    公开(公告)号:CN113160433A

    公开(公告)日:2021-07-23

    申请号:CN202110443639.7

    申请日:2021-04-23

    Applicant: 厦门大学

    Abstract: 本发明公开了一种基于区块链的短时停车车位租赁方法,所述方法包括:响应于第一用户通过车位租赁系统预约短时停车的车位租赁请求;基于所述车位租赁请求查找存储于区块链中的车位租赁信息,并将匹配车位发送给所述第一用户以供选择;根据所述第一用户在所述匹配车位中选定目标车位后,按照预设的租赁规则建立租赁合约;获取所述第一用户的出发位置,并根据所述目标车位的所在位置生成最佳路线推送给所述第一用户;接收到所述目标车位对应的车位感应器检测车位已使用的触发信号时,通过获取所述第一用户的当前GPS位置,匹配所述当前GPS位置与所述目标车位的位置是否一致。能够利用车位主在空闲时间段将闲置的车位对外出租,能够方便车主快速、精准寻找车位,节约车主寻车位时间,并在一定程度上减少了由于乱停车带来的交通拥挤情况。

    一种应用于刑侦的微表情与宏表情片段识别方法

    公开(公告)号:CN112381036A

    公开(公告)日:2021-02-19

    申请号:CN202011343361.8

    申请日:2020-11-26

    Applicant: 厦门大学

    Abstract: 一种应用于刑侦的微表情与宏表情片段识别方法,步骤一:采集犯罪嫌疑人视频信息;步骤二:将视频数据转换成图像数据,并进行人脸定位;步骤三:将人脸视频序列数据分别进行微表情片段和宏表情片段的发现;步骤四:然后将发现的微表情和宏表情片段进行相应的微表情和宏表情的识别,得出结果。本发明通过对犯罪嫌疑人视频中发现微表情和宏表情片段并对其进行识别,可以帮助更好的捕捉宏微表情序列,消除了时间,光照,和头部移动的对结果的影响,有较高的鲁棒性和泛化能力,提高预测精度。

Patent Agency Ranking