-
公开(公告)号:CN114613522A
公开(公告)日:2022-06-10
申请号:CN202210224428.9
申请日:2022-03-09
Applicant: 南京信息工程大学
Abstract: 本发明涉及VR医疗技术领域,尤其涉及一种基于VR技术的虚拟智慧医生问诊系统,问诊系统包括VR终端、用户终端、服务器、医院终端、拍摄模块和语音识别模块,所述VR终端通过服务器与医院终端进行信息传递,所述VR终端用于向用户展示虚拟医疗场景,所述医院终端用于向医疗机构传递用户的咨询问题,医疗机构能够通过医院终端和服务器提供、更新医疗问题答案,并将答案存储到所述VR终端,所述拍摄模块用于供医疗机构更新本机构信息以及药品信息,所述语音识别模块用于供用户提问和虚拟医生回答。用户通过VR终端,能够与系统中的虚拟医生交流,咨询医疗问题并获得解答,能够与系统中的药品进行交互,获得适应症、用法用量、主要成分等信息。
-
公开(公告)号:CN118839701B
公开(公告)日:2025-04-01
申请号:CN202411328293.6
申请日:2024-09-24
Applicant: 南京信息工程大学
IPC: G06F40/30 , G06F18/10 , G06F18/2415 , G06F40/232 , G06F40/126 , G06F40/205 , G06F40/186 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开了一种融合交互式会话语境和会话者身份属性的情感识别方法,采集由多人参与的交互式会话记录,构建参与者会话队列;创建语境增强的交互式话语列表,通过提示驱动的情绪模板生成情绪感知增强的个性化话语表达,进行数值化处理并输入到SimCSE模型生成话语的情感嵌入特征;情感嵌入特征被组织成相同数量的批次,输入构建的EmoNet情绪编码器计算信息熵损失和正则化对比学习损失,将两种损失融合为混合对比学习损失用于训练EmoNet网络,优化情感识别的精确度;使用训练好的EmoNet对新输入的数据进行情感分类。本发明适用于大规模互动对话数据的多种应用场景,有效提升了情感识别的自动化水平和适应性。
-
公开(公告)号:CN118538367A
公开(公告)日:2024-08-23
申请号:CN202411003151.2
申请日:2024-07-25
Applicant: 南京信息工程大学
Abstract: 本发明公开了生物行为识别领域的一种基于面部和体态行为感知的渐进性放松训练方法,包括,播放预先设计的用于渐进性放松训练的音频;在音频播放过程中,执行以下训练操作:获取被训练人的图像数据;其中图像数据包括面部图像和躯体图像;基于面部图像,通过Blaze Face算法获取面部关键点信息,面部关键点信息包括双眼关键点信息和嘴巴关键点信息;根据双眼关键点信息计算双眼开合比,根据嘴巴关键点信息计算嘴巴开合比;基于躯体图像,通过Blaze Pose算法获取身体关键点信息,计算头‑肩夹角;根据双眼开合比、嘴巴开合比和头‑肩夹角,确定眼部特征值、嘴巴特征值和体态特征值;根据眼部特征值、嘴巴特征值和体态特征值,控制训练音频的播放。
-
公开(公告)号:CN118538367B
公开(公告)日:2024-11-19
申请号:CN202411003151.2
申请日:2024-07-25
Applicant: 南京信息工程大学
Abstract: 本发明公开了生物行为识别领域的一种基于面部和体态行为感知的渐进性放松训练方法,包括,播放预先设计的用于渐进性放松训练的音频;在音频播放过程中,执行以下训练操作:获取被训练人的图像数据;其中图像数据包括面部图像和躯体图像;基于面部图像,通过Blaze Face算法获取面部关键点信息,面部关键点信息包括双眼关键点信息和嘴巴关键点信息;根据双眼关键点信息计算双眼开合比,根据嘴巴关键点信息计算嘴巴开合比;基于躯体图像,通过Blaze Pose算法获取身体关键点信息,计算头‑肩夹角;根据双眼开合比、嘴巴开合比和头‑肩夹角,确定眼部特征值、嘴巴特征值和体态特征值;根据眼部特征值、嘴巴特征值和体态特征值,控制训练音频的播放。
-
公开(公告)号:CN118839701A
公开(公告)日:2024-10-25
申请号:CN202411328293.6
申请日:2024-09-24
Applicant: 南京信息工程大学
IPC: G06F40/30 , G06F18/10 , G06F18/2415 , G06F40/232 , G06F40/126 , G06F40/205 , G06F40/186 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开了一种融合交互式会话语境和会话者身份属性的情感识别方法,采集由多人参与的交互式会话记录,构建参与者会话队列;创建语境增强的交互式话语列表,通过提示驱动的情绪模板生成情绪感知增强的个性化话语表达,进行数值化处理并输入到SimCSE模型生成话语的情感嵌入特征;情感嵌入特征被组织成相同数量的批次,输入构建的EmoNet情绪编码器计算信息熵损失和正则化对比学习损失,将两种损失融合为混合对比学习损失用于训练EmoNet网络,优化情感识别的精确度;使用训练好的EmoNet对新输入的数据进行情感分类。本发明适用于大规模互动对话数据的多种应用场景,有效提升了情感识别的自动化水平和适应性。
-
-
-
-