-
公开(公告)号:CN112579762A
公开(公告)日:2021-03-30
申请号:CN202110205409.7
申请日:2021-02-24
Applicant: 之江实验室
IPC: G06F16/332 , G06F40/35
Abstract: 本发明涉及到情感分析领域,提出了一种基于语义、情感惯性和情感共性的对话情感分析方法,步骤包括:首先获取对话交替进行的多轮对话数据,并对不同人物角色进行标明;然后对多轮对话中的每条对话信息进行时序建模,提取出其中对应的语义信息表达序列;最后基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列,并进行情感识别。在本发明中,打破了传统的以语义信息决定情感分类的做法,提出了由语义状态与情感状态分离的方法,由情感状态决定情感分类,从心理学的角度改进了现有对话情感分析方法,提升了情感识别的效果。
-
公开(公告)号:CN114677569B
公开(公告)日:2024-05-10
申请号:CN202210148651.X
申请日:2022-02-17
Applicant: 之江实验室 , 中国科学院信息工程研究所
IPC: G06F18/25 , G06V10/80 , G06V10/44 , G06V30/18 , G06V10/82 , G06N3/0455 , G06N3/0475 , G06N3/0442 , G06N3/094
Abstract: 本发明公开一种基于特征解耦合的文字‑图像对生成方法和装置,该方法首先利用带标注的文字‑图像对数据训练编码器,将文字和图像两种模态映射到同一个隐空间;然后利用无标注的图像数据训练图像编码器和解码器,同时利用无标注的文字数据训练文字编码器与解码器;利用训练好的文字‑图像特征编码器网络提取文字‑图像初始特征,在隐空间加入随机采样的噪声后进行解耦合,利用解码器生成多样化的文字‑图像对。本发明在自然场景中,例如改变纹理、颜色等高层语义属性,都可以实现较好的文本‑图像数据编辑。
-
公开(公告)号:CN116509417B
公开(公告)日:2024-03-12
申请号:CN202310461271.6
申请日:2023-04-25
Abstract: 本发明公开了一种基于神经相似性的消费者偏好一致性预测方法,包含:向被试者展示实验任务并采集脑电数据;间隔一定预设时间后向被试者展示相同的实验任务并采集脑电数据;对脑电数据进行预处理;对被试者的两次测量结果之间进行配对,构建相同反馈条件下每个受试者的被试间和被试内协方差矩阵;计算能反映两次测量间最相关的成分映射,计算每个被试者在不同电极点上的相关程度,将其均值作为神经相似性指数,即为重测信度值。本发明提供基于神经相似性的消费者偏好一致性预测方法,寻找任务对应脑区不同电极点之间的线性组合,识别具有高被试间相关性的潜在成分,基于不同成分之间的神经相似性获得受试者的重测信度值。
-
公开(公告)号:CN113143296B
公开(公告)日:2022-08-30
申请号:CN202110425756.0
申请日:2021-04-20
Abstract: 本发明公开了一种沟通障碍的智能评估方法及评估系统,被试者置身于对话交流场景中,利用联机多通道脑电设备同步采集双人原始脑电信号,基于信号预处理、小波变换和溯源分析得到每秒钟特定通道的θ、α频段平均瞬时相位以及右侧布鲁德曼45脑区的α频段能量值,计算信息迁移程度和感知共情程度,用于个体认知沟通障碍和情感沟通障碍的客观评估。本发明实现了对交流过程的实时监测和动态分析,构建了双人同步采样机制,从认知障碍和情感障碍两个方面形成综合评价策略,有效避免了传统测量手段事后采样、主观程度高、社会期许效应、沟通障碍人群表达偏差等问题,具有广泛的市场应用前景。
-
公开(公告)号:CN114463827A
公开(公告)日:2022-05-10
申请号:CN202210380482.2
申请日:2022-04-12
Applicant: 之江实验室
IPC: G06V40/16 , G06V10/774 , G06K9/62 , G10L25/63
Abstract: 本发明提出了一种基于DS证据理论的多模态实时情绪识别方法及系统,该方法包括:步骤一,搭建虚拟现实场景,部署语音对话模块和面部表情识别模块,被试者通过语音对话模块进行实时语音对话,并通过虚拟现实头戴式设备同步采集被试者语音数据、人脸数据和瞳孔数据;步骤二,在语音数据上提取特征向量,输入到训练好的语音情绪识别模型,输出语音情绪识别结果;步骤三,在人脸数据上提取人脸几何特征向量,融合瞳孔直径特征,输入到训练好的面部表情情绪识别模型,输出面部表情情绪识别结果;步骤四,将语音情绪识别结果和面部表情情绪识别结果通过DS证据理论融合得到综合情绪识别结果。本发明能有效提高情绪识别的准确率,具有广泛的应用前景。
-
公开(公告)号:CN113576482A
公开(公告)日:2021-11-02
申请号:CN202111141810.5
申请日:2021-09-28
Applicant: 之江实验室
Abstract: 本发明属于注意偏向训练技术领域,涉及一种基于复合表情加工的注意偏向训练评估系统和方法,招募正常组和社交焦虑组的被试者,利用多通道脑电测量设备采集原始脑电信号,并提取P100脑电成分的平均潜伏期特征和N170、P300脑电成分的平均波幅特征作为神经指标,通过社交焦虑组前测复合表情刺激测试与常模复合表情刺激测试、社交焦虑组后测复合表情刺激测试与常模复合表情刺激测试的指标水平差异性检验,对注意偏向训练的效果进行客观评估和优化。本发明可以有效避免传统测量手段事后采样、主观性强、社会期许偏差等问题,同时具有非侵入性、安全高效、成本较低的特点,具有广泛的市场应用前景。
-
公开(公告)号:CN113257225B
公开(公告)日:2021-11-02
申请号:CN202110600732.4
申请日:2021-05-31
Applicant: 之江实验室
IPC: G10L13/10 , G10L13/08 , G06F40/289 , G06F40/30
Abstract: 本发明属于人工智能领域,具体涉及一种融合词汇及音素发音特征的情感语音合成方法及系统,该方法为:通过录音采集设备,采集文本及情感标签,对所述文本进行预处理,获取音素及音素对齐信息,生成分词及分词语义信息,分别计算并得到分词发音时长信息、分词发音语速信息、分词发音能量信息、音素基频信息,分别训练分词语速预测网络、分词能量预测网络、音素基频预测网络,获取并拼接音素隐含信息、分词语速隐含信息、分词能量隐含信息、音素基频隐含信息,合成情感语音。本发明通过将与情感发音有关的词汇及音素发音特征融合到端到端语音合成模型中去,能够使得合成的情感语音更加自然。
-
公开(公告)号:CN113159844A
公开(公告)日:2021-07-23
申请号:CN202110426428.2
申请日:2021-04-20
Abstract: 本发明提供一种基于眼球轨迹追踪的广告智能评估方法及系统,方法包括获取标准数据集;获取标准广告对象的标准关键区域集合;获取用户集群观察标准广告对象时生成的眼动数据集合(处理后的注视点集合和视线变化数据集合),对标准关键区域集合、注视点集合和视线变化数据集合进行关联分析,从而建构数据关系,并根据数据关系获取标准广告对象对应的标准评估结果,建立映射关系数据库;根据待评估广告对象的类别特征和关键特征对映射关系数据库进行筛选,运用筛选后的所有标准广告对象对应的标准评估结果,对待评估广告对象进行评估,以得到预测评估结果。有益效果:获取预测评估结果时不需要再次获取用户集群观察待评估广告对象时的眼动数据。
-
公开(公告)号:CN113143296A
公开(公告)日:2021-07-23
申请号:CN202110425756.0
申请日:2021-04-20
Abstract: 本发明公开了一种沟通障碍的智能评估方法及评估系统,被试者置身于对话交流场景中,利用联机多通道脑电设备同步采集双人原始脑电信号,基于信号预处理、小波变换和溯源分析得到每秒钟特定通道的θ、α频段平均瞬时相位以及右侧布鲁德曼45脑区的α频段能量值,计算信息迁移程度和感知共情程度,用于个体认知沟通障碍和情感沟通障碍的客观评估。本发明实现了对交流过程的实时监测和动态分析,构建了双人同步采样机制,从认知障碍和情感障碍两个方面形成综合评价策略,有效避免了传统测量手段事后采样、主观程度高、社会期许效应、沟通障碍人群表达偏差等问题,具有广泛的市场应用前景。
-
公开(公告)号:CN112712824B
公开(公告)日:2021-06-29
申请号:CN202110322720.X
申请日:2021-03-26
Applicant: 之江实验室
Abstract: 本发明属于人工智能领域,具体涉及一种融合人群信息的语音情感识别方法和系统,该方法包括以下步骤:S1、采集用户语音信号;S2、预处理语音信号,获取梅尔谱;S3、切除梅尔谱前后静音段;S4、通过人群分类网络获取深度人群信息;S5、通过梅尔谱预处理网络获取梅尔谱深度信息;S6、通过SENet融合特征,获取融合信息;S7、通过分类网络,得到情感识别结构。本发明融合人群信息特征,使情感特征提取更加准确,通过SENet的通道注意力机制进行信息融合,能够有效的进行深度特征的提取,提高整体识别精度。
-
-
-
-
-
-
-
-
-