-
公开(公告)号:CN112545519B
公开(公告)日:2021-06-04
申请号:CN202110196796.2
申请日:2021-02-22
Applicant: 之江实验室
Abstract: 本发明公开了一种群体情感同质性的实时评估方法和评估系统,被试者置身于相同的情感诱发环境中,利用联机多通道的脑电设备同时采集多人原始脑电信号,基于小波变换后得到的β频段每秒钟的平均瞬时相位和α频段每秒钟的能量值,实时计算时间同步程度和效价一致程度,并最终得到群体情感同质性指数,用于群体情感同质性的客观评估。本发明实现了多人同步实时测量和分析,能够过程化地对群体情感同质性进行动态监测,有效避免了传统测量手段事后采样、主观性强、社会期许偏差等问题,具有广泛的市场应用前景。
-
公开(公告)号:CN112545519A
公开(公告)日:2021-03-26
申请号:CN202110196796.2
申请日:2021-02-22
Applicant: 之江实验室
Abstract: 本发明公开了一种群体情感同质性的实时评估方法和评估系统,被试者置身于相同的情感诱发环境中,利用联机多通道的脑电设备同时采集多人原始脑电信号,基于小波变换后得到的β频段每秒钟的平均瞬时相位和α频段每秒钟的能量值,实时计算时间同步程度和效价一致程度,并最终得到群体情感同质性指数,用于群体情感同质性的客观评估。本发明实现了多人同步实时测量和分析,能够过程化地对群体情感同质性进行动态监测,有效避免了传统测量手段事后采样、主观性强、社会期许偏差等问题,具有广泛的市场应用前景。
-
公开(公告)号:CN111651060A
公开(公告)日:2020-09-11
申请号:CN202010795119.8
申请日:2020-08-10
Applicant: 之江实验室
Abstract: 本发明公开一种VR沉浸效果的实时评估方法和评估系统,在VR视频播放的同时采集脑电信号,基于小波变换后得到的α、β、θ频段能量,实时计算情感唤醒程度和认知专注程度,并最终得到动态监测的沉浸效果指数,用于沉浸效果的客观评估。本发明实现了实时测量和分析,能够过程化地对VR视频的沉浸效果进行动态监测,指标采用多维度的综合计算策略并考虑到个体差异性,有效解决了问卷测量等手段事后报告、社会期许偏差、主观性强等问题,具有广泛的市场应用前景。
-
公开(公告)号:CN116058851A
公开(公告)日:2023-05-05
申请号:CN202310186693.7
申请日:2023-02-20
Applicant: 之江实验室
Abstract: 本申请涉及一种脑电数据处理方法、装置、分析系统、电子装置和介质,其中,该脑电数据处理方法包括:获取测试采集装置发送的目标对象多个脑部区域在多个通道中的脑电数据;根据多个通道的脑电数据确定每一脑部区域对应的功率分布矩阵;基于多个功率分布矩阵,确定多个脑部区域的脑电数据之间的耦合度。通过本申请,解决了相关技术中脑电数据处理方法的准确度低的问题,提高了脑电数据处理的准确度,进而能够客观地评估目标对象的社交焦虑程度。
-
公开(公告)号:CN115481679A
公开(公告)日:2022-12-16
申请号:CN202211045970.4
申请日:2022-08-30
IPC: G06K9/62
Abstract: 本发明属于多模态情感分析领域,公开了一种多模态情感分析方法及其系统,包括S1:对语音、文本和图像模态序列进行编码,再经过1维卷积得到所有模态的特征表示,并将其作为双阶段特征融合的输入特征;S2:设计了一个堆叠Transformer,S3:第一阶段利用堆叠Transformer文本模态与视觉和声学两种非文本模态进行交互互补,并输出适应后的文本和非文本模态;S4:第二阶段将第一阶段输出的增强文本模态信息与原始输入联合表示,然后提取融合表示之间的潜在适应性;最后再融合两个阶段获得的相应信息以预测情感状态。本发明显著提升了多模态情感分析分类的准确率。
-
公开(公告)号:CN115439729A
公开(公告)日:2022-12-06
申请号:CN202210944619.2
申请日:2022-08-08
Applicant: 之江实验室 , 中国科学院信息工程研究所
IPC: G06V10/82 , G06V10/774 , G06V10/764 , G06N3/04 , G06N3/08
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于交替迭代优化的场景图生成装置和方法,包括图像物体检测模块、场景图物体识别模块和场景图关系识别模块。该方法通过设计关系敏感的消息传递网络,充分利用图像中的上下文信息优化物体特征,并交替迭代优化模型的物体识别与关系识别能力,实现高精度场景图生成。相比传统方法,该方法解决了上下文信息缺失的问题并缓解了模型架构的错误传递问题。同时,由于避免了对物体与物体、物体与关系的共同出现频率的统计信息的利用,降低了模型训练后对特定数据集的依赖性。综上所述,对于自然场景图像,本发明通过对上下文的充分利用与对模型中不同部分的交替迭代优化,生成高精度的场景图预测结果。
-
公开(公告)号:CN114723935A
公开(公告)日:2022-07-08
申请号:CN202210227954.0
申请日:2022-03-08
Applicant: 之江实验室 , 中国科学院信息工程研究所
Abstract: 本发明公开一种基于自适应数量的辨别性区域定位与表示方法,主要流程包括提取输入图像的深度特征;对特征进行自注意力变换得到自注意力图,与提取的类别激活图进行融合得到显著性图;对显著性图提取候选采样点,进一步扩展为自适应数量的辨别性区域。本发明用于细粒度图像识别,可以自适应数量地对辨别性区域进行定位和表示,可以取得很高的识别准确率。
-
公开(公告)号:CN114677569A
公开(公告)日:2022-06-28
申请号:CN202210148651.X
申请日:2022-02-17
Applicant: 之江实验室 , 中国科学院信息工程研究所
Abstract: 本发明公开一种基于特征解耦合的文字‑图像对生成方法和装置,该方法首先利用带标注的文字‑图像对数据训练编码器,将文字和图像两种模态映射到同一个隐空间;然后利用无标注的图像数据训练图像编码器和解码器,同时利用无标注的文字数据训练文字编码器与解码器;利用训练好的文字‑图像特征编码器网络提取文字‑图像初始特征,在隐空间加入随机采样的噪声后进行解耦合,利用解码器生成多样化的文字‑图像对。本发明在自然场景中,例如改变纹理、颜色等高层语义属性,都可以实现较好的文本‑图像数据编辑。
-
公开(公告)号:CN113837153B
公开(公告)日:2022-03-18
申请号:CN202111410951.2
申请日:2021-11-25
Applicant: 之江实验室
IPC: G06V40/16 , G06V40/18 , G06V10/764 , G06V10/774 , G06K9/62
Abstract: 本发明属于人工智能和认知科学的交叉领域,涉及一种融合瞳孔数据和面部表情的实时情绪识别方法及系统,在沉浸式VR环境下利用HTC Vive Pro Eye虚拟现实头戴式设备和VR取像组件实时采集被试者瞳孔数据和人脸数据,提取人脸数据中的关键特征点,构造人脸几何结构特征向量,并融合瞳孔直径特征,采用支持向量机SVM分类器进行分类,从而在沉浸式环境中实时识别被试者情绪。本发明基于沉浸式VR头戴式设备进行实时人脸捕捉,同时融合瞳孔数据进行实时情绪识别,提高了情绪识别的准确率,能够在沉浸式虚拟现实环境中进行实时隐式测量,在情绪研究领域具有广泛的应用前景。
-
公开(公告)号:CN113257225A
公开(公告)日:2021-08-13
申请号:CN202110600732.4
申请日:2021-05-31
Applicant: 之江实验室
IPC: G10L13/10 , G10L13/08 , G06F40/289 , G06F40/30
Abstract: 本发明属于人工智能领域,具体涉及一种融合词汇及音素发音特征的情感语音合成方法及系统,该方法为:通过录音采集设备,采集文本及情感标签,对所述文本进行预处理,获取音素及音素对齐信息,生成分词及分词语义信息,分别计算并得到分词发音时长信息、分词发音语速信息、分词发音能量信息、音素基频信息,分别训练分词语速预测网络、分词能量预测网络、音素基频预测网络,获取并拼接音素隐含信息、分词语速隐含信息、分词能量隐含信息、音素基频隐含信息,合成情感语音。本发明通过将与情感发音有关的词汇及音素发音特征融合到端到端语音合成模型中去,能够使得合成的情感语音更加自然。
-
-
-
-
-
-
-
-
-