一种基于增强学习的图像描述对抗生成方法

    公开(公告)号:CN114022687B

    公开(公告)日:2024-05-10

    申请号:CN202111120908.2

    申请日:2021-09-24

    Abstract: 本发明公开了一种基于增强学习的图像描述对抗生成方法,包括如下步骤:S1,根据待描述图像检索相似图像及其文本描述;S2,构建基于注意力机制的图像描述生成网络,在待描述图像生成文本时,引入注意力机制和长短期记忆网络,将长短期记忆网络的输出,结合提取的图像特征,经过注意力机制,计算损失,得到生成的文本描述;S3,构建图像描述相似性配对判别网络;S4,利用待描述图像及其标注配对的文本描述、生成网络生成的文本描述,及其相似图像的文本描述,通过判别网络进行配对判别,根据判别网络输出的奖励值,对生成网络和判别网络进行联合迭代优化;S5,将待生成描述的图像,输入训练后的生成网络,生成文本描述。

    基于神经相似性的消费者偏好一致性预测方法

    公开(公告)号:CN116509417A

    公开(公告)日:2023-08-01

    申请号:CN202310461271.6

    申请日:2023-04-25

    Abstract: 本发明公开了一种基于神经相似性的消费者偏好一致性预测方法,包含:向被试者展示实验任务并采集脑电数据;间隔一定预设时间后向被试者展示相同的实验任务并采集脑电数据;对脑电数据进行预处理;对被试者的两次测量结果之间进行配对,构建相同反馈条件下每个受试者的被试间和被试内协方差矩阵;计算能反映两次测量间最相关的成分映射,计算每个被试者在不同电极点上的相关程度,将其均值作为神经相似性指数,即为重测信度值。本发明提供基于神经相似性的消费者偏好一致性预测方法,寻找任务对应脑区不同电极点之间的线性组合,识别具有高被试间相关性的潜在成分,基于不同成分之间的神经相似性获得受试者的重测信度值。

    脑电数据处理方法、装置、分析系统、电子装置和介质

    公开(公告)号:CN116058851B

    公开(公告)日:2023-07-04

    申请号:CN202310186693.7

    申请日:2023-02-20

    Inventor: 裴冠雄 李太豪

    Abstract: 本申请涉及一种脑电数据处理方法、装置、分析系统、电子装置和介质,其中,该脑电数据处理方法包括:获取测试采集装置发送的目标对象多个脑部区域在多个通道中的脑电数据;根据多个通道的脑电数据确定每一脑部区域对应的功率分布矩阵;基于多个功率分布矩阵,确定多个脑部区域的脑电数据之间的耦合度。通过本申请,解决了相关技术中脑电数据处理方法的准确度低的问题,提高了脑电数据处理的准确度,进而能够客观地评估目标对象的社交焦虑程度。

    一种基于增强学习的图像描述对抗生成方法

    公开(公告)号:CN114022687A

    公开(公告)日:2022-02-08

    申请号:CN202111120908.2

    申请日:2021-09-24

    Abstract: 本发明公开了一种基于增强学习的图像描述对抗生成方法,包括如下步骤:S1,根据待描述图像检索相似图像及其文本描述;S2,构建基于注意力机制的图像描述生成网络,在待描述图像生成文本时,引入注意力机制和长短期记忆网络,将长短期记忆网络的输出,结合提取的图像特征,经过注意力机制,计算损失,得到生成的文本描述;S3,构建图像描述相似性配对判别网络;S4,利用待描述图像及其标注配对的文本描述、生成网络生成的文本描述,及其相似图像的文本描述,通过判别网络进行配对判别,根据判别网络输出的奖励值,对生成网络和判别网络进行联合迭代优化;S5,将待生成描述的图像,输入训练后的生成网络,生成文本描述。

    一种融合瞳孔数据和面部表情的实时情绪识别方法及系统

    公开(公告)号:CN113837153A

    公开(公告)日:2021-12-24

    申请号:CN202111410951.2

    申请日:2021-11-25

    Abstract: 本发明属于人工智能和认知科学的交叉领域,涉及一种融合瞳孔数据和面部表情的实时情绪识别方法及系统,在沉浸式VR环境下利用HTC Vive Pro Eye虚拟现实头戴式设备和VR取像组件实时采集被试者瞳孔数据和人脸数据,提取人脸数据中的关键特征点,构造人脸几何结构特征向量,并融合瞳孔直径特征,采用支持向量机SVM分类器进行分类,从而在沉浸式环境中实时识别被试者情绪。本发明基于沉浸式VR头戴式设备进行实时人脸捕捉,同时融合瞳孔数据进行实时情绪识别,提高了情绪识别的准确率,能够在沉浸式虚拟现实环境中进行实时隐式测量,在情绪研究领域具有广泛的应用前景。

    一种基于视频基础单元分析的复杂行为识别方法

    公开(公告)号:CN112990122B

    公开(公告)日:2021-08-17

    申请号:CN202110448783.X

    申请日:2021-04-25

    Abstract: 本发明公开了一种基于视频基础单元分析的复杂行为识别方法。该方法将视频的行为识别拆分为时序上的原子行为,空间上基于目标检测和场景识别提取视频中的物体和背景信息,并将提取的语义信息送入时序模型进行分析。该方法相比以往的视频行为识别,将视频在时间和空间上进行分解为基础任务进行检测和识别,可解释性更强。同时基于此方法,可以针对不同的任务情况,选择性的提取需要的基础单元信息,通过拆分的方法增强了复杂行为识别任务的灵活性。

    一种基于视频基础单元分析的复杂行为识别方法

    公开(公告)号:CN112990122A

    公开(公告)日:2021-06-18

    申请号:CN202110448783.X

    申请日:2021-04-25

    Abstract: 本发明公开了一种基于视频基础单元分析的复杂行为识别方法。该方法将视频的行为识别拆分为时序上的原子行为,空间上基于目标检测和场景识别提取视频中的物体和背景信息,并将提取的语义信息送入时序模型进行分析。该方法相比以往的视频行为识别,将视频在时间和空间上进行分解为基础任务进行检测和识别,可解释性更强。同时基于此方法,可以针对不同的任务情况,选择性的提取需要的基础单元信息,通过拆分的方法增强了复杂行为识别任务的灵活性。

    一种基于语义、情感惯性和情感共性的对话情感分析方法

    公开(公告)号:CN112579762B

    公开(公告)日:2021-06-08

    申请号:CN202110205409.7

    申请日:2021-02-24

    Abstract: 本发明涉及到情感分析领域,提出了一种基于语义、情感惯性和情感共性的对话情感分析方法,步骤包括:首先获取对话交替进行的多轮对话数据,并对不同人物角色进行标明;然后对多轮对话中的每条对话信息进行时序建模,提取出其中对应的语义信息表达序列;最后基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列,并进行情感识别。在本发明中,打破了传统的以语义信息决定情感分类的做法,提出了由语义状态与情感状态分离的方法,由情感状态决定情感分类,从心理学的角度改进了现有对话情感分析方法,提升了情感识别的效果。

    一种基于门机制多模态融合的情感分析方法

    公开(公告)号:CN112597841A

    公开(公告)日:2021-04-02

    申请号:CN202011468475.5

    申请日:2020-12-14

    Abstract: 本发明涉及到多模态情感分析领域,提出了一种基于门机制多模态融合的情感分析方法,具体为:首先获取多模态情感分析数据,针对不同模态特点提取特征表示;通过不同模态特征的表示获得每个模态特征对应的模态信息门;使用不同模态信息门对各模态进行模态增强,丰富模态信息表示;拼接不同模态表示得到多模态融合表示,使用多模态融合表示进行情感分类。本发明可以更好地增强主体情感表达模态的作用,削弱冗余情感表达模态的负面影响,帮助多模态特征情感识别更加精确。

    一种基于卷积长短期记忆网络的人脸表情识别方法

    公开(公告)号:CN112580527A

    公开(公告)日:2021-03-30

    申请号:CN202011533235.9

    申请日:2020-12-22

    Abstract: 本发明涉及图像识别技术领域,尤其涉及一种基于卷积长短期记忆网络的人脸表情识别方法,包括:步骤1、从待识别表情图像中检测出对应的人脸区域,并截取人脸区域图像块,用来进行表情识别;步骤2、将获取的人脸区域划分成多个人脸子区域图像块;步骤3、将人脸子区域图像块归一化至同一尺寸;步骤4、将归一化后的人脸子区域图像块输入ConvLSTM模型进行特征融合和特征分类。本发明能够有效降低脸部姿态对表情识别的影响,降低特征提取和特征分类分步实现导致的累计误差,提高表情识别准确率。

Patent Agency Ranking