-
公开(公告)号:CN115527270A
公开(公告)日:2022-12-27
申请号:CN202211233140.4
申请日:2022-10-10
Applicant: 杭州电子科技大学
IPC: G06V40/20 , G06V10/52 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种密集人群环境中的特定行为识别方法,包括如下步骤:S1、数据集获取,所述数据集包括行人检测数据集和行为识别数据集;S2、数据集预处理;S3、将预处理后的行人检测数据集中的图像输入至特征图金字塔网络提取出对应的特征,在通过区域生成网络生成候选区域以及该候选区域的类别信息;S4、使用极大值抑制算法去除重叠目标;S5、基于残差网络的分类识别网络进行特定行为目标的识别;S6、训练分类识别网络的网格参数;S7、通过步骤S6得到最优网格参数,并导入分类识别网络中,通过行为识别数据集进行测试。该方法对密集人群这一特殊环境,通过融合检测与识别任务的两阶段,实现密集人群环境中特定行为的检测识别任务。
-
公开(公告)号:CN114145754A
公开(公告)日:2022-03-08
申请号:CN202111522093.0
申请日:2021-12-13
Applicant: 杭州电子科技大学
Abstract: 本发明公开了基于EEG交叉频率耦合的卒中脑功能评估装置。对卒中状态或健康状态被试在运动想象任务下的多通道脑电数据进行采集和预处理,提取刺激后的有效数据段;计算每个数据段的频段内以及频段间相相耦合关系;提取多尺度脑网络指标,包括全脑平均功能连接值、半球尺度上的平均功能连接值、特征路径长度、以及聚类系数指标,依据欧几里德距离评估脑功能状态。本发明突破了单频段脑网络分析的局限性,通过交叉频率脑网络进行有效的卒中脑功能评估。
-
公开(公告)号:CN111178389B
公开(公告)日:2022-02-11
申请号:CN201911244389.3
申请日:2019-12-06
Applicant: 杭州电子科技大学
Abstract: 本发明涉及基于多通道张量池化的多模态深度分层融合情感分析方法。基于注意力机制方法,可以对多模态数据设定相应权重,划分不同模态数据的重要程度,从而根据不同模态数据对任务的不同贡献程度,在融合部分放大贡献程度大的多模态数据在交互时的作用。而相对于单通道多项式张量池化模块,多通道多项式张量池化模块能够从细粒度层面获得鲁棒性高的局部高维度复杂非线性交互信息。本发明在判定多模态数据重要程度基础上,能从细粒度层面刻画稳定的局部高维复杂动态交互信息,是对当前情感识别领域的多模态融合框架的有效补充。
-
公开(公告)号:CN113537292A
公开(公告)日:2021-10-22
申请号:CN202110678075.5
申请日:2021-06-18
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种基于张量化高阶互注意力机制的多源域适应方法。通过共享子网络构建初级特征提取器以提取多源域数据的浅层共有特征。其次,分别构造不同源域的深层特征提取器,目标域数据分别通过这些深层特征提取器以提取与不同源域相关的特征。在深层特征的基础上,通过高阶互注意力机制挖掘多源域空间深层特征之间的高阶相关性,并应用于目标域,从而与度量目标域与源域特征分布差异的损失函数一起指导目标域与源域的域不变特征提取。最后,分别训练每个源域的特征分类器,将目标域数据特征分别输入这些分类器,得到所有预测结果的平均作为最终目标域数据的预测结果。本发明有效挖掘多源域特征间的相关性,适用于多源域适应。
-
公开(公告)号:CN113081001A
公开(公告)日:2021-07-09
申请号:CN202110390268.0
申请日:2021-04-12
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种同步EEG‑fMRI脑电信号去BCG伪迹方法。对在普通环境和核磁共振环境下的睁眼、闭眼状态多通道头皮脑电信号进行采集和预处理,然对其进行数据分割,构建睁眼和闭眼状态数据集;利用上述睁眼和闭眼状态数据集分别进行去除BCG伪迹的睁眼网络模型和闭眼网络模型训练;该模型采用基于CycleGAN网络架构模型BCGGAN;BCGGAN包括CycleGAN、自编码器约束、中间特征约束。本发明在尽可能去除BCG伪迹的同时,能更好地有效保留脑电信息。
-
公开(公告)号:CN112612936A
公开(公告)日:2021-04-06
申请号:CN202011581373.4
申请日:2020-12-28
Applicant: 杭州电子科技大学
IPC: G06F16/906 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开一种基于对偶转换网络的多模态情感分类方法。本发明结合对偶学习机制以及自注意力机制,在将一个模态转换为另一个模态的过程中,挖掘模态对之间具有方向性的长时交互的跨模态融合信息。同时,对偶学习技术能够增强模型的鲁棒性,因此能很好地应对多模态学习中存在的固有问题——模态数据缺失问题。其次,在此基础上构建的分层融合框架,将所有具有同一个源模态的跨模态融合信息拼接在一块,从而采用一维卷积层进行融合操作,能够进一步挖掘多模态信息之间的高层次互补信息,是对当前情感识别领域的多模态融合框架的有效补充。
-
-
-
-
-