基于增量式超限向量回归机集成网络的实时电力负荷预测方法

    公开(公告)号:CN105160441A

    公开(公告)日:2015-12-16

    申请号:CN201510673385.2

    申请日:2015-10-16

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于增量式超限向量回归机集成网络的实时电力负荷预测方法,包含在线学习和在线负荷预测阶段。在线学习阶段包括以下步骤:实时采集第1批次电力负荷数据和影响因素数据并归一化;初始化II-ESVR模型;实时采集第k+1(k≥1)批次电力负荷和影响因素数据,归一化并进行增量学习训练。在线负荷预测阶段包括以下步骤:实时采集一批相关影响因素的数据,归一化并作为模型的输入;基于学习阶段的II-ESVR模型及参数,实时计算预测结果。本发明通过增量式超限向量回归机集成网络的实时电力负荷预测方法,解决数据多样性造成的不稳定问题,该方法具有“快、稳、准”的特点,能够满足电力负荷预测未来发展的需求。

    一种基于特征解纠缠表示的红外与可见光图像融合方法

    公开(公告)号:CN117809146B

    公开(公告)日:2024-07-23

    申请号:CN202311700020.5

    申请日:2023-12-11

    Applicant: 江南大学

    Abstract: 本申请公开了一种基于特征解纠缠表示的红外与可见光图像融合方法,涉及图像融合技术领域,该方法利用两个双编码器分别提取红外源图像和可见光源图像的共享特征和模态独有特征,然后对两组共享特征进行融合,对两组模态镀有特征进行融合,再经过解码器得到融合后的图像。该方法在对红外和可见光图像中的深度特征进行解纠缠分离共享特征和独有特征的基础上,采用经过深度优化的融合策略完成图像融合。这种方法不仅确保了融合图像中两种模态的核心信息得到完整体现,而且避免了混合处理特征而导致的图像失真,确保生成的融合图像的质量。

    引入群体情绪感染的原型增强小样本对话情感识别方法

    公开(公告)号:CN116521875B

    公开(公告)日:2023-10-31

    申请号:CN202310515226.4

    申请日:2023-05-09

    Applicant: 江南大学

    Inventor: 蒋敏 王梦迪 孔军

    Abstract: 本发明公开了引入群体情绪感染的原型增强小样本对话情感识别方法,涉及自然语言处理技术领域,针对现有的小样本对话情感识别方法直接根据对话中语句类别采样导致的各类别语句不均衡问题,本方法引入自适应交叉采样策略,根据对话中各类别语句数量进行自适应分组,并根据不同组之间的比例进行采样,有效缓解了各类别语句不平衡问题。同时,在考虑对话上下文信息方面,本方法引入了群体情绪感染机制构建加权有向无环图,有效区分了他人与说话者本人对说话者的不同影响。此外,本方法基于原型网络提出了增强对话原型网络,通过动态加权计算对话内各类别语句原型再平均的方法,增强了对话内语句类原型表示。

    基于骨架数据时空特征差异性和相关性的行为识别方法

    公开(公告)号:CN116434339B

    公开(公告)日:2023-10-27

    申请号:CN202310399333.5

    申请日:2023-04-13

    Applicant: 江南大学

    Inventor: 蒋敏 卿入心 孔军

    Abstract: 本申请公开了一种基于骨架数据时空特征差异性和相关性的行为识别方法,涉及计算机视觉领域,该方法搭建的行为识别模块中包含空间图卷积模块和时间图卷积模块,空间图卷积模块包括时间特征学习单元、通道特征学习单元和时间通道上下文拓扑单元,时间特征学习单元和通道特征学习单元用于分别独立地学习时间帧维度和通道维度中关节之间的特征差异性和特征相关性,学习协同完成动作的关节之间特征的相关性,也学习因为运动发生而发生变化部分关节的特征差异性,时间通道上下文拓扑单元学习所有关节的全局上下文特征信息,获取更多具有判别性的特征,融合后可以更有效地人体行为识别。

    引入群体情绪感染的原型增强小样本对话情感识别方法

    公开(公告)号:CN116521875A

    公开(公告)日:2023-08-01

    申请号:CN202310515226.4

    申请日:2023-05-09

    Applicant: 江南大学

    Inventor: 蒋敏 王梦迪 孔军

    Abstract: 本发明公开了引入群体情绪感染的原型增强小样本对话情感识别方法,涉及自然语言处理技术领域,针对现有的小样本对话情感识别方法直接根据对话中语句类别采样导致的各类别语句不均衡问题,本方法引入自适应交叉采样策略,根据对话中各类别语句数量进行自适应分组,并根据不同组之间的比例进行采样,有效缓解了各类别语句不平衡问题。同时,在考虑对话上下文信息方面,本方法引入了群体情绪感染机制构建加权有向无环图,有效区分了他人与说话者本人对说话者的不同影响。此外,本方法基于原型网络提出了增强对话原型网络,通过动态加权计算对话内各类别语句原型再平均的方法,增强了对话内语句类原型表示。

    基于视频的并行时空注意力行人重识别方法

    公开(公告)号:CN111310633B

    公开(公告)日:2023-05-05

    申请号:CN202010084877.9

    申请日:2020-02-10

    Applicant: 江南大学

    Inventor: 孔军 滕振德 蒋敏

    Abstract: 基于视频的并行时空注意力行人重识别方法,属于计算机视觉领域。本发明提出的并行时空网络模型,能够同时提取行人的时序特征和空间特征,显著减少了行人信息的损失。此外为获取更具有辨识性的时序特征,本发明提出了全局时序注意力模块,同时为获取更具有辨识性的空间特征本发明引入了空间卷积注意力模块。全局时序注意力模块能够选择出辨识性更强的视频帧,同时空间卷积注意力模块能够对显著性区域进行特征提取。最终本发明使用特征融合的方法对时序特征和空间特征进行联合,从而获得更加完整的行人特征用于行人的重识别,极大提高了行人重识别模型的鲁棒性。

    基于Multiformer及离群样本重分配的无监督行人重识别方法

    公开(公告)号:CN115601791A

    公开(公告)日:2023-01-13

    申请号:CN202211404730.9

    申请日:2022-11-10

    Abstract: 本发明涉及一种基于Multiformer及离群样本重分配的无监督行人重识别方法。其基于Transformer网络构建多分支网络识别模型Multiformer,包括单相机域Intraformer网络以及多相机域Interformer网络,所有的单相机域Intraformer网络共享骨干网络参数,增强泛化能力,在一定程度上缓解了由不同相机域的背景、光照等带来的域间差异,提高了模型对噪音伪标签的鲁棒性,进一步提升了无监督行人重识别的精度。利用自适应离群样本重分配,可扩展伪标签的数量,增强了多分支网络识别模型Multiformer的特征表示能力。在模型训练时,利用实例级对比学习与聚类级对比学习组成的联合学习,可以大幅度提高聚类的准确度,缓解噪音伪标签的问题,从而有效提高无监督行人重识别的准确性与鲁棒性。

    基于异构双网络和特征一致性的行人重识别模型训练方法

    公开(公告)号:CN114333062A

    公开(公告)日:2022-04-12

    申请号:CN202111674399.8

    申请日:2021-12-31

    Applicant: 江南大学

    Inventor: 孔军 周花 蒋敏

    Abstract: 本发明公开了一种基于异构双网络和特征一致性的域自适应行人重识别模型训练方法、设备、装置及计算机存储介质和行人重识别方法,本发明设计了一个异构双网络框架,它包含两个非对称分支,其中一个使用感受野有限的卷积来获取局部信息,另一个使用Transformer模块来捕获长程依赖,利用异构双网络的互学习来提高网络间的异质性和互补性,从而提高对噪声伪标签的鲁棒性;为了减少网络在优化过程中受噪声伪标签的干扰,提出了特征一致性损失,其不需要依赖任何标签信息,更关注样本在特征空间的一致性;为了增强网络的语义信息,本发明设计了一个自适应通道互感知模块,对行人的显著性区域进行特征提取,从而提高了行人重识别的精度与效率。

    基于跨任务互学习的多目标跟踪方法、终端设备及介质

    公开(公告)号:CN114241007A

    公开(公告)日:2022-03-25

    申请号:CN202111567525.X

    申请日:2021-12-20

    Applicant: 江南大学

    Inventor: 蒋敏 周晨 孔军

    Abstract: 本发明公开了一种基于跨任务互学习的多目标跟踪方法,包括:S1、读取视频序列的当前帧RGB图像;S2、利用骨干网络提取当前帧RGB图像的通用特征;S3、对当前帧RGB图像的通用特征进行特征解耦,得到检测对齐嵌入和重识别对齐嵌入;S4、根据检测对齐嵌入得到检测基本输出;S5、利用交叉方向Transformer根据重识别对齐嵌入得到重识别输出;S6、对检测基本输出和重识别输出进行跨任务交互学习,得到交互后的检测基本输出和重识别输出;S7、根据交互后的检测基本输出得到当前帧上的目标位置框,并根据中心点位置在交互后的重识别输出上查询出重识别嵌入;S8、根据重识别嵌入将当前帧与前帧进行帧间关联。本发明可以在复杂场景下实现高效的多目标跟踪。

    一种基于多层次时空特征融合增强的双流网络行为识别方法

    公开(公告)号:CN111709306A

    公开(公告)日:2020-09-25

    申请号:CN202010441559.3

    申请日:2020-05-22

    Applicant: 江南大学

    Inventor: 孔军 王圣全 蒋敏

    Abstract: 一种基于多层次时空特征融合增强的双流网络行为识别方法。该方法采用了一种基于时空双流网络的网络架构,称作多层次时空特征融合增强网络。针对传统双流网络仅仅在最后层融合两个流的类别概率分布导致浅层特征的作用被忽视以及双流网络的互补特点无法被充分利用的问题,本发明提出多层次时空特征融合模块,在双流不同深度层级通过时空特征融合模块捕获多深度级别的混合特征以充分利用双流网络。此外,在网络中,平等地对待所有特征会削弱那些对分类贡献大的特征的作用。本发明在网络中提出分组增强注意力模块,自动增强特征上的有效区域以及通道的显著性。最终本发明通过汇集双流网络以及特征融合的分类结果,进一步提高了行为识别模型的鲁棒性。

Patent Agency Ranking