一种基于局部描述符的三原型矫正网络少样本遥感场景分类方法

    公开(公告)号:CN119963897A

    公开(公告)日:2025-05-09

    申请号:CN202510023170.X

    申请日:2025-01-07

    Abstract: 本发明属于人工智能领域,特别涉及一种基于局部描述符的三原型矫正网络少样本遥感场景分类方法,包括下载遥感数据集并根据遥感场景图像数据集中遥感场景图像的类别将遥感场景图像数据集划分为训练集、验证集;建立基于局部描述符的三原型矫正网络少样本遥感场景分类模型;利用基于任务的元学习训练策略对基于局部描述符的三原型矫正网络少样本遥感场景分类模型进行元训练,在训练的同时,通过验证任务对基于局部描述符的三原型矫正网络少样本遥感场景分类模型进行元验证,保存性能最佳的模型;利用性能最佳的模型对遥感图像进行分类。本发明可以有效缓解单原型网络对无关背景信息过度使用、无法有效捕获场景图像类特征的问题。

    一种基于教室场景的低分辨率交互行为识别方法

    公开(公告)号:CN119888558A

    公开(公告)日:2025-04-25

    申请号:CN202411797585.4

    申请日:2024-12-09

    Abstract: 本发明请求保护一种基于教室场景的低分辨率交互行为识别方法,本发明通过对低分辨率视频生成对应的高分辨率视频,使用高低双分辨率知识蒸馏模型来实现高分辨率视频信息对低分辨率网络支路的指导。本知识蒸馏模型采用的是离线蒸馏的方式,添加了自适应权重以此来让低分辨率网络支路学习正确的预测概率分布。通过将特征蒸馏损失和响应蒸馏损失联合作为低分辨率网络支路的蒸馏损失,与低分辨率网络支路的分类损失构成总体损失,以此对模型参数进行训练和更新,使得低分辨率网络支路可以学习到更多的知识。在推理阶段,低分辨率网络支路添加了自适应批处理归一化层,使得学习后的网络能够适应低分辨率行为识别。

    基于元学习的视频行为识别方法
    3.
    发明公开

    公开(公告)号:CN117746296A

    公开(公告)日:2024-03-22

    申请号:CN202311785475.1

    申请日:2023-12-22

    Abstract: 本发明涉及基于元学习的视频行为识别方法,属于计算机视觉技术领域。获取待检测的视频,输入训练后的基于元学习的视频行为识别模型,输出视频行为识别结果。该模型包括内层的域适应行为识别模型和外层的视频行为识别模型;该模型的训练过程分为预热训练和元训练,获取预热训练的样本,对视频行为识别模型进行预热训练,得到元训练集和元测试集,将其输入基于元学习的视频行为识别模型,进行元训练,通过域适应行为识别模型对源域和目标域实现域对齐,通过视频行为识别模型对样本进行视频行为识别,至损失函数收敛停止训练。本发明针对无人机视频的视频行为识别中域适应差的问题,提高模型域适应,进而提升模型的泛化性,识别结果更准确。

    基于生成对抗网络的卫星视频车辆数目估计方法

    公开(公告)号:CN110503049A

    公开(公告)日:2019-11-26

    申请号:CN201910791912.8

    申请日:2019-08-26

    Abstract: 本发明属于属于图像处理与计算机视觉技术领域,特别涉及一种基于生成对抗网络的卫星视频车辆数目估计方法,包括将卫星视频进行抽帧处理,获得原始图像以及原始图像对应的真实标签图像;对原始图像进行分块操作获得子图,将子图以及原始图像分别送入具有相同结构的生成器生成特征图;分别将子图以及原始图像的特征图送入生成对抗网络,获得由子图生成的特征图和由原始图像生成的特征图;计算由子图生成的特征图和由原始图像生成的特征图之间的距离,最小化该距离以获得最优结果,根据最优结果获得车流量密度图;本发明不仅充分利用图像信息,避免了数据缺乏的问题;还利用生成对抗网络将整个网络框架定义为一个回归问题,有效避免了检测困难的问题。

    一种基于时空多尺度Transformer的航拍视频分类方法

    公开(公告)号:CN115223082A

    公开(公告)日:2022-10-21

    申请号:CN202210844866.5

    申请日:2022-07-19

    Abstract: 本发明属于遥感影像智能化分析领域,具体涉及一种基于时空多尺度Transformer的航拍视频分类方法,包括:对航拍视频数据进行预处理,输入至训练完成的航拍视频识别模型,通过嵌入特征偏移模块和池化多头自注意力模块的多尺度时空特征提取模块,得到航拍视频图像帧的多尺度短时序时空特征,再通过空洞时间特征提取模块在时间维度上计算空洞自注意力,得到航拍视频的长时序时空特征,从而对航拍视频数据进行准确高效的识别分析。本发明通过充分挖掘航拍视频的多尺度时空信息,能够有效提升航拍视频的分类精度,并且在时间维度上实现自注意力计算的线性复杂度,从而降低了模型的运算复杂度。

    一种基于时空2D卷积神经网络的航拍视频分析方法

    公开(公告)号:CN113269054A

    公开(公告)日:2021-08-17

    申请号:CN202110485470.1

    申请日:2021-04-30

    Abstract: 本发明属于遥感影像智能化分析领域,具体涉及一种基于时空2D卷积神经网络的航拍视频分析方法,该方法包括实时获取航拍视频数据,对获取的航拍视频数据进行预处理;将预处理后的航拍视频数据输入到训练好的航拍视频识别模型中进行识别分析处理;对识别结果进行统计分析;所述航拍视频识别模型包括2D卷积神经网络、长时序特征提取模块LTFE、短期运动特征提取模块SMFE以及特征融合模块FFM,所述长时序特征提取模块LTFE、短期运动特征提取模块SMFE和特征融合模块FFM设置在2D卷积神经网络中;本发明采用改进的2D卷积神经网络模型并结合长时序特征提取模块、短期运动特征提取模块和特征融合模块,提高了计算效率以及航拍视频的识别准确率。

    一种基于视觉Transformer的头部姿态估计方法

    公开(公告)号:CN119445619A

    公开(公告)日:2025-02-14

    申请号:CN202411566435.2

    申请日:2024-11-05

    Abstract: 本发明属于计算机视觉领域,具体涉及一种基于视觉Transformer的头部姿态估计方法,包括:构建头部姿态估计模型;获取待检测的图像,将图像输入到训练后的头部姿态估计模型中,得到头部姿态估计结果;所述头部姿态估计模型包括视觉Transformer预训练网络模块、多尺度Transformer编码器模块、CNN模块以及预测头模块;本发明通过图像翻折操作引入翻折图像,能够为原图像提供自监督信息,通过这种方式,模型可以学习到姿态变化的反向特征,使得模型能够捕捉到不同姿态下的相似性,进一步提升头部姿态估计的准确度和稳定性。

Patent Agency Ranking