一种基于多模态参数扩展的多任务持续进化学习方法

    公开(公告)号:CN118094414B

    公开(公告)日:2024-07-30

    申请号:CN202410503898.8

    申请日:2024-04-25

    Abstract: 本发明提供了一种基于多模态参数扩展的多任务持续进化学习方法,在视觉模态方面设计轻量级的可学习视觉提示用于学习将全任务空间分解为离散的各任务子空间,保留不同领域的专业知识。同时,在文本模态采用语义级别的参数微调技术,通过引入外部的可学习模块动态调整文本特征,避免专业知识和通用知识间的相互干扰。借助视觉‑语言模态的同时参数扩展,能够极大程度保留预训练中的通用知识以及不同领域的专业知识。此外,本发明对损失函数采用动态调整策略,更好地辅助与促进多模态参数扩展更新,实现对新知识获取和旧知识保留的平衡。同时,本发明设计自适应参数扩展模块压缩算法,能够进一步避免参数量随任务数量持续增长的问题。

    一种基于视觉自注意力模型的小样本微调方法

    公开(公告)号:CN117036901A

    公开(公告)日:2023-11-10

    申请号:CN202310867841.1

    申请日:2023-07-16

    Abstract: 本发明公开了一种基于视觉自注意力模型的小样本微调方法,采用在大规模数据集上进行预训练和在小样本任务上进行微调的流程,视觉自注意力模型被用作主干网络,同时构建一个可学习的转换模块norm adapter,由两个向量组成,用于校正原始视觉自注意力模型归一化层的增益和偏置,norm adapter位于视觉自注意力模型ViT的所有归一化层之后,通过逐元素的乘法和加法实现;在预训练期间,使用大规模数据集上以全监督或自监督方式训练的主干网络;在微调过程中,采用原型网络ProtoNet分类头。本发明计算简便,通过逐元素相乘和相加即可实现,因此占用的存储和计算资源比较少,有利于预训练模型投入实际应用场景。

    基于散度聚类的单示例自进化目标检测分割方法

    公开(公告)号:CN117934517A

    公开(公告)日:2024-04-26

    申请号:CN202410310676.4

    申请日:2024-03-19

    Abstract: 本发明提供了一种基于散度聚类的单示例自进化目标检测分割方法,基于大量无标注样本构建具有代表性的标注候选池,为基于强化学习训练模型自进化地搜索上下文示例,最终送入通用视觉器完成指定的视觉任务,依据置信分数筛选候选池中最高的一批图像及标注作为上下文示例,最终实现不同场景下的图像检测分割。本发明大大降低了对标注数据的依赖,为解决真实世界广泛存在的长尾分布问题铺平了道路,同时,在不同的通用视觉器下,自适应动态地为测试图像挑选合适的示例,向不同应用场景下的图像检测分割任务提供了新的解决方案。

    一种基于密集交叉注意力的指称表达生成方法

    公开(公告)号:CN114494813A

    公开(公告)日:2022-05-13

    申请号:CN202111601881.9

    申请日:2021-12-24

    Abstract: 本发明公开了一种基于密集交叉注意力的指称表达生成方法,首先构建特征提取模块,从给定图像中提取目标特征;然后构建对象上下文注意模块,通过对象上下文注意模块得到目标的最终特征;然后将最终特征进行平均池化获得最终的视觉特征,使用LSTM作为生成模块,在每个时间步,将单词特征、视觉特征和隐藏状态连接,并将其作为LSTM模型的输入,LSTM模型的输出即为最终结果;损失函数采用生成损失和三元组损失组合。本发明可以对多模态数据进行建模并学习细粒度的特征表示,并能够在没有实例级注释的情况下生成无歧义的表达式。

    基于散度聚类的单示例自进化目标检测分割方法

    公开(公告)号:CN117934517B

    公开(公告)日:2024-07-05

    申请号:CN202410310676.4

    申请日:2024-03-19

    Abstract: 本发明提供了一种基于散度聚类的单示例自进化目标检测分割方法,基于大量无标注样本构建具有代表性的标注候选池,为基于强化学习训练模型自进化地搜索上下文示例,最终送入通用视觉器完成指定的视觉任务,依据置信分数筛选候选池中最高的一批图像及标注作为上下文示例,最终实现不同场景下的图像检测分割。本发明大大降低了对标注数据的依赖,为解决真实世界广泛存在的长尾分布问题铺平了道路,同时,在不同的通用视觉器下,自适应动态地为测试图像挑选合适的示例,向不同应用场景下的图像检测分割任务提供了新的解决方案。

    一种基于密集交叉注意力的指称表达生成方法

    公开(公告)号:CN114494813B

    公开(公告)日:2024-03-05

    申请号:CN202111601881.9

    申请日:2021-12-24

    Abstract: 本发明公开了一种基于密集交叉注意力的指称表达生成方法,首先构建特征提取模块,从给定图像中提取目标特征;然后构建对象上下文注意模块,通过对象上下文注意模块得到目标的最终特征;然后将最终特征进行平均池化获得最终的视觉特征,使用LSTM作为生成模块,在每个时间步,将单词特征、视觉特征和隐藏状态连接,并将其作为LSTM模型的输入,LSTM模型的输出即为最终结果;损失函数采用生成损失和三元组损失组合。本发明可以对多模态数据进行建模并学习细粒度的特征表示,并能够在没有实例级注释的情况下生成无歧义的表达式。

    一种基于超网络和条件聚合的小样本目标检测方法

    公开(公告)号:CN117333655A

    公开(公告)日:2024-01-02

    申请号:CN202311242681.8

    申请日:2023-09-25

    Abstract: 本发明公开了一种基于超网络和条件聚合的小样本目标检测方法,首先采用共享权重的ResNet50卷积神经网络分别对待检测图像和新类实例进行特征提取;然后采用动态聚合模块生成与新类实例相关的特征向量,将这组特征向量作为超网络的条件向量,进而修正待检测图像不同区域的特征响应;最后基于多头跨注意力模块将待检测图像的局部特征和新类实例特征进行加强,再采用全局到局部的多关联匹配模块计算待检测图像的局部特征和新类实例特征的相似度,最终实现小样本目标检测。本发明实现了多层级交互待检测图像特征和新类特征的要求,降低了对大规模训练数据的依赖,实现了自适应动态的新类检测,为自然条件下小样本目标检测任务提供了一条新的思路。

Patent Agency Ranking