一种基于细粒度表示与重组的行人重识别方法及系统

    公开(公告)号:CN116959032A

    公开(公告)日:2023-10-27

    申请号:CN202310935047.6

    申请日:2023-07-27

    Applicant: 复旦大学

    Abstract: 本发明涉及一种基于细粒度表示与重组的行人重识别方法及系统,该方法包括:步骤S1:对行人图像进行细粒度聚类,得到属性伪标签和属性类特征;步骤S2:计算每张行人图像的细粒度属性分布;步骤S3:根据细粒度聚类得到的属性伪标签和属性类特征,计算属性感知的分类损失用于属性分类器训练;步骤S4:在不同的图像间进行细粒度的属性重组,并约束重组属性后的行人特征,得到行人重识别结果。与现有技术相比,本发明具有行人重识别检索结果准确,无需借助衣着标签或其他辅助信息,轻量且高效,能够捕捉细粒度行人身份特征,对行人属性变化鲁棒性高的优点。

    一种基于多教师知识蒸馏的跨域小样本识别方法

    公开(公告)号:CN115423000A

    公开(公告)日:2022-12-02

    申请号:CN202211001654.7

    申请日:2022-08-19

    Applicant: 复旦大学

    Abstract: 本发明属于计算机技术领域,具体为一种基于多教师知识蒸馏的跨域小样本识别方法。本发明方法包括:构建特征提取网络模型,小样本分类器,构建动态领域拆分模型;连接特征提取网络以及小样本分类器构成源域教师模型;连接特征提取网络以及小样本分类器构成目标域教师模型;连接特征提取网络以及小样本分类器,对特征提取网络中的特定几层插入动态领域拆分模型,构成领域可拆分的学生模型;本方法用源域数据和目标域数据都各自学习一个教师模型,然后以知识蒸馏的方法将两个教师模型中的知识逐步蒸馏到学生模型中。本发明可以在源域和目标域存在巨大领域差异的情况下,在仅有少量标注且类别未可知的目标域测试数据上达到较好的类别识别能力。

    基于深度学习的新冠肺炎肺部病灶区域分割系统

    公开(公告)号:CN111932559B

    公开(公告)日:2022-11-29

    申请号:CN202010873685.6

    申请日:2020-08-26

    Abstract: 本发明提供了基于深度学习的新冠肺炎肺部病灶区域分割系统,其特征在于,包括:数据获取部用于获取CT断层影像;数据预处理部根据HU值对CT断层影像进行预处理,得到待分割肺部影像;图像分割模型部利用预先训练好的图像分割模型直接对待分割肺部影像进行分割得到肺部病灶区域并输出;画面存储部用于存储肺部病灶区域画面;显示部用于显示肺部病灶区域画面以及肺部病灶区域。本系统可以精准地将肺部病灶区域从肺部区域中分割出来,完成COVID‑19感染区域轮廓的快速自动勾画,便于在现场应用中定性评估疾病,节省了大量人力与时间,同时提高了对COVID‑19疑似病患的诊断准确率,降低假阴性概率较高。

    模仿给定视频中人物动作的3D角色动作生成系统和方法

    公开(公告)号:CN112308952B

    公开(公告)日:2022-11-18

    申请号:CN202011101066.1

    申请日:2020-10-15

    Applicant: 复旦大学

    Abstract: 本发明属于计算机技术领域,具体为模仿给定视频中人物动作的3D角色动作生成系统和方法。本发明系统包括初始人体重建、规则数据meshcuboid构建、mesh2mesh平滑、人体姿态迁移四个模块;对于包含人体动作源视频,由初始人体重建模块恢复动作扮演者的mesh源序列;由规则数据meshcuboid构建模块将初始mesh序列构建成普通的规则数据meshcuboid;由mesh2mesh平滑模块通过3D卷积对初始的mesh序列进行进一步的平滑,使得mesh序列的动作更加连贯;最后由人体姿态迁移模块逐帧将姿态从源mesh迁移到目标mesh上,实现将源视频中包含的动作序列迁移到目标3D角色中。本发明可以生成跟源视频动作一致的mesh序列,并提升mesh序列的时序连贯性。

    一种视频补全方法
    25.
    发明授权

    公开(公告)号:CN113139910B

    公开(公告)日:2022-10-18

    申请号:CN202010066844.1

    申请日:2020-01-20

    Applicant: 复旦大学

    Abstract: 本发明提供一种视频补全方法,其特征在于,通过重建三维场景对存在内容缺失的缺失视频序列进行补全,包括如下步骤:步骤1,通过预设的深度图网络识别缺失视频序列中每帧的深度图;步骤2,通过预设的位姿网络识别缺失视频序列中每相邻两帧之间的相对相机位姿;步骤3,基于深度图以及相对相机位姿并使用截断符号距离函数进行深度图的融合从而构建对应缺失视频序列中的视频背景的三维场景;步骤4,利用相对相机位姿以及相机内参将三维场景投影到缺失视频序列中从而对每帧的缺损区域进行补全得到补全视频序列;步骤5,利用预设的缺失补全网络对补全视频序列进行二次补全从而形成不具有内容缺失的完整视频序列。

    一种图像处理方法、模型训练方法及相关装置

    公开(公告)号:CN114943789A

    公开(公告)日:2022-08-26

    申请号:CN202210313671.8

    申请日:2022-03-28

    Abstract: 本申请公开了一种图像处理方法,应用于人工智能技术领域。在该方法中,将图像编辑任务分成两部分来执行,先基于待编辑区域的提示文本有效地区分图像中的待编辑区域和内容保留区域,然后将输入文本的特征与图像中的内容保留区域的特征进行融合处理,最终得到图像编辑结果。由于预先基于待编辑区域的提示文本来区分图像中的两种区域,因此能够在特征处理阶段只对内容保留区域的特征和输入文本的特征进行融合处理,从而使得图像编辑结果中能够完整地保留内容保留区域的内容,并且图像编辑结果中的编辑内容能够很好地满足输入文本的描述。

    一种用于小样本甲骨文识别的数据增广方法、应用及装置

    公开(公告)号:CN114708473A

    公开(公告)日:2022-07-05

    申请号:CN202011492114.4

    申请日:2020-12-17

    Applicant: 复旦大学

    Abstract: 本发明提供了一种用于小样本甲骨文识别的数据增广方法、应用及装置,其特征在于,包括如下步骤:对大样本数据、小样本数据序列化得到序列化大样本数据、序列化小样本数据;对序列化大样本数据抹除得到抹除大样本数据、完整大样本数据,对抹除大样本数据编码得到编码后抹除大样本数据;将编码后抹除大样本数据输入特征提取网络得到深度特征;利用预测网络对抹除大样本数据预测得到预测大样本数据;训练更新深度学习网络得到增广器;对序列化小样本数据随机抹除得到抹除小样本数据,并对抹除小样本数据编码得到编码后抹除小样本数据;将编码后抹除小样本数据输入增广器预测得到预测小样本数据,将该预测小样本数据作为增广样本。

    基于元滤波核的图像特征动态对齐方法及装置

    公开(公告)号:CN113111205B

    公开(公告)日:2022-06-14

    申请号:CN202110393866.3

    申请日:2021-04-13

    Applicant: 复旦大学

    Abstract: 本发明提供了一种基于元滤波核的动态图像特征对齐方法及装置,用于对小样本的动态图像进行分类得到预测分类结果,其特征在于,包括如下步骤:搭建特征提取网络,并从支持集样本以及查询集样本中提取到图片特征组;搭建元滤波核生成网络,并输入图片特征组得到元滤波核;基于元滤波核并通过元滤波核生成网络对图片特征组进行自适应对齐得到对齐后查询集特征;搭建图像分类网络,对支持集特征以及对齐后查询集特征进行比较分类得到本地预测类别,并进行全局分类得到全局预测类别;构建损失函数,基于该损失函数以及预测类别训练得到训练好的小样本图像分类模型;将动态图像输入训练好的小样本图像分类模型分类得到预测分类结果。

    一种基于手绘草图的目标物可抓取点检测方法及系统

    公开(公告)号:CN114373127A

    公开(公告)日:2022-04-19

    申请号:CN202111609585.3

    申请日:2021-12-24

    Applicant: 复旦大学

    Abstract: 本发明涉及一种基于手绘草图的目标物可抓取点检测方法及系统,其中抓取点检测方法包括:获取标注好抓取框的自然场景图片集以及和场景中物体对应的手绘草图样本集,并对样本进行预处理;将草图和目标物体可抓取框进行配对,构建训练集;构建基于草图内容为引导的可抓取框检测网络;训练基于草图内容为引导的可抓取框检测网络;使用训练好的可抓取框检测网络定位自然场景图片中与草图内容相符的物体所对应的可抓取框。与现有技术相比,本发明具有有效实现基于草图引导机器人完成抓取目标物任务、网络收敛快、泛化能力强等优点。

    一种基于自监督学习任务的手绘草图理解深度学习方法

    公开(公告)号:CN113673635A

    公开(公告)日:2021-11-19

    申请号:CN202010411459.6

    申请日:2020-05-15

    Applicant: 复旦大学

    Abstract: 本发明提供了一种基于自监督学习任务的手绘草图理解深度学习方法,其特征在于,包括如下步骤:步骤S1,基于不同的手绘草图中点的数据的分类对其中部分数据进行抹除,进一步将抹除部分数据后的手绘草图的数据用于自监督学习;步骤S2,将手绘草图的数据序列化后嵌入编码;步骤S3,将基于双向编码表示和自注意力机制的深度学习网络作为深度特征提取模块,并利用该深度特征提取模块提取手绘草图对应的点数据的深度特征;步骤S4,利用提取的深度特征预测被抹除的部分数据的坐标数据和状态数据;步骤S5,使用损失函数分别对坐标数据的预测与状态数据的预测任务进行训练从而获得训练好的网络模型。

Patent Agency Ranking