-
公开(公告)号:CN118227812A
公开(公告)日:2024-06-21
申请号:CN202410167213.7
申请日:2024-02-05
Applicant: 同济大学
IPC: G06F16/53 , G06F16/55 , G06F16/583 , G06V10/82 , G06V10/764 , G06V10/44 , G06V10/80 , G06N3/0464 , G06N3/09
Abstract: 本案涉及基于标签修正的三维模型草图检索系统及方法,用于解决草图数据因存在标签噪声而影响检索准确度的问题。在检索时,利用训练好的三维提取网络获取三维模型的三维特征构建检索数据库,利用训练好的草图提取网络提取待检索草图的草图特征用于检索,从而实现利用草图检索三维模型。其中,草图提取网络在训练时,基于草图样本分类空间进行噪声判定并将噪声样本对应标签进行修正,降低噪声样本对模型训练的干扰,提高模型对相似草图的辨识度。训练好的草图提取网络获得的草图样本各分类的类中心向量集合,作为草图样本和对应的三维模型样本的公共特征空间,用于三维提取网络的迁移学习,从而提高用草图检索三维模型的准确性。
-
公开(公告)号:CN113762082B
公开(公告)日:2024-02-27
申请号:CN202110908006.9
申请日:2021-08-09
Applicant: 同济大学
IPC: G06V40/20 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/042 , G06N3/088 , G06N3/0442
Abstract: 本发明涉及一种基于循环图卷积自动编码器的无监督骨架动作识别方法,其特征在于,包括:将人体骨架动作序列输入至循环图卷积编码器;循环图卷积编码器输出得到动作序列的表征向量;通过加权最近邻分类算法计算动作序列的表征向量得到人体骨架动作序列的识别类别;循环图卷积编码器包括:多层空间关节注意力模块,用于结合人体骨架动作序列和循环图卷积编码器的隐藏层,自适应衡量不同动作不同关节的重要性,得到加权的骨架序列;多层图卷积门控循环单元层,用于整合加权的骨架序列的连接关系特征,得到动作序列的表征向量。与现有技术相比,本发明可以显著提升无监督动作识别系统的识别精度,具有广阔的应用前景。
-
公开(公告)号:CN116229572A
公开(公告)日:2023-06-06
申请号:CN202310204623.X
申请日:2023-03-06
Applicant: 同济大学
IPC: G06V40/20 , G06T3/40 , G06N3/0464 , G06N3/048 , G06N3/088
Abstract: 本发明涉及一种基于上下文感知拓扑注意力增强的无监督3D动作识别方法,该方法包括以下步骤:步骤S1、从骨架图组中获取骨架动作序列集预处理后划分为Tclip剪辑;步骤S2、采用编码器从预处理后得到的Tclip剪辑中提取得到具备时空局部性的动作单元集合ε;步骤S3、构建自监督识别模型,基于上下文感知拓扑注意机制对动作单元集合进行数据增强,聚合得到上下文集合其中,自监督识别模型采用最大化上下文集合和动作单元集合ε互信息的对比损失Lcontrast进行训练;步骤S4、采用训练好的自监督识别模型进行动作识别。与现有技术相比,本发明具有识别准确性高的优点。
-
公开(公告)号:CN116229104A
公开(公告)日:2023-06-06
申请号:CN202310373810.0
申请日:2023-04-06
Applicant: 同济大学
IPC: G06V10/44 , G06V10/774 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本申请实施例涉及显著性目标检测技术领域,特别涉及一种基于边缘特征引导的显著性目标检测方法,包括:从显著对象真值图中提取显著对象的边缘数据,并将边缘数据作为额外的预备训练集;采用基础网络提取图像特征,并基于图像特征,分别得到显著性对象的边缘特征、多尺度的位置特征;基于多层感知机,对边缘特征与多尺度的位置特征的关系动态学习,得到边缘增强融合特征;将边缘增强融合特征送入卷积网络进行细化处理,并基于细化后的边缘增强融合特征,得到最终分割结果。本申请提供的方法,通过有效利用显著对象边缘信息和位置信息,克服现有显著性目标检测方法对于边缘信息的利用不充分且对边缘位置特征和全局特征间的联系欠缺考虑的缺陷。
-
公开(公告)号:CN116071820A
公开(公告)日:2023-05-05
申请号:CN202211718305.7
申请日:2022-12-29
Applicant: 同济大学
IPC: G06V40/20 , G06V20/40 , G06V10/764 , G06V10/82 , G06N3/0895
Abstract: 本发明涉及一种基于自适应时序dropout机制的弱监督动作检测方法,该方法通过一分类网络获得候选动作实例,分类网络的处理过程:对待检测视频进行特征提取;将RGB特征和光流特征融合并映射至动作特征空间;将动作特征序列映射至分类空间,得到类别激活序列;对类别激活序列进行后处理以获得候选动作实例;对所述分类网络进行训练时,通过一自适应时序dropout模块从与动作特征序列中选取显著部分并去除,进而获得对应的类别激活序列,采用基于多实例学习的损失函数进行优化训练。与现有技术相比,本发明以端到端、数据驱动的方式解决了弱监督动作检测中的“局部统治”问题,具有流程简单、识别精度高、适用范围广等优点。
-
公开(公告)号:CN113554115A
公开(公告)日:2021-10-26
申请号:CN202110922982.X
申请日:2021-08-12
Applicant: 同济大学
Abstract: 本发明涉及一种基于不确定性学习的三维模型草图检索方法,包括以下步骤:S1:获取三维模型训练数据和草图训练数据;S2:构建草图特征提取网络,三维模型特征提取网络以及一个共享分类器,训练得到草图和三维模型共享的类中心。S3:基于共享类中心和预训练的草图特征提取网络构建草图不确定性学习网络,将每张草图图片建模成一个高斯分布,学习得到草图的不确定性。S4:利用训练完成的三维模型特征提取网络和草图不确定性学习网络分别提取待检索三维模型特征和查询草图特征,检索得到用于相应应用的三维模型。与现有技术相比,本发明具有有效缓解草图噪声问题,即减小噪声样本对干净样本拟合的损害等优点。
-
公开(公告)号:CN111797705A
公开(公告)日:2020-10-20
申请号:CN202010531062.0
申请日:2020-06-11
Applicant: 同济大学
Abstract: 本发明涉及一种基于人物关系建模的动作识别方法,包括以下步骤:1)利用卷积神经网络检测待识别图像中所有的人体包围盒 和物体包围盒 并提取人体特征向量 和物体特征向量 2)根据人体和物体的空间位置、人体特征向量和物体特征向量,分别计算人-物关系特征fho(m)和物-人关系特征foh(n);3)利用人-物关系特征fho(m)和物-人关系特征foh(n)对人体特征向量 和物体特征向量 增强;4)融合增强后的人体特征向量 和物体特征向量 计算得到各类别动作的概率,完成动作识别,与现有技术相比,本发明具有动作识别精度高等优点。
-
公开(公告)号:CN118015117A
公开(公告)日:2024-05-10
申请号:CN202410124532.X
申请日:2024-01-29
Applicant: 同济大学
IPC: G06T11/00 , G06V10/764 , G06V10/82 , G06V10/774 , G06N5/04
Abstract: 本发明涉及一种基于因果推理的无偏场景图生成系统及方法,属于场景图生成领域,用于解决现有场景图偏差问题。本发明的技术方案通过引入因果推理,将作为关键混杂因素的长尾分布先验知识利用因果干预进行去除。在此基础上,出于对长尾分布中的难分类样本的考虑,引入不确定性估计的方法,在提升模型准确率的同时保证了难分类样本的效果。
-
公开(公告)号:CN117115526A
公开(公告)日:2023-11-24
申请号:CN202311043086.1
申请日:2023-08-18
Applicant: 同济大学
IPC: G06V10/764 , G06V10/40 , G06V10/80 , G06V10/25 , G06V10/774
Abstract: 本发明涉及一种采用稀疏体素融合的3D目标检测方法、装置、设备及存储介质,其中,该方法包括以下步骤:将采集的点云同时进行立方体素化和柱状体素化,得到前景立方体素和柱状体素;计算柱状体素质心和前景立方体素质心,并提取体素质心作为体素特征;将前景立方体素的特征与柱状体素特征融合,得到第一阶段增强的立方体素特征;选择物体中心的立方体素作为中心体素,根据所述的中心体素得到中心体素特征,将中心体素特征与第一阶段增强的立方体素特征聚合,得到第二阶段增强的立方体素;将第二阶段增强的立方体素送入3D目标检测器中实现目标检测。与现有技术相比,本发明具有起到了有效检测远距离、小目标的检测效果等优点。
-
公开(公告)号:CN116912663A
公开(公告)日:2023-10-20
申请号:CN202310898188.5
申请日:2023-07-20
Applicant: 同济大学
IPC: G06V10/82 , G06V10/80 , G06V10/70 , G06V10/25 , G06N3/0455 , G06F40/284
Abstract: 本案涉及基于多粒度解码器的文本‑图像检测方法,属于图像目标检测领域,用于解决目前检测相关的文本‑图像任务模型无法灵活使用语言描述图像中物体或须假设被描述物体有且仅有一个的问题。本案根据任务类型配置不同粒度的解码器构成多粒度解码器,对以文字描述和/或包围盒形式对图像中目标对象进行描述的文本图像任务,获取任务中图像和文本的融合特征序列;当把融合特征序列作为多粒度解码器的输入时,多粒度解码器输出文本‑图像任务检测结果。本案将各种与检测定位相关的文本‑图像任务统一为基于文本描述物体检测任务,有效统一了各种任务形式;多粒度解码器具有可扩展性,训练好的多粒度解码器能够实现对不同文本图像任务的推理。
-
-
-
-
-
-
-
-
-