一种对象使用场景提取方法及装置

    公开(公告)号:CN105068789A

    公开(公告)日:2015-11-18

    申请号:CN201510404171.5

    申请日:2015-07-10

    Abstract: 本发明公开了一种对象使用场景提取方法及装置,该方法包括:获取目标类的第一对象使用场景;所述第一对象使用场景为依第一顺序调用的N个函数的序列;根据目标类确定第一父类;第一父类为目标类的父类;从N个函数中确定出L个函数;L个函数均为第一父类的函数;N≥L>1;按照第一顺序排列L个函数,以生成第一父类的第二对象使用场景;第二对象使用场景为第一对象使用场景的继承子对象使用场景。本发明提供的方法及装置用以解决现有技术中进行组件协议挖掘时,存在的对象使用场景数量不足的技术问题。实现了可以通过运行少量应用程序来获得大量的对象使用场景的函数调用序列的技术效果。

    一种基于多尺度差异分配策略的三维目标检测方法

    公开(公告)号:CN118570577B

    公开(公告)日:2025-02-07

    申请号:CN202410688340.1

    申请日:2024-05-30

    Abstract: 本发明提出了一种基于多尺度差异分配策略的三维目标检测方法,涉及3D点云处理领域;具体包括以下步骤,S1、引入稀疏张量和点云体素化操作进行预处理:S2、将步骤S1预处理后的数据送入稀疏神经网络3D‑MSDA,稀疏神经网络包括CNN的骨干网络、颈部和头部;S3、设计多尺度差异分配赋值器,设计包括粗分配和细分配的赋值器策略;S4、计算损失函数,并使用损失函数的网络在相应数据集上进行目标检测。本发明中赋值器使用一组全局参数来分配点云中的点到不同的目标;针对每个尺度,在粗分配的基础上调用多个赋值器,并根据特定尺度的特征图和目标的精细位置信息,进行更细致的分配,在处理具有多尺度或多层次目标的情况下有助于提高三维目标检测的性能。

    一种基于自适应像素聚类的语义离散单目深度估计方法

    公开(公告)号:CN118570271A

    公开(公告)日:2024-08-30

    申请号:CN202410721631.6

    申请日:2024-06-05

    Abstract: 本发明提出了一种基于自适应像素聚类的语义离散单目深度估计方法,涉及图像处理技术领域;具体包括:S1、准备数据集训练模型;S2、构建基于自适应像素聚类的语义离散单目深度估网络;S3、构建深度估计编码器;S4、设计多尺度可变形特征细化模块,将深度估计编码器特征进一步细化;S5、设计语义离散解码器;S6、将NYU和KITTI数据集中的RGB图像与对应的深度图一起输入到基于自适应像素聚类的语义离散单目深度估网络进行训练,并通过尺度不变损失函数优化网络模型权重,得到单目深度估计模型并保存;S6、输入RGB图像,通过训练好的单目深度估计模型进行推理,返回预测的深度图。本发明既可以关注到物体内部深度的连续性也可以关注到物体间深度的离散性。

    基于swinTransformer的红外与可见光图像融合的方法

    公开(公告)号:CN118570076A

    公开(公告)日:2024-08-30

    申请号:CN202410688338.4

    申请日:2024-05-30

    Abstract: 本发明公开了一种基于swinTransformer的红外与可见光图像融合的方法,属于多模态图像融合技术领域,包括S1、构建图像融合系统;S2、输入红外图像和可见光图像;S3、将S2中输入的图像分别输入到特征粗提取模块中,经注意力增强模块和特征无损传递模块进一步提取特征;S4、将S3中得到的特征输入到特征细提取模块中,然后输入模态交互模块中;S5、将S4得到的不同模态的特征经含有交叉注意力的模态交互模块后,输出至特征重建模块;S6、使用卷积将S5得到的特征重新映射回对应的图像空间,完成融合图像的输出。本发明采用上述一种基于swinTransformer的红外与可见光图像融合的方法,提高了红外与可见光图像融合的融合图像的质量。

    一种基于生成对抗网络的知识蒸馏数据增强方法与系统

    公开(公告)号:CN112819090B

    公开(公告)日:2022-05-10

    申请号:CN202110197819.1

    申请日:2021-02-22

    Inventor: 徐子昕 鲁统伟

    Abstract: 本发明提供了一种基于生成对抗网络的知识蒸馏数据增强方法与系统,通过易操作的数据增强方式,提高了卷积网络对工业数据集的定位能力和识别准确率。本发明结合了生成对抗网络高效拟合样本数据分布和知识蒸馏中对神经网络模型容错率改善的算法,实现了在生成增强样本时不引入非信息噪声、提高了模型对错误标签的鲁棒性。本发明降低了工业数据集正负样本标注错误而产生的对模型的误导,提升了工业数据集在语义分割任务上的表征表达性能,提高了模型在特征粒度区分小的情况下对样本特征的学习能力,在汽车零部件检测与制造、铁路零部件定位等应用中发挥了重要的作用。

    基于多尺度训练和级联检测的文档版面分析方法和系统

    公开(公告)号:CN113420669A

    公开(公告)日:2021-09-21

    申请号:CN202110701808.2

    申请日:2021-06-24

    Abstract: 本发明提供了基于多尺度训练和级联检测的文档版面分析方法和系统,通过把输入的版面图像随机缩放到某个范围尺度的图像,将此尺度的图像输入训练构建好的网络进行特征的提取和融合,根据版面不同元素的属性,设置相应的分割网络分支进行分割识别,使得每张文本图像上的文本、图片、表格、列表、公式得到正确的划分,完成版面分析,实现了同时检测文档图像中的多种类别对象并区分文档图像的目标的功能。本发明提高了检测模型对物体大小的鲁棒性,降低了输入图像缩放操作对模型的影响;采用特征融合模块使模型能够关注图像每个区域的有效特征,忽略无效特征,提高了模型的辨别能力,能更有效地执行文本区域划分任务,增强了特征表达能力。

Patent Agency Ranking