-
公开(公告)号:CN114140831B
公开(公告)日:2022-07-01
申请号:CN202210113382.3
申请日:2022-01-30
Applicant: 中国科学院自动化研究所
IPC: G06V40/10 , G06V10/40 , G06V10/74 , G06V10/774 , G06K9/62
Abstract: 本发明提供一种人体姿态估计方法、装置、电子设备及存储介质,方法包括:获取目标图像;将所述目标图像输入至人体姿态估计模型,得到所述人体姿态估计模型输出的所述目标图像中人体姿态信息;其中,所述人体姿态估计模型,是基于样本行人场景图像进行训练后得到的,用于估计图像中人体姿态信息;所述人体姿态信息包括人体实例及对应的人体关键点位置,通过人体姿态估计模型实现了端到端的人体姿态估计,提升了人体姿态估计的效率。
-
公开(公告)号:CN113435430A
公开(公告)日:2021-09-24
申请号:CN202110992358.7
申请日:2021-08-27
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于自适应时空纠缠的视频行为识别方法、系统、设备,旨在解决现有的行为识别方法未注意到时空线索对不同动作类的差异化影响,导致行为类别识别鲁棒性较差的问题。本方法包括从输入视频流中获取待行为识别的图像,作为输入图像;通过训练好的行为识别模型获取所述输入图像的行为类别;其中,所述行为识别模型基于卷积神经网络构建。本发明提高了行为类别识别的鲁棒性。
-
公开(公告)号:CN112990152B
公开(公告)日:2021-07-30
申请号:CN202110504848.8
申请日:2021-05-10
Applicant: 中国科学院自动化研究所 , 公安部交通管理科学研究所
Abstract: 本发明属于计算机视觉和模式识别领域,具体涉及一种基于关键点检测和局部特征对齐的车辆重识别方法,旨在解决现有的车辆重识别方法在消除车辆视角变化时特征一致性较差,进而导致车辆重识别鲁棒性较差的问题。本方法包括获取待识别的车辆图像,作为输入图像;对输入图像进行关键点检测,获取待识别的车辆的关键点及其对应的置信度,并将输入图像中待识别的车辆划分为N部分,作为局部图像;提取输入图像、各局部图像的特征,作为全局特征、局部特征,并将各局部特征与全局特征进行拼接,作为综合特征;计算综合特征与车辆图像库中各图像对应特征的距离并进行排序,将排序结果作为重识别结果进行输出。本发明提高了车辆重识别的鲁棒性。
-
公开(公告)号:CN112801238B
公开(公告)日:2021-07-27
申请号:CN202110403926.5
申请日:2021-04-15
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种图像分类方法、装置、电子设备及存储介质,该方法包括:确定待分类图像中每一像素的特征表示;基于每一像素的特征表示,以及各个预设类别对应的全局特征表示,确定每一像素的特征增强表示;基于每一像素的特征表示和特征增强表示,确定所述待分类图像对应的预设类别;其中,所述全局特征表示是基于样本图像,以及样本图像中每一像素对应的预设类别确定的。本发明提供的方法、装置、电子设备及存储介质,采用像素级的特征增强方式提高了对图像中细节的表达能力,提高了图像的分类准确性。
-
公开(公告)号:CN111783754B
公开(公告)日:2020-12-08
申请号:CN202010918876.X
申请日:2020-09-04
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉领域,具体涉及了一种基于部位上下文的人体属性图像分类方法、系统和装置,旨在解决现有的人体分类方法忽略了人体属性之间的关系而未考虑人体内在层次结构信息导致分类精确度不足的问题。本发明包括:通过人体属性图像分类模型获取人体属性分类预测图;人体属性图像分类模型先通过特征提取网络提取待测试图像的原始特征图,再基于原始特征图通过属性分类解析网络获取高阶特征图,通过关系聚合网络和关系离散网络分别提取合适的上下文信息,将原始特征图和合适的上下文信息融合后生成人体属性分类预测图。本发明解决了如何从复杂北京中,对不同的属性产生合适的上下文特征的问题,提高了人体图像识别的精确度。
-
公开(公告)号:CN111783754A
公开(公告)日:2020-10-16
申请号:CN202010918876.X
申请日:2020-09-04
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉领域,具体涉及了一种基于部位上下文的人体属性图像分类方法、系统和装置,旨在解决现有的人体分类方法忽略了人体属性之间的关系而未考虑人体内在层次结构信息导致分类精确度不足的问题。本发明包括:通过人体属性图像分类模型获取人体属性分类预测图;人体属性图像分类模型先通过特征提取网络提取待测试图像的原始特征图,再基于原始特征图通过属性分类解析网络获取高阶特征图,通过关系聚合网络和关系离散网络分别提取合适的上下文信息,将原始特征图和合适的上下文信息融合后生成人体属性分类预测图。本发明解决了如何从复杂北京中,对不同的属性产生合适的上下文特征的问题,提高了人体图像识别的精确度。
-
公开(公告)号:CN104463880B
公开(公告)日:2017-06-30
申请号:CN201410767123.8
申请日:2014-12-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开一种RGB‑D图像获取方法,首先对深度相机进行标定,获得深度相机的内参数Ad、外参数[Rd|Td],对彩色相机进行标定,获得彩色相机的内参数Ac、外参数[Rc|Tc],计算彩色相机相机坐标系下的深度相机的相对外参数[Rr|Tr];然后分别通过深度相机和彩色相机获得同一景物的深度图像与彩色图像,利用获得的Ad、Ac、[Rr|Tr],基于针孔相机模型将深度图像上的点投影至彩色图像上,进行深度图像与彩色图像的配准,获得配准后的RGB‑D图像。本发明对室外环境下RGB‑D图像的获取具有较好的实用价值。
-
公开(公告)号:CN102148921A
公开(公告)日:2011-08-10
申请号:CN201110113290.7
申请日:2011-05-04
Applicant: 中国科学院自动化研究所
IPC: H04N5/14
Abstract: 本发明是基于动态群组划分的多目标跟踪方法,所述多目标跟踪方法包括步骤如下:S1:对于视频场景中的某一时刻,首先判定是否有目标进入或离开场景区域,根据检测结果更新目标集合;S2:设定目标集合的分组阈值,使用层次聚类按距离对上一时刻目标集合进行聚类,根据上一时刻的聚类结果,将上一时刻目标位置分成不同群组;S3:为目标集合中的每个群组分配一个跟踪器,跟踪器根据群组内每个目标上一时刻的位置状态,加上群组内每个目标当前时刻在图像上的观测值,使用贝叶斯框架推断每个目标在当前时刻位置的最优值,用每个目标当前时刻位置的最优值更新目标集合中各个目标的位置状态,为推断各个目标的下一时刻的位置做准备。
-
公开(公告)号:CN102054170A
公开(公告)日:2011-05-11
申请号:CN201110021981.4
申请日:2011-01-19
Applicant: 中国科学院自动化研究所
Abstract: 本发明是基于极小化上界误差的视觉跟踪方法,利用跟踪器估计目标在当前帧中的区域,所述目标区域包括目标位置与目标大小;以估计的目标区域为参照提取样本;对提取的样本抽取两类不同性质的视觉特征;利用抽取的各样本两类不同性质的视觉特征在线进行协同提升学习,并对跟踪器进行更新,在线协同提升学习中,利用两个并行的提升算法同时对两类不同性质的视觉特征进行选择,并在各级视觉特征选择中利用协同学习进行相互约束,在选择最佳的视觉特征提升跟踪器性能的同时利用协同学习配置最佳的样本属性。跟踪器在线学习不需要输入样本的标注信息,在跟踪结果不完全准确的情况下也不会带来累计误差,从而保证了跟踪器的稳定性与可靠性。
-
公开(公告)号:CN119887762A
公开(公告)日:2025-04-25
申请号:CN202510363946.2
申请日:2025-03-26
Applicant: 中国科学院自动化研究所
IPC: G06T7/00 , G06V10/764 , G06V10/26 , G06V10/82 , G06N3/08
Abstract: 本发明涉及异常检测技术领域,提供一种跨领域小样本异常检测方法、装置、电子设备及存储介质,其中方法包括:提取正常图像对应的图像内容知识的文本特征;基于测试图像的图像子块特征和正常图像的图像子块特征之间的匹配差异,确定测试图像的测试图像重建结果,基于测试图像重建结果对应的重建差异,确定测试图像中的低级语义异常检测结果;基于测试图像的第一子成分特征和正常图像的第二子成分特征,确定测试图像中的中级语义异常检测结果;基于文本特征与测试图像的图像整体特征,确定高级语义异常检测结果,基于低级、中级和高级语义异常检测结果,确定目标异常检测结果。本方法不需要使用大量样本进行训练,从而降低了异常检测训练的成本。
-
-
-
-
-
-
-
-
-