-
公开(公告)号:CN116704611B
公开(公告)日:2024-12-10
申请号:CN202310711767.4
申请日:2023-06-15
Applicant: 山东大学深圳研究院 , 山东大学 , 中国科学院自动化研究所 , 山东建筑大学 , 山东科技大学 , 银河水滴科技(北京)有限公司 , 泰华智慧产业集团股份有限公司
Abstract: 本发明涉及一种基于运动特征混合和细粒度多阶段特征提取的跨视角步态识别方法,包括:骨干网络构建:提取基础步态的浅层、中层、深层特征;运动特征混合模块构建:融合相邻帧之间的步态信息,提取时序信息;细粒度多阶段特征提取模块构建:对特征进行水平划分提取初步的空间特征。并引入一个分支进行进一步水平划分,加入空间注意力机制,提取更加细粒度的特征;整体框架训练;跨视角步态识别。本发明能够有效利用步态轮廓序列中的帧级时间信息,以及细粒度的空间信息,在特征提取方面更加有效。
-
公开(公告)号:CN111126262B
公开(公告)日:2023-04-28
申请号:CN201911341937.4
申请日:2019-12-24
Applicant: 中国科学院自动化研究所
IPC: G06V20/40 , G06V10/778 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及视频信息技术领域,具体涉及一种基于图神经网络的视频精彩片段检测方法和装置。为了解决现有技术对视频精彩片段检测精度低的问题,本发明提出一种方法,包括基于预先获取的待检测视频,通过预设的图像特征提取模型获取待检测视频中每一帧图像的图像特征信息;基于每一帧图像的图像特征信息,构建每一帧图像对应的空间图;根据每一帧图像对应的空间图,通过预设的语义特征提取模型获取每一帧图像中物体的语义特征,并根据每一帧图像中物体的语义特征构建每一帧图像对应的时序图;根据每一帧图像对应的时序图,通过预设的视频片段检测模型获取待检测视频中每一帧图像的用户感兴趣得分。本发明的方法提高了视频精彩片段的检测准确率。
-
公开(公告)号:CN107230225A
公开(公告)日:2017-10-03
申请号:CN201710279146.8
申请日:2017-04-25
Applicant: 华为技术有限公司 , 中国科学院自动化研究所
Abstract: 本申请提供了一种三维重建的方法和装置,该方法包括:获取与第一图像对应的第一三维点云和与第二图像对应的第二三维点云,该第一图像成像于第一坐标系中,该第二图像成像于第二坐标系中;对第一三维点云进行第一射影变换,得到第一索引图,该第一索引图中的每个坐标点对应于第一三维点云中的一个三维点,并指示所对应的三维点在第一三维点云中的索引;对第二三维点云进行第二射影变换,得到第二索引图,该第二索引图中的每个坐标点对应于第二三维点云中的一个三维点,并指示所对应的三维点在第二三维点云中的索引;从第一索引图和第二索引图中确定至少一个目标点,并对该至少一个目标点所指示的第一三维点和第二三维点进行融合处理。
-
公开(公告)号:CN116704611A
公开(公告)日:2023-09-05
申请号:CN202310711767.4
申请日:2023-06-15
Applicant: 山东大学深圳研究院 , 山东大学 , 中国科学院自动化研究所 , 山东建筑大学 , 山东科技大学 , 银河水滴科技(北京)有限公司 , 泰华智慧产业集团股份有限公司
Abstract: 本发明涉及一种基于运动特征混合和细粒度多阶段特征提取的跨视角步态识别方法,包括:骨干网络构建:提取基础步态的浅层、中层、深层特征;运动特征混合模块构建:融合相邻帧之间的步态信息,提取时序信息;细粒度多阶段特征提取模块构建:对特征进行水平划分提取初步的空间特征。并引入一个分支进行进一步水平划分,加入空间注意力机制,提取更加细粒度的特征;整体框架训练;跨视角步态识别。本发明能够有效利用步态轮廓序列中的帧级时间信息,以及细粒度的空间信息,在特征提取方面更加有效。
-
公开(公告)号:CN107230225B
公开(公告)日:2020-06-09
申请号:CN201710279146.8
申请日:2017-04-25
Applicant: 华为技术有限公司 , 中国科学院自动化研究所
Abstract: 本申请提供了一种三维重建的方法和装置,该方法包括:获取与第一图像对应的第一三维点云和与第二图像对应的第二三维点云,该第一图像成像于第一坐标系中,该第二图像成像于第二坐标系中;对第一三维点云进行第一射影变换,得到第一索引图,该第一索引图中的每个坐标点对应于第一三维点云中的一个三维点,并指示所对应的三维点在第一三维点云中的索引;对第二三维点云进行第二射影变换,得到第二索引图,该第二索引图中的每个坐标点对应于第二三维点云中的一个三维点,并指示所对应的三维点在第二三维点云中的索引;从第一索引图和第二索引图中确定至少一个目标点,并对该至少一个目标点所指示的第一三维点和第二三维点进行融合处理。
-
公开(公告)号:CN111126262A
公开(公告)日:2020-05-08
申请号:CN201911341937.4
申请日:2019-12-24
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及视频信息技术领域,具体涉及一种基于图神经网络的视频精彩片段检测方法和装置。为了解决现有技术对视频精彩片段检测精度低的问题,本发明提出一种方法,包括基于预先获取的待检测视频,通过预设的图像特征提取模型获取待检测视频中每一帧图像的图像特征信息;基于每一帧图像的图像特征信息,构建每一帧图像对应的空间图;根据每一帧图像对应的空间图,通过预设的语义特征提取模型获取每一帧图像中物体的语义特征,并根据每一帧图像中物体的语义特征构建每一帧图像对应的时序图;根据每一帧图像对应的时序图,通过预设的视频片段检测模型获取待检测视频中每一帧图像的用户感兴趣得分。本发明的方法提高了视频精彩片段的检测准确率。
-
-
-
-
-