-
公开(公告)号:CN110853073A
公开(公告)日:2020-02-28
申请号:CN201810829677.4
申请日:2018-07-25
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
Abstract: 本申请实施例提供了一种确定关注点的方法、装置、设备、系统及信息处理方法,属于信息处理技术领域。该确定关注点的方法包括:获取场景的至少两幅图像;基于至少两幅图像,确定图像中的对象在场景中的关注点。本申请实施例的方案,无需对象佩戴任何设备,即可确定对象在真实场景中的关注点,该方案能够适用于无需对象配合佩戴使用额外设备的实际应用场景,能够为对象提供更自然的交互方式。
-
公开(公告)号:CN107027019B
公开(公告)日:2019-11-08
申请号:CN201610064279.9
申请日:2016-01-29
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
IPC: H04N13/128 , H04N5/213
Abstract: 本申请公开了一种图像视差获取方法及装置,其中,该方法包括:针对左目图像和右目图像中的每一个事件,计算该事件在预定视差范围内的代价,根据该代价,计算该事件的中间过程视差;其中,左目图像和右目图像是基于DVS获取的图像;针对第一图像中的每一个事件,根据该事件的中间过程视差以及第二图像中的对应事件的中间过程视差,确定第一图像中的该事件是否为鲁棒事件;其中,当第一图像为左目图像时,第二图像为右目图像,当第一图像为右目图像时,第二图像为左目图像;根据第一图像中的鲁棒事件的中间过程视差,估计第一图像中的所有事件的全局最优视差。本申请能够解决现有技术中由于针对每一个像素进行处理而导致的计算量较大且计算所需时间较长的问题。
-
公开(公告)号:CN109426782A
公开(公告)日:2019-03-05
申请号:CN201710756068.6
申请日:2017-08-29
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
Abstract: 本发明提供一种对象检测方法和用于对象检测的神经网络系统。所述对象检测方法包括:(A)获取包括多个帧图像的图像序列中的当前帧图像;(B)从当前帧图像提取当前帧的特征图;(C)对当前帧的特征图进行池化,以获得当前帧的池化特征图,其中,当前帧的池化特征图包括与当前帧之前的各个帧图像分别对应的各个池化特征图的信息;(D)从当前帧的池化特征图检测对象。根据本发明的对象检测方法和用于对象检测的神经网络系统,能够通过将当前帧图像的特征图与当前帧图像之前的各个帧的池化特征图的信息进行结合,来更准确地检测对象。
-
公开(公告)号:CN108734739A
公开(公告)日:2018-11-02
申请号:CN201710278061.8
申请日:2017-04-25
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
CPC classification number: G06T7/80 , G06K9/00711 , G06K9/00744 , G06K9/209 , G06K9/6202 , G06K9/78 , G06K2009/00738 , G06T7/248 , G06T7/292 , G06T7/38 , G06T2207/10016 , G06T2207/10028 , G06T2207/30196 , H04N5/04 , G06T7/20
Abstract: 提供一种用于时间对齐标定、事件标注、数据库生成的方法及装置。所述时间对齐标定方法包括:(A)获取同时由动态视觉传感器拍摄的目标对象的事件流和由辅助视觉传感器拍摄的目标对象的视频图像;(B)从所述视频图像中确定表现目标对象显著运动的关键帧;(C)将关键帧中目标对象的有效像素位置和关键帧的邻近帧中目标对象的有效像素位置分别映射到动态视觉传感器的成像平面上,以形成多个目标对象模板;(D)从所述多个目标对象模板中确定覆盖第一事件流段中的事件最多的第一目标对象模板;(E)将第一事件流段的中间时刻与第一目标对象模板所对应的帧的时间戳的时间对齐关系,作为动态视觉传感器与辅助视觉传感器之间的时间对齐关系。
-
公开(公告)号:CN108073936A
公开(公告)日:2018-05-25
申请号:CN201611025103.9
申请日:2016-11-15
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
IPC: G06K9/62
CPC classification number: G06K9/6232 , G06K9/6218
Abstract: 本发明提供了目标跟踪方法、装置及设备,所述方法包括:获取当前帧中目标的候选区域;对获取的候选区域进行特征回归得到终选区域。利用本发明实施例,即使当前帧中的目标被干扰,例如目标被遮挡、目标发生形变或一定程度的旋转、或者目标之外的背景噪声较大,也可以对当前帧中目标的多个候选区域的信息进行特征回归,根据回归得到的候选区域的综合回归后的信息,确定出目标的终选区域;相比于传统的对单个候选区域或者单个在先的目标所在区域的信息进行回归,可以提升跟踪目标所在区域的鲁棒性、抗干扰性和稳定性,大大降低了跟踪时偏离目标所在区域的几率,提升了跟踪目标所在区域的精度;从而可以提升目标的跟踪精度。
-
公开(公告)号:CN108073929A
公开(公告)日:2018-05-25
申请号:CN201611033463.3
申请日:2016-11-15
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
CPC classification number: G06T7/73 , G06K9/00805 , G06K9/4628 , G06K9/4671 , G06K9/6274 , G06K9/66 , G06N3/0445 , G06T7/11 , G06T2210/12 , G06K9/3233 , G06K9/6277
Abstract: 本发明提供一种基于动态视觉传感器的物体检测方法及设备,所述方法包括以下步骤:通过动态视觉传感器获取多个图像帧;采用递归一致网络检测所述图像帧以获取检测对象的候选框,其中所述递归一致网络包括一个帧检测网络模型和一个候选框图模型。本发明通过采用一种新的递归一致检测网络,从动态视觉传感器获取的数据中快速检测出检测对象的包围框,在保证检测精度的同时大大提高了检测速率。
-
公开(公告)号:CN105844128A
公开(公告)日:2016-08-10
申请号:CN201510019275.4
申请日:2015-01-15
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
Abstract: 本发明提供了一种身份识别方法和装置,所述方法包括:利用动态视觉传感器采集信号并输出检测的事件点;累积一段时间内的事件点形成图像数据;利用身份分类器根据所述图像数据进行身份识别;其中,所述身份分类器是用户身份注册时,根据所述动态视觉传感器针对所述用户采集的信号所形成的图像数据预先训练出来的。应用本发明,可以以低能耗、简单方便的操作进行身份识别,同时保护用户的隐私。
-
公开(公告)号:CN105615902A
公开(公告)日:2016-06-01
申请号:CN201410638408.1
申请日:2014-11-06
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
IPC: A61B5/16
CPC classification number: G06F3/011 , G06F2203/011 , G06K9/00315 , G10L25/63
Abstract: 本申请公开了情绪监控方法和装置。所述方法的一具体实施方式包括:获取用户的当前情绪的情绪表现信息;获取所述当前情绪的情绪刺激源信息;将所述情绪表现信息与所述情绪刺激源信息进行关联后存储。该实施方式在记录用户情绪表现的同时记录引发该情绪表现的刺激源信息,确保了情绪表现的可追溯性。
-
公开(公告)号:CN104055483A
公开(公告)日:2014-09-24
申请号:CN201310090431.7
申请日:2013-03-20
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
IPC: A61B5/00
Abstract: 本发明提供一种用于光学相干层析(OCT)图像复原的设备,所述设备包括:OCT光谱信号提取模块,从OCT系统获得的原始光谱信号提取OCT图像的光谱信号;噪声图像和点扩散函数构建模块,根据OCT光谱信号提取模块提取的OCT图像的光谱信号构建噪声图像,并且从OCT系统的参考臂反射的参考光光谱信号构建OCT系统的光源光谱的点扩散函数;图像复原模块,利用点扩散函数和全变差对构建的噪声图像同时进行去卷积和去噪,从而复原OCT图像。
-
公开(公告)号:CN103914710A
公开(公告)日:2014-07-09
申请号:CN201310001556.8
申请日:2013-01-05
Applicant: 北京三星通信技术研究有限公司 , 三星电子株式会社
Abstract: 一种从图像中检测对象的设备和方法。所述设备包括:显著区域检测器,从图像中检测显著区域;第一特征提取器,从检测的显著区域提取第一图像特征;第一识别器,利用第一分类器来基于提取的第一图像特征识别第一对象所在的区域;图像划分器,将图像划分为多个块;第二特征提取器,从分割的块提取第二图像特征;第二识别器,利用第二分类器来基于提取的第二图像特征识别第二对象所在的区域;提取器,基于第一对象所在的区域和第二对象所在的区域提取第二对象的轮廓。
-
-
-
-
-
-
-
-
-