一种脉冲阵列编码的自适应划分方法

    公开(公告)号:CN108965873B

    公开(公告)日:2020-02-14

    申请号:CN201810821231.7

    申请日:2018-07-24

    Applicant: 北京大学

    Abstract: 本发明提供了一种脉冲阵列编码的自适应划分方法,包括步骤:通过时空信号传感器采集时空脉冲信息,形成脉冲阵列;将脉冲阵列划分为多个编码树立方体;将每个编码树立方体多级划分为编码立方体,直至划分至最大深度;将每次划分前后编码立方体结构的性能进行比较,决策是否进行划分编码立方体;确定编码树立方体及所述编码立方体的划分结构,输出划分结果。本发明依据传统视频编码中编码结构的划分思路,提出了对于同时具有时间和空间的时空脉冲阵列信号的自适应划分方式。通过在空域上和时域上的划分,为后续的压缩过程提供了所要操作的区域范围。

    一种脉冲阵列信号的降噪方法与系统

    公开(公告)号:CN110430340A

    公开(公告)日:2019-11-08

    申请号:CN201910577862.3

    申请日:2019-06-28

    Applicant: 北京大学

    Abstract: 本发明公开了一种脉冲阵列信号的降噪方法,包括:对待去噪脉冲的空间邻域和时间戳邻域上的脉冲阵列信号的发放特性进行建模,建立脉冲阵列信号的发放特性模型,提取脉冲阵列信号时空分布特征;根据脉冲阵列信号中的噪声分布特性,构建时空滤波器,对提取的特征进行滤波;根据所述发放特性模型,把滤波后的脉冲时空分布特征还原为脉冲阵列信号。本发明充分考虑了噪声在脉冲阵列信号中的时空分布特征,对其在时域上的传递性、空域上的随机性进行建模,结合脉冲本身代表的物理意义,构建时空滤波器对脉冲信号进行高效去噪,效率高,降噪效果好。

    一种基于深度度量学习的一体化目标属性识别与精确检索方法

    公开(公告)号:CN105808732B

    公开(公告)日:2019-05-17

    申请号:CN201610135001.6

    申请日:2016-03-10

    Applicant: 北京大学

    Abstract: 本发明实施例提供了一种基于深度度量学习的一体化目标属性识别与精确检索方法。所述方法包括:获取查询图片和图片数据库;根据预先训练好的深度神经网络模型,分别得到所述查询图片和所述图片数据库中所有图片的特征向量,所述特征向量包括图片中个体目标的类别特征与个体目标的身份特征;根据所述特征向量,分别计算所述查询图片与所述图片数据库中的图片在欧式空间中的欧氏距离;根据所述查询图片与所述图片数据库中的所有图片的欧氏距离,从所述图片数据库中选择与所述查询图片相似度最大的图片。本发明能够提高图像检索的准确性。

    神经网络表示标准框架结构

    公开(公告)号:CN108985448A

    公开(公告)日:2018-12-11

    申请号:CN201810575097.7

    申请日:2018-06-06

    Applicant: 北京大学

    CPC classification number: G06N3/0635 G06N3/0454

    Abstract: 本发明提供一种神经网络表示标准框架结构,包括:可互操作表示模块,通过对输入的神经网络进行转换得到可互操作的表示格式,其包含对神经网络的语法定义、支持的运算操作定义和权重格式定义;紧凑表示模块,将可互操作表示的神经网络通过神经网络压缩算法转换为序列化格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义;编解码表示模块,通过神经网络压缩算法将紧凑表示的神经网络转换为编解码表示,其包含压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义;封装表示模块,将安全信息和身份认证信息和神经网络一起封装,由此将神经网络转换为模型。

    一种视频信息处理方法、装置及系统

    公开(公告)号:CN108882020A

    公开(公告)日:2018-11-23

    申请号:CN201710338736.3

    申请日:2017-05-15

    Applicant: 北京大学

    Abstract: 本申请实施例公开了一种视频信息处理方法、装置及系统。所述方法包括:提取各视频帧的特征;判定所述特征的类型,所述类型反映所述特征与参考特征之间的时域相关程度;采用预定的匹配于所述类型的编码方式,为所述特征编码,得到编码后特征;将所述编码后特征发送给服务器,以便于所述服务器对所述编码后特征解码后用于视觉分析任务。利用本申请实施例,可以不向云端服务器发送视频本身,而是将视频的特征进行编码后发送给云端服务器用于视觉分析任务,相比于现有技术可以减小数据传输压力,也可以减小云端服务器的存储压力。

    三维卷积神经网络训练方法、视频异常事件检测方法及装置

    公开(公告)号:CN104281858B

    公开(公告)日:2018-07-10

    申请号:CN201410469780.4

    申请日:2014-09-15

    Abstract: 本发明实施例涉及视频图像技术领域,尤其涉及一种三维卷积神经网络训练方法、一种基于三维卷积神经网络的视频异常事件检测方法及装置,用以对拥挤人群场景下发生的异常事件进行检测。本发明实施例的方法中三维卷积神经网络正向传递过程中第N组卷积‑采样层中的卷积层上的每个卷积核对第N‑1组卷积‑采样层中的采样层的所有通道的所有特征图的数据进行卷积,由于最后一层卷积层对所有通道的所有特征图的数据进行卷积,从而可提取更具有表达能力的特征,从而可通过这些特征更好地描述拥挤人群场景下发生的异常事件,进而提高异常事件的检测的准确率。

    背景建模方法、装置及设备

    公开(公告)号:CN104320659B

    公开(公告)日:2017-12-29

    申请号:CN201410397363.3

    申请日:2014-08-13

    Applicant: 北京大学

    Abstract: 本发明公开了一种背景建模方法、装置及设备,其中,背景建模方法将高斯混合模型中原本为浮点计算的权重、均值和方差等参数的更新,等价转化为对应新参数累加权值和、累加均值和以及累加方差和的整数迭代,并利用新参数及整数除法模拟算法完成高斯混合模型中的所有计算,从而消除高斯混合模型中不适用于硬件实现的除法运算和浮点计算,并达到与高斯混合模型相当的建模效果。

    一种基于深度神经网络的开集类别发掘与扩展方法与装置

    公开(公告)号:CN107506799A

    公开(公告)日:2017-12-22

    申请号:CN201710780217.2

    申请日:2017-09-01

    Applicant: 北京大学

    Abstract: 一种基于深度神经网络的样本分类方法,使用包含已定义类别样本的样本集训练待扩展分类模型,获得分类阈值信息;将包含未定义类别样本的样本集送入所述待扩展分类模型,根据所述待扩展分类模型的分类阈值信息确定至少部分所述未定义类别样本;人工标注未定义类别样本;在所述深度神经网络的分类层中增加权值转移矩阵列数,以增加模型识别类别的总数,其中,增加的权值列中包含与全局分类相关的第一信息和与类别间联系相关的第二信息;用人工标注的未定义类别样本增量训练更新后的模型。通过修改深度神经网络分类层权值转移矩阵,从而扩展深度神经网络,使其识别类别数动态增加,从而能处理开集识别问题,更贴近真实识别场景下的应用。

    基于显式和隐含信息的图像视觉显著度计算方法和装置

    公开(公告)号:CN104899872B

    公开(公告)日:2017-11-03

    申请号:CN201510253424.3

    申请日:2015-05-18

    Applicant: 北京大学

    Inventor: 田永鸿 李甲 方舒

    Abstract: 本发明实施例提供了一种基于显式和隐含信息的图像视觉显著度计算方法和装置。该方法主要包括:从图像中提取视觉词汇,建立任意两个视觉词汇之间的隐含关系模型;根据所述隐含关系模型获取所述图像上任意两个宏块之间的隐含关系系数,在不同颜色通道上分别提取每个宏块的显式显著度;根据所述图像上任意两个宏块之间的隐含关系系数和每个宏块的显式显著度建立图模型,根据所述图模型计算出所述图像的视觉显著度。本发明实施例可以使用这种先验知识和图像的显式信息量来构建有向图,用有向图的随机游走结果来计算显著度能得到更干净、准确、稀疏的图像的视觉显著度,可以有效地区分图像中的目标和干扰物,更好地定位图像中的重要内容。

    一种基于多视角贝叶斯网络的多视角行人检测方法

    公开(公告)号:CN103729620B

    公开(公告)日:2017-11-03

    申请号:CN201310680608.9

    申请日:2013-12-12

    Applicant: 北京大学

    Abstract: 本发明提出了一种基于视角贝叶斯网络模型的行人检测方法及装置,可以对多个摄像头监控的人群比较密集的场景进行行人检测和定位。不仅适用于前景提取效果较好的场景,也适用于前景提取效果不佳但可以通过行人检测器进行检测的场景。本发明的方法包括单视处理步骤、基平面映射步骤、多视角融合步骤和逆映射以及最终检测结果输出步骤。

Patent Agency Ranking