-
公开(公告)号:CN103905542B
公开(公告)日:2017-05-24
申请号:CN201410114379.9
申请日:2014-03-25
Applicant: 北京邮电大学
IPC: H04L29/08 , H04W84/18 , H04L12/701
Abstract: 本发明提供一种物联网数据传输方法及网络节点。该方法包括:网络节点将同一应用对应的各类型数据进行混合,得到混合数据,所述网络节点获取所述混合数据的复杂度,所述网络节点从所述应用对应的路径中选取一条作为目标路径,所述网络节点根据所述复杂度获取所述目标路径的传输代价,所述网络节点判断所述传输代价是否低于预设阈值,如果判断结果为是,所述网络节点将所述混合数据按照所述目标路径进行传输。本发明中的网络节点通过获取混合数据的复杂度,为混合数据选取传输代价小于预设阈值的目标路径,实现了为混合数据自适应选取目标路径的目的,而且通过目标路径传输混合数据,可以降低混合数据的传输代价,从而能够节省路由资源。
-
公开(公告)号:CN106650831A
公开(公告)日:2017-05-10
申请号:CN201710018581.5
申请日:2017-01-10
Applicant: 北京邮电大学 , 波音(中国)投资有限公司
Abstract: 本发明提供一种基于特征融合的损伤检测方法及装置。本发明的基于特征融合的损伤检测方法,包括:提取待检测样本的多个基础特征,得到待检测样本的各基础特征对应的向量;根据待检测样本的各基础特征对应的向量和BP神经网络模型,采用BP神经网络分类器对待检测样本进行学习,得到待检测样本的损伤类型标签,其中,BP神经网络模型是BP神经网络分类器基于训练样本的损伤类型的标签和每个训练样本的多个基础特征得到的;根据待检测样本的损伤类型标签,确定待检测样本的损伤类型。本发明的基于特征融合的损伤检测方法及装置,可以快速准确检测不同的损伤类型,还可以对同时具有多种损伤类型的结构进行损伤类型的确定。
-
公开(公告)号:CN106503648A
公开(公告)日:2017-03-15
申请号:CN201610917123.0
申请日:2016-10-20
Applicant: 北京邮电大学
IPC: G06K9/00
CPC classification number: G06K9/00221 , G06K9/00288
Abstract: 本发明提供一种基于稀疏投影二值编码的人脸识别方法及装置。本发明提供的基于稀疏投影二值编码的人脸识别方法,包括获取训练集中各训练样本的各像素点对应的第一像素差值向量;根据第一像素差值向量获取满足基于稀疏投影矩阵的第一目标函数的各像素点对应的第一二值特征向量;对所有的第一二值特征向量进行聚类,得到多个聚类中心-单词;获取各训练样本对应的第一向量;获取待检测人脸的图像对应的第二向量,根据第一向量和第二向量,得到人脸识别结果。本实施例的基于稀疏投影二值编码的人脸识别方法及装置,识别速度快,解决了训练样本过度拟合的问题,且对数据的适应性好,提高了识别人脸的准确性和快速性。
-
公开(公告)号:CN103905542A
公开(公告)日:2014-07-02
申请号:CN201410114379.9
申请日:2014-03-25
Applicant: 北京邮电大学
IPC: H04L29/08 , H04W84/18 , H04L12/701
Abstract: 本发明提供一种物联网数据传输方法及网络节点。该方法包括:网络节点将同一应用对应的各类型数据进行混合,得到混合数据,所述网络节点获取所述混合数据的复杂度,所述网络节点从所述应用对应的路径中选取一条作为目标路径,所述网络节点根据所述复杂度获取所述目标路径的传输代价,所述网络节点判断所述传输代价是否低于预设阈值,如果判断结果为是,所述网络节点将所述混合数据按照所述目标路径进行传输。本发明中的网络节点通过获取混合数据的复杂度,为混合数据选取传输代价小于预设阈值的目标路径,实现了为混合数据自适应选取目标路径的目的,而且通过目标路径传输混合数据,可以降低混合数据的传输代价,从而能够节省路由资源。
-
公开(公告)号:CN116229162B
公开(公告)日:2024-07-30
申请号:CN202310136646.1
申请日:2023-02-20
Applicant: 北京邮电大学
IPC: G06V10/764 , G06V10/82 , G06V10/766 , G06F18/2415 , G06F18/25 , G06N3/045 , G06N3/047
Abstract: 本发明提供了一种基于胶囊网络的半自回归图像描述方法。该方法包括:提取图像特征,将提取的图像特征输入到Transformer编码器中进行处理得到视觉上下文特征;将所述视觉上下文特征和语言特征输入到Transformer解码器的跨模态注意层,进行跨模态语义计算;将跨模态语义计算结果输入到改进的胶囊网络层中,进行候选词汇时序属性学习,得到各个候选词汇;通过线性计算和softmax函数计算各个候选词汇的输出概率,得到图像的描述语句。本发明通过组掩码保持组内非自回归并行推理属性,提高推理速度;又引入胶囊网络增强整体模型词间依赖关系获取,提高生成语言的质量,在推理速度和语言质量之间达到一个较好的平衡。
-
公开(公告)号:CN116310975B
公开(公告)日:2024-06-25
申请号:CN202310241056.5
申请日:2023-03-14
Applicant: 北京邮电大学
Abstract: 本发明提供了一种基于一致片段选择的视听事件定位方法。该方法包括:从待进行识别的视听事件的视频流中提取初步的视觉特征和听觉特征;将初步的视觉特征和听觉特征通过双向引导的共同注意力,得到增强后的视觉特征和听觉特征;从增强后的视觉特征和听觉特征中选择出语义一致的视听片段对;对语义一致的视听片段对进行视听特征融合,得到视听融合特征;根据视听融合特征对待进行识别的视听事件进行识别,获取待进行识别的视听事件的事件定位信息。本发明方法通过一致片段选择模块计算两两视听片段的关联关系,对于关联得分高的视听对有着一致的语义,将其保留,并对保留下来的视听对进行全局建模,获取整个视频的语义信息。
-
公开(公告)号:CN116863920A
公开(公告)日:2023-10-10
申请号:CN202310874348.2
申请日:2023-07-17
Applicant: 北京邮电大学
Abstract: 本发明提供了一种基于双流自监督网络的语音识别方法、装置、设备及介质,包括:利用编码与量化模块对目标声学特征进行编码与量化获得语音向量;利用重构预测模块对语音向量进行重构预测获得第一语音表示;同时,利用对比预测模块中的自回归模型对语音向量进行预测获得第二语音表示;利用特征融合子模块对第一语音表示与第二语音表示进行融合获得融合后语音表示;基于目标声学特征,结合第一子模型与CTC模块中的连接时序分类器对融合后语音表示进行识别获得转录文本。本发明能够关注语音详细的上下文信息及语音不同特征之间的差异信息,提高自监督学习的鲁棒性,有效结合生成式和判别式自监督学习的互补优势。
-
公开(公告)号:CN115223220A
公开(公告)日:2022-10-21
申请号:CN202210719383.2
申请日:2022-06-23
Applicant: 北京邮电大学
Abstract: 本发明提供了一种基于关键点回归的人脸检测方法。该方法包括:通过多任务头网络提取待识别图像的特征图,输出训练图像的预测框;利用关键点回归对预测框和真实框进行训练样本匹配,获取预测框与真实框的匹配关系,选取传输损耗最小的候选框;利用多任务损失函数计算传输损耗最小的预测框与真实框之间的学习误差,根据学习误差反向传播,得到更新后的多任务特征提取网络;将待识别图像输入到训练好的多任务特征提取网络,多任务特征提取网络输出待识别图像的人脸识别结果。本发明设计了多任务最优传输匹配算法,改进了训练样本匹配的评价指标,匹配对检测和关键点任务学习整体最好的样本参与损失计算与梯度反传。
-
公开(公告)号:CN110796680B
公开(公告)日:2022-07-29
申请号:CN201910734740.0
申请日:2019-08-09
Applicant: 北京邮电大学
IPC: G06T7/246
Abstract: 本发明提供了一种基于相似模板更新的目标跟踪方法和装置。该方法包括:通过目标跟踪模块对初始时刻的视频帧图片进行图像特征提取,得到初始模型和初始增量更新模型通过目标跟踪模块对当前时刻t时刻的视频帧图片进行图像特征提取,得到t时刻的新模型根据t‑1时刻的新模型和t‑1时刻的增量更新模型计算得到t时刻的增量更新模型计算出新模型与之间的相似性δinit,计算出新模型与之间的相似性δincre,根据相似性δinit和相似性δincre通过模型更新策略选择将新模型或者作为t时刻的最终模型。本发明通过利用卷积响应计算出与Tinit、之间的相似性,根据相似性选择t时刻的最终模型,可以快速检测新模型的可靠性。
-
公开(公告)号:CN110827320B
公开(公告)日:2022-05-20
申请号:CN201910876398.8
申请日:2019-09-17
Applicant: 北京邮电大学 , 北京百卓网络技术有限公司
Abstract: 本发明提供了一种基于时序预测的目标跟踪方法和装置,该方法包括:采集得到包含目标的视频帧图片;采用多个并行的LSTM模块组成时序预测网络,在时序预测网络中输入t‑1时刻的目标的运动状态变化量得到t时刻的目标的运动状态变化量,再结合t‑1时刻的目标的运动状态量得到t时刻的目标的运动状态量的时序预测结果;空间预测模型基于t时刻的待检测区域通过卷积神经网络提取出t时刻的图片特征,将图片特征进行相关滤波定位处理,得到t时刻的目标的运动状态量的最终预测结果。本发明通过将目标的时序模型和目标的空间模型相结合,将时序模型的输出转化为空间模型的输入,使得空间模型的待检测区域更加准确,能够获得更加高效、准确的目标定位结果。
-
-
-
-
-
-
-
-
-