-
公开(公告)号:CN108073905A
公开(公告)日:2018-05-25
申请号:CN201711395179.5
申请日:2017-12-21
Applicant: 北京邮电大学
IPC: G06K9/00
Abstract: 本发明公开了一种智能水尺读数的方法、系统和设备,该方法包括对采集到的智能水尺读数的视频流进行鲁棒性预处理;基于canny算子对预处理后的视频流数据进行水位检测,得到水面的位置;通过训练模型识别出智能水尺的刻度含义并基于所述水面的位置计算出水位的高度。本发明有效解决了水尺识别准确率、实时性、鲁棒性等实际问题,并且,还提供了与该方法相应的系统和设备,兼具改善了原有算法的速度、精度等方面缺陷,使得智能水尺可以在雾霾、夜晚等条件恶劣的场景下可靠地工作,广泛适用于需要多场景下的水尺识别作业的行业。
-
公开(公告)号:CN104198989B
公开(公告)日:2017-10-20
申请号:CN201410472019.6
申请日:2014-09-16
Applicant: 北京邮电大学
IPC: G01S5/02
Abstract: 本发明实施例公开了一种基于照明光源和Wi‑Fi信号的混合模式室内定位方法。该方法包括如下步骤:光信息发射步骤:房间号与LED灯的ID信息的广播发射;基准数据采集步骤:将LED灯的ID信息、Wi‑Fi信号强度分布预先存到手机终端;Wi‑Fi初步定位步骤:接收到的Wi‑Fi信号强度数据与已采集的数据匹配,可确定使用者所处房间区域;可见光再次定位步骤:用光信息接收模块接收并处理光信息,预处理后的光信息再次处理后与初步定位得到的房间区域内所有ID信息比对,确定使用者所处的室内的具体位置并将该位置显示在手机屏幕上。利用本发明实施例,能够提高室内定位精准性,节约照明能耗,具有很大的实用价值。
-
公开(公告)号:CN106127265A
公开(公告)日:2016-11-16
申请号:CN201610458328.7
申请日:2016-06-22
Applicant: 北京邮电大学
CPC classification number: G06K9/6885 , G06K9/2054
Abstract: 本发明实施例公开了一种基于激活力模型的图片中文本识别纠错方法。该方法包括如下步骤:字典构建步骤:构建激活力字典,旨在挖掘汉字间的相互影响关系,从而获得各个汉字前方以及后方可能出现的其他汉字。不确定字纠正步骤:使用通用方法获取识别出的字符以及对应的识别相似度,若其中存在某一字符的相似度高于选定阈值的,认为识别正确;若不存在,则将这些字符以及相似度作为参考先验概率,并利用构建的字典并结合贝叶斯公式筛选出最佳字。利用本发明实施例,能够提高图片文本识别的正确率,具有很大的实用价值。
-
公开(公告)号:CN106095925A
公开(公告)日:2016-11-09
申请号:CN201610407547.2
申请日:2016-06-12
Applicant: 北京邮电大学
IPC: G06F17/30
CPC classification number: G06F17/30743 , G06F17/30758
Abstract: 本发明实施例公开了一种基于声乐特征的个性化歌曲推荐系统。该方法包括如下步骤:特征提取步骤:提取歌唱数据的音域特征、速度特征和音色特征,其中音域特征包括绝对音域和相对音域,速度特征是每分钟节拍数,音色特征是梅尔频率倒谱系数训练的高斯混合模型。系统推荐步骤:将用户演唱片段用关键音匹配算法找到音乐库中的对应歌曲,进行音域适合度检测、歌曲适合度检测、歌手适合度检测。用提取的用户特征进行歌手推荐和歌曲推荐。利用本发明实施例,可以实现评价当前演唱歌曲是否适合用户演唱,并进一步推荐与用户声乐能力相匹配的歌手和适合用户演唱的歌曲。从用户演唱的角度出发,将传统的音乐推荐范围进行了推广,具有很高的实用价值。
-
公开(公告)号:CN105550292A
公开(公告)日:2016-05-04
申请号:CN201510919129.7
申请日:2015-12-11
Applicant: 北京邮电大学
IPC: G06F17/30
CPC classification number: G06F17/30705
Abstract: 本发明公开了一种基于von Mises-Fisher概率模型的网页分类方法,属于互联网及机器学习技术领域。所述方法首先对训练样本进行数据预处理、特征提取和特征筛选后建模,然后将待分类网页的特征向量代入模型中实现最终分类。本发明对所得特征向量进行二范数归一化,在消除文本长度对特征向量影响的同时可为von Mises-Fisher模型建模做准备;使用von Mises-Fisher概率模型对文本特征向量进行建模,此模型为首次应用于自然语言处理领域。
-
公开(公告)号:CN103985384A
公开(公告)日:2014-08-13
申请号:CN201410232526.2
申请日:2014-05-28
Applicant: 北京邮电大学
Abstract: 本发明实施例公开了一种基于随机映射直方图模型的文本无关说话人鉴别方法。该方法包括如下步骤:特征提取步骤:将非归一化递增的线谱频率特征变换归一化的差分线谱频率特征并将相邻帧的差分线谱频率特征进行组合生成复合差分线谱频率特征以表达信号的动态特性。模型训练步骤:根据复合差分线谱频率特征的分布特点设计随机映射参数,对训练数据集进行随机映射并通过计算平均直方图来构建概率模型。鉴别步骤:对待鉴别人的语音信号按照步骤一提取特征后输入到步骤二训练得到的模型中,计算针对每个概率模型的似然值,获取最大似然值,确认说话人编号。利用本发明实施例,能够提高文本无关的说话人鉴别率,具有很大的实用价值。
-
公开(公告)号:CN103824561A
公开(公告)日:2014-05-28
申请号:CN201410054042.3
申请日:2014-02-18
Applicant: 北京邮电大学
Abstract: 本发明实施例公开了一种语音线性预测编码模型的缺失值非线性估算方法。该方法包括如下步骤:线谱频率参数变换步骤:将语音线性编码预测模型的线谱频率参数通过线性变换转化为线谱频率参数差值;训练模型步骤;传输过程中丢失部分和收到部分概率分布计算步骤;最小均方误差最优化估计步骤。利用本发明实施例,能够在分组传输丢包的情况下,可靠的实现线性预测模型的最优估计,降低传输损失,提高语音质量,具有很大的实用价值。
-
公开(公告)号:CN119576755A
公开(公告)日:2025-03-07
申请号:CN202411292354.8
申请日:2024-09-14
Applicant: 中国移动通信有限公司研究院 , 北京邮电大学 , 中国移动通信集团有限公司
IPC: G06F11/3668 , G06F18/40
Abstract: 本申请提供一种测试方法、装置、测试设备、网络设备、介质及程序产品,应用于测试技术领域。该方法包括:获取待测试方案的测试要求信息,以及获取测试执行设备执行所述待测试方案获得的测试过程信息;采用多模态大模型,依据所述测试要求信息对所述测试过程信息进行分析,获得测试中间执行指令;将所述测试中间执行指令发送至所述测试执行设备,用于所述待测试方案的进一步测试执行。采用该方法,利用多模态大模型对多模态信息的分析与推理能力,实现多模态测试过程中的测试过程分析,并根据测试要求信息生成指导测试执行的测试中间执行指令,用于后续测试步骤执行,以实现在多模态测试场景下,测试交互过程的自动化。
-
公开(公告)号:CN119229165A
公开(公告)日:2024-12-31
申请号:CN202411073244.2
申请日:2024-08-06
Applicant: 北京邮电大学
IPC: G06V10/764 , G06V10/80 , G06V10/774 , G06V10/82
Abstract: 本公开提供一种基于自适应多分辨特征融合的视觉分类方法、装置、电子设备和存储介质,涉及计算机视觉技术领域。上述方法包括:通过分类模型获取图像的初始特征,采用分类模型中基于元学习的自适应池化层,处理初始特征,得到低分辨率图像特征;将初始特征和低分辨率图像特征,输入特征提取器,并执行不同的分类约束任务,分别得到高分辨率分类特征和低分辨率分类特征;在分类模型中,对低分辨率分类特征和高分辨率分类特征进行融合,得到融合特征;将融合特征传入分类模型中的融合分类器,得到图像的视觉分类结果。本公开利用元学习策略得到自适应池化层,可以实现选择与高分辨率特征最互补的低分辨率特征,得到了细粒度图像具有判别力的特征。
-
公开(公告)号:CN114898437B
公开(公告)日:2024-12-31
申请号:CN202210577016.3
申请日:2022-05-25
Applicant: 北京邮电大学
IPC: G06V40/16 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于频率学习的深度伪造人脸检测方法,提出一种频率感知注意力模块来检测伪造的人脸图像,可以细化频域的表示,促进对频率伪影的学习,有效提取了频域的伪影信息,通过双流框架来提取图像的特征,同时捕捉空间域中的伪影信息以及在空间域中难以捕获但在频域较为明显的伪影信息,通过对空间域和频域的交融学习,充分利用已有数据获得最好的表征结果。同时通过引入深度伪造对比损失函数,可以在区别真假人脸的基础上保留了由不同篡改技术获得的伪造人脸的相对分布,减少真实人脸的类内方差,且放大特征空间中的类间多样性,大大提高了伪造人脸检测的泛化性以及面对真实场景中各种未知篡改方法的鲁棒性。
-
-
-
-
-
-
-
-
-