-
公开(公告)号:CN111444431B
公开(公告)日:2023-06-30
申请号:CN202010235102.7
申请日:2020-03-30
Applicant: 北京理工大学
IPC: G06F16/9535
Abstract: 本发明涉及一种网页推荐方法及系统。该方法包括:根据q学习建立q_table;根据q_table采取一个动作给用户推荐一个网页;计算推荐网页之前的收益;计算推荐网页之后的收益;计算即时收益;判断所述即时收益是否为零;若是,则给用户推荐这个网页;若否,更新q_table,根据更新后的q_table采取一个动作,重新给用户推荐一个网页。本发明根据即时收益来更新q_table中的q值,采用当前最大一步化收益给用户推荐网页,使当前推荐的网页更精准。而且把用户分为偏好特定专业领域的用户和偏好广泛领域的用户,网页推荐也更为精准。
-
公开(公告)号:CN116128811A
公开(公告)日:2023-05-16
申请号:CN202211621638.8
申请日:2022-12-16
Applicant: 北京理工大学
IPC: G06T7/00 , A61B3/12 , A61B3/14 , G06T3/00 , G06T7/11 , G06N3/08 , G06N3/0464 , G06N3/0442
Abstract: 本发明公开的一种基于递归神经网络的眼底萎缩弧区域变化预测方法,属于图像处理技术领域。本方法采用特征提取器输出的特征作为输入,网络训练时加入对于输入特征和输出特征的相似性约束,解决预测时序序列输入数据缺失的问题,降低数据带来的影响;通过在预测网络中加入注意力机制,充分利用历史输入特征,保持输入时间因果性,进一步提升网络预测性能;在进行预测网络训练前进行配准操作,排除不同时刻图像采集角度和分辨率的影响,能够进行不同时刻萎缩弧面积的比较,提升对眼底萎缩弧区域变化预测的准确性;本发明适用于眼科医疗等领域,通过萎缩弧增长趋势,提供精确且有针对性地辅助近视预测和防控。
-
公开(公告)号:CN116091449A
公开(公告)日:2023-05-09
申请号:CN202310020402.7
申请日:2023-01-06
Applicant: 北京理工大学
IPC: G06T7/00 , G06V10/764 , G06V10/82 , G06V10/40 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于无监督异构蒸馏框架的视网膜OCT图像病变分类方法,属于图像分类技术领域。该方法包含一个教师网络和一个学生网络,教师网络以在自然图像上预先训练的参数作为教师网络的初始参数,训练所述方法时只需要少量正常的视网膜OCT图像,并且在训练时教师网络不更新参数,学生网络以教师网络的特征为输入,并且学习教师网络产生的浅层特征,在测试阶段,通过对比教师网络和学生网络产生特征的差异来判断待测图像是否是病变图像,这样能有缓解训练深度学习网络需要大量医学图像标注的问题。
-
公开(公告)号:CN113421250A
公开(公告)日:2021-09-21
申请号:CN202110756395.8
申请日:2021-07-05
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于无病变影像训练的眼底疾病智能诊断方法,属于图像分类以及疾病诊断技术领域。包括:1构建训练集和测试集并完成数据集的预处理;2构建用于无病变影像训练的编码器、解码器、判别器、复原解码器模型;3构建基于图像变换的代理任务;4构建基于重构损失、判别损失、复原损失的加权损失函数;5模型的训练;6利用训练好的编码‑解码模型对待检测图像进行测试。所述方法通过图像重构的训练方式,摆脱了对于不同类数据共存于训练集的条件依赖;代理任务的引入减少了模型对于数据的需求;图像与特征空间的约束加强了模型对于图像组织结构的学习;以上的特性共同提升了模型对于疾病影像的识别能力。
-
公开(公告)号:CN110264424B
公开(公告)日:2021-05-04
申请号:CN201910537576.4
申请日:2019-06-20
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于生成对抗网络的模糊视网膜眼底图像增强方法,属于图像增强技术领域。包括如下步骤:步骤一:构建训练集和测试集;步骤二:分别对步骤一构建的训练集和测试集中的眼底图像进行预处理;步骤三:构建用于增强的生成对抗网络模型;步骤四:利用训练好的生成器对测试集模糊视网膜眼底图像进行增强,得到最终的增强结果。所述方法对比现有眼底图像增强方法,增强结果平滑无噪声,色彩还原度高,有效地改善了传统方法颜色偏移、对比度过高、颜色失真、噪声放大的问题;避免设计复杂的先验模型,且处理速度更快;很好地还原了视网膜眼底图像血管分布等细节,生成结果真实可靠。
-
公开(公告)号:CN112287119A
公开(公告)日:2021-01-29
申请号:CN202011193522.X
申请日:2020-10-30
Applicant: 北京理工大学
IPC: G06F16/36
Abstract: 本发明提供了一种在线资源相关信息抽取的知识图谱生成方法,属于自然语言处理信息抽取技术领域。所述方法包括:在输入的在线资源引用句子上枚举生成候选span,基于BERT编码器学习句子中的token表示进而得到每个候选span的表示,从而将实体抽取和关系抽取两个任务转化为基于span表示的分类计算问题,将两个任务的目标函数通过加权得到联合目标函数,进而利用多任务学习策略进行联合训练。通过将训练好的信息抽取模型应用在大规模的科技文献语料中,生成在线资源的知识图谱。该方法解决了实体和关系抽取对在线资源属性描述刻画不足的问题,减少了构建在线资源知识图谱的人工成本,提高了知识图谱生成效率。
-
公开(公告)号:CN110264424A
公开(公告)日:2019-09-20
申请号:CN201910537576.4
申请日:2019-06-20
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于生成对抗网络的模糊视网膜眼底图像增强方法,属于图像增强技术领域。包括如下步骤:步骤一:构建训练集和测试集;步骤二:分别对步骤一构建的训练集和测试集中的眼底图像进行预处理;步骤三:构建用于增强的生成对抗网络模型;步骤四:利用训练好的生成器对测试集模糊视网膜眼底图像进行增强,得到最终的增强结果。所述方法对比现有眼底图像增强方法,增强结果平滑无噪声,色彩还原度高,有效地改善了传统方法颜色偏移、对比度过高、颜色失真、噪声放大的问题;避免设计复杂的先验模型,且处理速度更快;很好地还原了视网膜眼底图像血管分布等细节,生成结果真实可靠。
-
公开(公告)号:CN111444431A
公开(公告)日:2020-07-24
申请号:CN202010235102.7
申请日:2020-03-30
Applicant: 北京理工大学
IPC: G06F16/9535
Abstract: 本发明涉及一种网页推荐方法及系统。该方法包括:根据q学习建立q_table;根据q_table采取一个动作给用户推荐一个网页;计算推荐网页之前的收益;计算推荐网页之后的收益;计算即时收益;判断所述即时收益是否为零;若是,则给用户推荐这个网页;若否,更新q_table,根据更新后的q_table采取一个动作,重新给用户推荐一个网页。本发明根据即时收益来更新q_table中的q值,采用当前最大一步化收益给用户推荐网页,使当前推荐的网页更精准。而且把用户分为偏好特定专业领域的用户和偏好广泛领域的用户,网页推荐也更为精准。
-
公开(公告)号:CN112287119B
公开(公告)日:2022-10-18
申请号:CN202011193522.X
申请日:2020-10-30
Applicant: 北京理工大学
IPC: G06F16/36
Abstract: 本发明提供了一种在线资源相关信息抽取的知识图谱生成方法,属于自然语言处理信息抽取技术领域。所述方法包括:在输入的在线资源引用句子上枚举生成候选span,基于BERT编码器学习句子中的token表示进而得到每个候选span的表示,从而将实体抽取和关系抽取两个任务转化为基于span表示的分类计算问题,将两个任务的目标函数通过加权得到联合目标函数,进而利用多任务学习策略进行联合训练。通过将训练好的信息抽取模型应用在大规模的科技文献语料中,生成在线资源的知识图谱。该方法解决了实体和关系抽取对在线资源属性描述刻画不足的问题,减少了构建在线资源知识图谱的人工成本,提高了知识图谱生成效率。
-
公开(公告)号:CN109142891A
公开(公告)日:2019-01-04
申请号:CN201811121352.7
申请日:2018-09-25
Applicant: 北京理工大学
IPC: G01R29/10
CPC classification number: G01R29/10 , G01R29/0885
Abstract: 本发明公开了基于里德堡原子量子相干效应的天线近场测试探头及方法。使用本发明能够完成天线电磁场的近场测试。本发明采用发生了里德堡态原子量子相干效应的原子气室作为天线近场测试探头,该探头具有不需要误差修正、灵敏度高、对待测天线电磁场的扰动小的特点,可一次性的测量1‑500GHz范围内的电磁场;此外,采用本发明公开的探头阵列进行测试,有望不再需要精密的探头空间扫描机械系统,能够有效降低测试成本、提高测试效率;另外,采用本发明公开的增加了相位探针的复合探头对天线电磁场进行测试,能够简化测试过程、提高测试效率。
-
-
-
-
-
-
-
-
-