-
公开(公告)号:CN115129844B
公开(公告)日:2025-02-07
申请号:CN202210765094.6
申请日:2022-07-01
Applicant: 北京师范大学
IPC: G06F16/3329 , G06F16/334 , G06N3/0442 , G06F40/30
Abstract: 本发明公开了一种基于有监督对比学习的问题可持续性评价系统,应用于自然语言处理技术领域,包括:初步特征提取模块、主要计算模块、对话者特征提取模块、特征融合模块、线性分类层、优化模块,通过分析背景文本和对话文本的关系,提取文本特征得到评价结果,本系统将问题可继续性评价任务作为独立任务,引入有监督对比学习方法对系统进行优化,能够更好地区分相似样本,不再需要使用其他方法(如数据增强等)构造正样本,一定程度上解决了自然语言数据构造正样本困难的问题;能够很好地提取文本的意义和文本间的关系特征,性能优越,对数据缺乏的情况有很好的鲁棒性。
-
公开(公告)号:CN117351575B
公开(公告)日:2024-02-27
申请号:CN202311650373.9
申请日:2023-12-05
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06N3/0464 , G06V10/20 , G06V10/82 , G06V20/00
Abstract: 本发明提供一种基于文生图数据增强模型的非言语行为识别方法和装置,涉及人工智能教育应用技术领域,所述方法包括:获取待识别的原始图像,将所述待识别的原始图像输入至预先训练的文生图数据增强模型,输出待识别的全课堂教学场景图;其中,所述文生图数据增强模型包括稳定扩散子模型和控制网络子模型;将所述待识别的原始图像和所述待识别的全课堂教学场景图作为原始数据集,将所述原始数据集输入至预先训练的非言语行为识别模型,输出识别到的非言语行为;其中,所述非言语行为识别模型是基于历史原始图像以及历史全课堂教学场景图对卷积神经网络进行训练得到的。通过本发明提供的方法,保证非言语行为识别准确率高。
-
公开(公告)号:CN113536808A
公开(公告)日:2021-10-22
申请号:CN202110950774.0
申请日:2021-08-18
Applicant: 北京师范大学
Abstract: 本发明公开了一种引入多重文本关系的阅读理解试题难度自动预测方法,涉及试题难度自动预测技术领域,包括:建立基于多视角注意力的MACNN模型,包括输入层、编码层、交互层、融合层和预测层,获取输入文本,包括问题文本qi、对应文档di及问题的候选选项oi;将获取的输入文本作为MACNN模型的输入;利用编码层对输入文本进行卷积操作,提取输入文本的上下文表示;通过交互层分别获取问题文本与对应文档、问题文本与候选选项、候选选项与候选选项间的交互关系信息;利用融合层将交互层获取的交互关系信息进行整合,并通过预测层预测试题难度。本发明可自动预测试题难度,辅助或替代传统人工试题难度评估工作,减少人力和财力资源的消耗。
-
公开(公告)号:CN110245459B
公开(公告)日:2021-06-01
申请号:CN201910575724.1
申请日:2019-06-28
Applicant: 北京师范大学
Abstract: 本发明实施例提供一种激光清洗效果预览方法及装置,该方法包括:获取待清洗区域图片;将所述待清洗区域图片及清洗参数,输入至预设的生成对抗网络模型,输出与清洗参数对应的预览图片;其中,所述生成对抗网络模型根据清洗前图片、相应清洗参数以及清洗前图片对应的清洗结果图片作为样本,进行训练后得到。该方法实现了根据待清洗区域图片及激光参数,生成清洗后的预览图片,从而有利于根据清洗后的预览图片评估当前清洗参数的合理性,进而避免激光参数设置的不合理导致耗时耗成本的问题。
-
公开(公告)号:CN116704546B
公开(公告)日:2025-01-10
申请号:CN202210240443.2
申请日:2022-03-10
Applicant: 北京师范大学
IPC: G06V40/10 , G06V40/20 , G06V10/764 , G06V10/762 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种可持续学习的人物交互智能检测方法、系统及可存储介质,涉及人物交互检测技术领域,包括:获取图像数据集并将其划分为不同的人物交互检测任务;构建人物交互检测任务的检测模型,对检测模型进行训练,当训练迭代次数达到第一预设参数I时预训练结束,然后引入对比学习继续训练第二预设参数A次,获得最终检测模型,并利用交互类别分类器预测交互类别;在每个人物交互检测任务结束后增量地学习新类别的知识,利用保存的旧类别样本和特征微调模型,得到人物交互检测的可持续学习模型,完成人物交互智能检测。本发明中的技术方案可以使人物交互检测的可持续学习模型同时具备对新旧类别的良好的检测能力,提高检测效果。
-
公开(公告)号:CN114898131B
公开(公告)日:2024-07-12
申请号:CN202210683874.6
申请日:2022-06-17
Applicant: 北京师范大学
IPC: G06V10/74 , G06V10/764 , G06V10/80
Abstract: 本发明公开了一种基于自然引导和数据增强的违禁物品检测方法及系统,应用于X光安全检查技术领域,其方法包括以下步骤:S1、基于原始目标检测框构造自然图像和X光安检图像的训练样本对;S2、通过数据增强策略提升训练样本对的多样性;S3、对数据增强策略获得的第一预测框结果进行分步融合,得到第二预测框结果S4、根据所述第二预测框结果对违禁物品进行检测;通过所述目标检测方法对违禁物品进行检测,引入自然图像为X光安检图像数据集提供外观特征,增强模型对违禁品的判别能力,提升检测精度;通过不同的数据增强策略提升数据集的多样性,减低因数据集本身的缺陷带来的影响,能够大大提高X光违禁物品检测模型的检测性能。
-
公开(公告)号:CN110245459A
公开(公告)日:2019-09-17
申请号:CN201910575724.1
申请日:2019-06-28
Applicant: 北京师范大学
Abstract: 本发明实施例提供一种激光清洗效果预览方法及装置,该方法包括:获取待清洗区域图片;将所述待清洗区域图片及清洗参数,输入至预设的生成对抗网络模型,输出与清洗参数对应的预览图片;其中,所述生成对抗网络模型根据清洗前图片、相应清洗参数以及清洗前图片对应的清洗结果图片作为样本,进行训练后得到。该方法实现了根据待清洗区域图片及激光参数,生成清洗后的预览图片,从而有利于根据清洗后的预览图片评估当前清洗参数的合理性,进而避免激光参数设置的不合理导致耗时耗成本的问题。
-
公开(公告)号:CN119919849A
公开(公告)日:2025-05-02
申请号:CN202411870375.3
申请日:2024-12-18
Applicant: 北京师范大学珠海校区
IPC: G06V20/40 , G06V40/20 , G06V10/80 , G06V10/82 , G06V10/764 , G06Q50/20 , G06N5/04 , G06N3/0442 , G06N3/0499 , G06N3/0464 , G06N3/084
Abstract: 本发明提供一种基于因果推理的课堂交互行为识别方法以及系统,其中,上述方法包括:获取用户输入的交互视频,其中,交互视频包括:在课堂场景下的个体行为,个体行为包括:教师行为以及学生行为;将交互视频输入至课堂交互行为识别模型,得到课堂交互行为识别模型输出的交互序列的识别结果以及个体行为的识别结果;交互序列用于表示教师行为与学生行为之间的交替模式或互动模式;其中,课堂交互行为识别模型是基于交互视频样本、交互视频样本对应的交互序列的真实类别标签以及交互视频样本对应的个体行为的真实类别标签训练得到的;通过本发明能够捕捉一个课堂交互事件中连续发生的各种行为,展现了互动的动态性。
-
公开(公告)号:CN119575386A
公开(公告)日:2025-03-07
申请号:CN202411468496.5
申请日:2024-10-21
Applicant: 西北工业大学深圳研究院 , 中科探海(深圳)海洋科技有限责任公司 , 北京师范大学珠海校区
Abstract: 本发明公开了一种主动声呐成像数据在线混响消除及目标探测方法,包括:声呐获取当前时刻数据帧;判断当前是否处于初始化阶段;利用当前观测帧以及目标分量,更新混响基底;并更新的混响信号基底更新混响子空间权值;重新估计目标分量,将此作为探测目标的估计,实现在线实时混响消除及目标检测;本发明解决了常规低秩‑稀疏分解方法未考虑时序数据特性导致的计算复杂度高、资源消耗大等问题。
-
公开(公告)号:CN117994864B
公开(公告)日:2024-07-26
申请号:CN202410399294.3
申请日:2024-04-03
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06Q50/20 , G06T7/246 , G06V10/44 , G06V10/764
Abstract: 本发明提供一种中学生物实验操作测评方法、装置、电子设备及存储介质,属于计算机视觉技术领域,所述方法包括:对待检测视频进行特征提取,得到视频特征;将视频特征输入至时序动作检测模型,得到包括预测操作动作起止时间视频片段和动作类别的时序检测结果;将多个视频片段分别输入至目标检测模型,得到包括实验器材检测框和实验器材名称的目标检测结果;基于目标检测结果,确定实验器材的运动情况,进而确定实验操作得分。将时序动作检测应用到实验测评中,对视频中的动态场景进行建模,从而捕捉到人物动作的时间依赖性;结合时序动作检测和目标检测技术,不仅能够识别视频中的实验器材,还能够追踪其运动,从而提高行为分类的准确性。
-
-
-
-
-
-
-
-
-