-
公开(公告)号:CN108564673A
公开(公告)日:2018-09-21
申请号:CN201810333715.7
申请日:2018-04-13
Applicant: 北京师范大学
Abstract: 本发明提供一种基于全局人脸识别的课堂考勤方法及系统,所述的方法包括:从视频流的每一帧图像中提取出人脸图像,得到视频流中所有的人脸图像,并对所有的人脸图像进行人脸追踪,得到多条人脸轨迹;将多条人脸轨迹与选课名单中所有学生对应的标准照进行全局人脸匹配,得到与每一条人脸轨迹匹配的标准照,进而输出课堂出勤名单。本发明对所有的人脸图像进行人脸追踪,得到所有人脸图像的多条人脸轨迹,每一条人脸轨迹为追踪得到的一位学生的人脸图像序列,对所有在课堂上的学生对应的一系列人脸轨迹进行全局人脸匹配,一次性地输出课堂出勤名单,无需学生主动配合,也无需增加额外的硬件,一次性得到考勤数据,也提高了考勤的效率。
-
公开(公告)号:CN103049760B
公开(公告)日:2016-05-18
申请号:CN201210581686.9
申请日:2012-12-27
Applicant: 北京师范大学
IPC: G06K9/62
Abstract: 本发明涉及模式识别技术领域,公开了一种基于图像分块和位置加权的稀疏表示目标识别方法,所述方法包括以下步骤:S1、获取样本图像库,并对所述样本图像库中的样本图像进行图像分割,得到样本图像块库;S2、根据样本图像块库中各样本图像块的位置序号和稀疏表示误差,求得识别字典和位置权重向量;S3、根据所述识别字典和位置权重向量设计分类器;S4、逐像素地分割待识别图像,得到待识别图像块集;S5、对所述待识别图像块求解稀疏方程,并根据所述稀疏方程的解,利用所述分类器对待识别图像块进行类型识别。本发明能够用于识别外观不完整的物体。
-
公开(公告)号:CN101640636A
公开(公告)日:2010-02-03
申请号:CN200910090192.9
申请日:2009-07-31
Applicant: 北京师范大学
Abstract: 本发明公开了一种4over6隧道中避免报文重组的方法及系统,所述方法包括步骤:隧道入口路由器根据封装隧道的目的地址查找路由表,以获得报文的出接口,再根据封装隧道的目的地址及出接口查找隧道路径最大传输单元PM tunnel ,同时,根据封装类型获得隧道封装长度L t_head ;然后判断报文的长度是否大于最大分片长度PM tunnel -L t_head ,若是,则根据最大分片长度PM tunnel -L t_head 对报文进行分片,然后对每个分片进行隧道封装,否则直接对所述报文进行隧道封装,并查找IPv6路由表转发隧道封装后的报文。本发明通过对原始报文进行分片使得进入隧道封装时的隧道报文长度足够小,从而避免在4over6隧道中进行报文的分片和重组,实验表明本发明的技术方案使得隧道通信的性能有了较大的提高。
-
公开(公告)号:CN120088695A
公开(公告)日:2025-06-03
申请号:CN202411941417.8
申请日:2024-12-26
Applicant: 北京师范大学珠海校区
IPC: G06V20/40 , G06V40/20 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0895
Abstract: 本发明提供引入外部知识特征的弱监督时间动作定位方法及装置,方法包括:将待识别视频进行切分,得到多个视频片段,将视频片段输入至动作定位模型的特征提取模块中以对视频片段进行特征提取,得到片段特征;将片段特征输入至动作定位模型的注意力模块,得到各个片段特征的初始注意力特征;对视频片段中的关键帧进行对象识别,得到关键帧中的对象识别结果,基于对象识别结果得到外部知识特征,外部知识特征为基于动作定位模型之外的知识;基于外部知识特征和初始注意力特征,得到目标注意力特征,将目标注意力特征输入至动作定位模型中的分类模块,获取分类模块输出的待识别视频的动作定位结果。本发明可以提高弱监督时间动作定位的准确性。
-
公开(公告)号:CN117994864A
公开(公告)日:2024-05-07
申请号:CN202410399294.3
申请日:2024-04-03
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06Q50/20 , G06T7/246 , G06V10/44 , G06V10/764
Abstract: 本发明提供一种中学生物实验操作测评方法、装置、电子设备及存储介质,属于计算机视觉技术领域,所述方法包括:对待检测视频进行特征提取,得到视频特征;将视频特征输入至时序动作检测模型,得到包括预测操作动作起止时间视频片段和动作类别的时序检测结果;将多个视频片段分别输入至目标检测模型,得到包括实验器材检测框和实验器材名称的目标检测结果;基于目标检测结果,确定实验器材的运动情况,进而确定实验操作得分。将时序动作检测应用到实验测评中,对视频中的动态场景进行建模,从而捕捉到人物动作的时间依赖性;结合时序动作检测和目标检测技术,不仅能够识别视频中的实验器材,还能够追踪其运动,从而提高行为分类的准确性。
-
公开(公告)号:CN117994101A
公开(公告)日:2024-05-07
申请号:CN202410399307.7
申请日:2024-04-03
Applicant: 北京师范大学珠海校区
IPC: G06Q50/20 , G06F16/903
Abstract: 本发明提供一种基于大语言模型的教学设计生成方法及装置,属于机器学习技术领域,所述方法包括:使用初步生成模型生成基础文案;基于基础文案,对学科资料知识库进行检索,得到检索内容,学科资料知识库是基础文案对应的学科的知识库,检索内容包括多项教学内容;基于检索内容,使用表达对齐模型进行润色,得到润色内容,表达对齐模型是适用于学科的大语言模型,润色内容包括多项润色后的教学内容;基于预置评分标准,从润色内容中筛选出优质教学内容;基于优质教学内容,生成教学设计。本发明提供的教学设计生成方法、装置、电子设备及存储介质,降低教学设计编写的人力成本和时间成本。
-
公开(公告)号:CN117351575A
公开(公告)日:2024-01-05
申请号:CN202311650373.9
申请日:2023-12-05
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06N3/0464 , G06V10/20 , G06V10/82 , G06V20/00
Abstract: 本发明提供一种基于文生图数据增强模型的非言语行为识别方法和装置,涉及人工智能教育应用技术领域,所述方法包括:获取待识别的原始图像,将所述待识别的原始图像输入至预先训练的文生图数据增强模型,输出待识别的全课堂教学场景图;其中,所述文生图数据增强模型包括稳定扩散子模型和控制网络子模型;将所述待识别的原始图像和所述待识别的全课堂教学场景图作为原始数据集,将所述原始数据集输入至预先训练的非言语行为识别模型,输出识别到的非言语行为;其中,所述非言语行为识别模型是基于历史原始图像以及历史全课堂教学场景图对卷积神经网络进行训练得到的。通过本发明提供的方法,保证非言语行为识别准确率高。
-
公开(公告)号:CN115129844A
公开(公告)日:2022-09-30
申请号:CN202210765094.6
申请日:2022-07-01
Applicant: 北京师范大学
IPC: G06F16/332 , G06F16/33 , G06F40/30 , G06N3/04
Abstract: 本发明公开了一种基于有监督对比学习的问题可持续性评价系统,应用于自然语言处理技术领域,包括:初步特征提取模块、主要计算模块、对话者特征提取模块、特征融合模块、线性分类层、优化模块,通过分析背景文本和对话文本的关系,提取文本特征得到评价结果,本系统将问题可继续性评价任务作为独立任务,引入有监督对比学习方法对系统进行优化,能够更好地区分相似样本,不再需要使用其他方法(如数据增强等)构造正样本,一定程度上解决了自然语言数据构造正样本困难的问题;能够很好地提取文本的意义和文本间的关系特征,性能优越,对数据缺乏的情况有很好的鲁棒性。
-
公开(公告)号:CN114898131A
公开(公告)日:2022-08-12
申请号:CN202210683874.6
申请日:2022-06-17
Applicant: 北京师范大学
IPC: G06V10/74 , G06V10/764 , G06V10/80
Abstract: 本发明公开了一种基于自然引导和数据增强的违禁物品检测方法及系统,应用于X光安全检查技术领域,其方法包括以下步骤:S1、基于原始目标检测框构造自然图像和X光安检图像的训练样本对;S2、通过数据增强策略提升训练样本对的多样性;S3、对数据增强策略获得的第一预测框结果进行分步融合,得到第二预测框结果S4、根据所述第二预测框结果对违禁物品进行检测;通过所述目标检测方法对违禁物品进行检测,引入自然图像为X光安检图像数据集提供外观特征,增强模型对违禁品的判别能力,提升检测精度;通过不同的数据增强策略提升数据集的多样性,减低因数据集本身的缺陷带来的影响,能够大大提高X光违禁物品检测模型的检测性能。
-
公开(公告)号:CN106250843B
公开(公告)日:2019-04-26
申请号:CN201610607532.0
申请日:2016-07-28
Applicant: 北京师范大学
IPC: G06K9/00
Abstract: 本发明提供了一种基于额头区域的人脸检测方法及系统。该方法包括:采用滑窗的方式对待检测图像进行遍历;获取各个待检测滑窗的方差,若所述待检测滑窗的方差大于预设阈值,则提取待检测滑窗的扩展的Haar‑Like特征和多通道颜色频率特征;根据训练的级联的额头分类器获得所述待检测图像中的目标额头区域;通过肤色检测和边缘检测,采用改进的最小二乘法获得各个目标额头区域对应的人脸区域。本发明实施例通过提取扩展的Haar‑Like特征和多通道颜色频率特征,更加丰富的描述额头区域的发色和肤色的概率分布特征,利用具有丰富形状和颜色特征的额头区域实现对人脸的检测,提高了人脸检测的精度。
-
-
-
-
-
-
-
-
-