-
公开(公告)号:CN117351575B
公开(公告)日:2024-02-27
申请号:CN202311650373.9
申请日:2023-12-05
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06N3/0464 , G06V10/20 , G06V10/82 , G06V20/00
Abstract: 本发明提供一种基于文生图数据增强模型的非言语行为识别方法和装置,涉及人工智能教育应用技术领域,所述方法包括:获取待识别的原始图像,将所述待识别的原始图像输入至预先训练的文生图数据增强模型,输出待识别的全课堂教学场景图;其中,所述文生图数据增强模型包括稳定扩散子模型和控制网络子模型;将所述待识别的原始图像和所述待识别的全课堂教学场景图作为原始数据集,将所述原始数据集输入至预先训练的非言语行为识别模型,输出识别到的非言语行为;其中,所述非言语行为识别模型是基于历史原始图像以及历史全课堂教学场景图对卷积神经网络进行训练得到的。通过本发明提供的方法,保证非言语行为识别准确率高。
-
公开(公告)号:CN119919849A
公开(公告)日:2025-05-02
申请号:CN202411870375.3
申请日:2024-12-18
Applicant: 北京师范大学珠海校区
IPC: G06V20/40 , G06V40/20 , G06V10/80 , G06V10/82 , G06V10/764 , G06Q50/20 , G06N5/04 , G06N3/0442 , G06N3/0499 , G06N3/0464 , G06N3/084
Abstract: 本发明提供一种基于因果推理的课堂交互行为识别方法以及系统,其中,上述方法包括:获取用户输入的交互视频,其中,交互视频包括:在课堂场景下的个体行为,个体行为包括:教师行为以及学生行为;将交互视频输入至课堂交互行为识别模型,得到课堂交互行为识别模型输出的交互序列的识别结果以及个体行为的识别结果;交互序列用于表示教师行为与学生行为之间的交替模式或互动模式;其中,课堂交互行为识别模型是基于交互视频样本、交互视频样本对应的交互序列的真实类别标签以及交互视频样本对应的个体行为的真实类别标签训练得到的;通过本发明能够捕捉一个课堂交互事件中连续发生的各种行为,展现了互动的动态性。
-
公开(公告)号:CN119575386A
公开(公告)日:2025-03-07
申请号:CN202411468496.5
申请日:2024-10-21
Applicant: 西北工业大学深圳研究院 , 中科探海(深圳)海洋科技有限责任公司 , 北京师范大学珠海校区
Abstract: 本发明公开了一种主动声呐成像数据在线混响消除及目标探测方法,包括:声呐获取当前时刻数据帧;判断当前是否处于初始化阶段;利用当前观测帧以及目标分量,更新混响基底;并更新的混响信号基底更新混响子空间权值;重新估计目标分量,将此作为探测目标的估计,实现在线实时混响消除及目标检测;本发明解决了常规低秩‑稀疏分解方法未考虑时序数据特性导致的计算复杂度高、资源消耗大等问题。
-
公开(公告)号:CN117994864B
公开(公告)日:2024-07-26
申请号:CN202410399294.3
申请日:2024-04-03
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06Q50/20 , G06T7/246 , G06V10/44 , G06V10/764
Abstract: 本发明提供一种中学生物实验操作测评方法、装置、电子设备及存储介质,属于计算机视觉技术领域,所述方法包括:对待检测视频进行特征提取,得到视频特征;将视频特征输入至时序动作检测模型,得到包括预测操作动作起止时间视频片段和动作类别的时序检测结果;将多个视频片段分别输入至目标检测模型,得到包括实验器材检测框和实验器材名称的目标检测结果;基于目标检测结果,确定实验器材的运动情况,进而确定实验操作得分。将时序动作检测应用到实验测评中,对视频中的动态场景进行建模,从而捕捉到人物动作的时间依赖性;结合时序动作检测和目标检测技术,不仅能够识别视频中的实验器材,还能够追踪其运动,从而提高行为分类的准确性。
-
公开(公告)号:CN115147260B
公开(公告)日:2024-11-26
申请号:CN202210258673.1
申请日:2022-03-16
Applicant: 北京师范大学珠海校区
IPC: G06T3/04 , G06T3/14 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于协同对比损失的小样本异质人脸转换方法,涉及图像处理技术领域,包括以下步骤:获取图像、生成身份相同的第一图像组和第二图像组;提取得到源图像、第一图像组的特征空间相关图,并作为结构对比约束;对第一图像组和第二图像组进行编码,将得到的编码嵌入一个图像的特征、一个正样本图像的特征和N个负样本图像的特征后作为隐空间对比约束;利用结构对比约束和隐空间对比约束得到最终转换后的人脸图像。本发明解除异构人脸图像之间身份匹配的限制;保证异构人脸图像的多样性和身份一致性;具有良好的泛化性能。
-
公开(公告)号:CN115147260A
公开(公告)日:2022-10-04
申请号:CN202210258673.1
申请日:2022-03-16
Applicant: 北京师范大学珠海校区
Abstract: 本发明公开了一种基于协同对比损失的小样本异质人脸转换方法,涉及图像处理技术领域,包括以下步骤:获取图像、生成身份相同的第一图像组和第二图像组;提取得到源图像、第一图像组的特征空间相关图,并作为结构对比约束;对第一图像组和第二图像组进行编码,将得到的编码嵌入一个图像的特征、一个正样本图像的特征和N个负样本图像的特征后作为隐空间对比约束;利用结构对比约束和隐空间对比约束得到最终转换后的人脸图像。本发明解除异构人脸图像之间身份匹配的限制;保证异构人脸图像的多样性和身份一致性;具有良好的泛化性能。
-
公开(公告)号:CN120088695A
公开(公告)日:2025-06-03
申请号:CN202411941417.8
申请日:2024-12-26
Applicant: 北京师范大学珠海校区
IPC: G06V20/40 , G06V40/20 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0895
Abstract: 本发明提供引入外部知识特征的弱监督时间动作定位方法及装置,方法包括:将待识别视频进行切分,得到多个视频片段,将视频片段输入至动作定位模型的特征提取模块中以对视频片段进行特征提取,得到片段特征;将片段特征输入至动作定位模型的注意力模块,得到各个片段特征的初始注意力特征;对视频片段中的关键帧进行对象识别,得到关键帧中的对象识别结果,基于对象识别结果得到外部知识特征,外部知识特征为基于动作定位模型之外的知识;基于外部知识特征和初始注意力特征,得到目标注意力特征,将目标注意力特征输入至动作定位模型中的分类模块,获取分类模块输出的待识别视频的动作定位结果。本发明可以提高弱监督时间动作定位的准确性。
-
公开(公告)号:CN117994864A
公开(公告)日:2024-05-07
申请号:CN202410399294.3
申请日:2024-04-03
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06Q50/20 , G06T7/246 , G06V10/44 , G06V10/764
Abstract: 本发明提供一种中学生物实验操作测评方法、装置、电子设备及存储介质,属于计算机视觉技术领域,所述方法包括:对待检测视频进行特征提取,得到视频特征;将视频特征输入至时序动作检测模型,得到包括预测操作动作起止时间视频片段和动作类别的时序检测结果;将多个视频片段分别输入至目标检测模型,得到包括实验器材检测框和实验器材名称的目标检测结果;基于目标检测结果,确定实验器材的运动情况,进而确定实验操作得分。将时序动作检测应用到实验测评中,对视频中的动态场景进行建模,从而捕捉到人物动作的时间依赖性;结合时序动作检测和目标检测技术,不仅能够识别视频中的实验器材,还能够追踪其运动,从而提高行为分类的准确性。
-
公开(公告)号:CN117351575A
公开(公告)日:2024-01-05
申请号:CN202311650373.9
申请日:2023-12-05
Applicant: 北京师范大学珠海校区
IPC: G06V40/20 , G06N3/0464 , G06V10/20 , G06V10/82 , G06V20/00
Abstract: 本发明提供一种基于文生图数据增强模型的非言语行为识别方法和装置,涉及人工智能教育应用技术领域,所述方法包括:获取待识别的原始图像,将所述待识别的原始图像输入至预先训练的文生图数据增强模型,输出待识别的全课堂教学场景图;其中,所述文生图数据增强模型包括稳定扩散子模型和控制网络子模型;将所述待识别的原始图像和所述待识别的全课堂教学场景图作为原始数据集,将所述原始数据集输入至预先训练的非言语行为识别模型,输出识别到的非言语行为;其中,所述非言语行为识别模型是基于历史原始图像以及历史全课堂教学场景图对卷积神经网络进行训练得到的。通过本发明提供的方法,保证非言语行为识别准确率高。
-
-
-
-
-
-
-
-