-
公开(公告)号:CN119107206A
公开(公告)日:2024-12-10
申请号:CN202411112615.3
申请日:2024-08-14
Applicant: 华东师范大学
IPC: G06Q50/20 , G09B19/00 , G06F18/214 , G06N5/022 , G06Q10/0639 , G06N5/04
Abstract: 本发明公开了一种基于大型语言模型的苏格拉底式数学教学方法,融合苏格拉底式教学法,训练模型具备启发式教学能力,通过反问、质疑和质询等多步式问答,激发学生讨论、辩论、评估和分析等高级思维技巧,培养学生的自主学习和创新能力。首先,本发明提出结合多元人设的大语言模型引导式数据合成,对数学题目数据进行数据扩充,形成丰富的师生对话教学数据。再者,提出知识增强的苏格拉底式教学大语言模型,实现了大语言模型引导式教学质量的提升,能娴熟地执行回顾、指导、激发思考、纠错及归纳总结等环节,产出准确且富有启迪性的反馈。经过与其他几种强生成式模型的比较,实验结果表明了该模型在教学准确性、引导性上的巨大优势。
-
公开(公告)号:CN113963586A
公开(公告)日:2022-01-21
申请号:CN202111150193.5
申请日:2021-09-29
Applicant: 华东师范大学
Abstract: 本发明公开了一种可移动穿戴式授课工具,应用在授课、考试监考等教学工作中,该授课工具设计包括:用以控制电脑的智能书写笔和用以进行课堂人机交互作用的智能眼镜组成。本授课工具可通过WiFi信号连接教室内电脑设备,可实现对现有教学硬件进行升级改造。与现有的课堂授课工具相比,本发明具有:大幅度提高教学环境下,学生心理健康;大幅度提高教学环境以及大幅度提高教师授课效率等优点。
-
公开(公告)号:CN119249115B
公开(公告)日:2025-05-06
申请号:CN202411747937.5
申请日:2024-12-02
Applicant: 华东师范大学
Abstract: 本发明公开了一种视觉‑语言模型对齐限制的评估方法,包括:使用预训练模型CLIP的文本和图像编码器分别提取图像和文本特征嵌入;基于余弦相似度计算图像或文本之间的相似性,设置阈值筛选满足条件的数据;采用TT2I和II2T策略构建基准数据集;在Flickr30K和MSCOCO数据集上测试视觉‑语言模型性能,使用召回率R@K指标进行评估,分析模型在对齐限制基准与原始数据集上的性能差异;本发明即AlignVLM方法展示了在检测视觉‑语言模型对齐缺陷方面的卓越能力,并验证了不同模型和策略在复杂对齐任务中的表现。为开发更鲁棒的视觉‑语言模型提供了一种有效工具,提升模型泛化能力。
-
公开(公告)号:CN113434145A
公开(公告)日:2021-09-24
申请号:CN202110642424.8
申请日:2021-06-09
Applicant: 华东师范大学
Abstract: 本发明公开了一种基于抽象语法树通路上下文的代码相似性度量方法,所述方法具体包括以下步骤:对程序代码片段进行解析,得到相应的抽象语法树;对上述获得的抽象语法树进行遍历,提取抽象语法树终端节点之间的通路上下文的编码:对上述获得的抽象语法树终端节点之间的通路进行编码,实现向量化代码片段的相似性度量:将上述获得的代码向量,用余弦相似性进行代码的相似性比较。本发明方法可面向Python、Java等语言,基于抽象语法树通路上下文的代码相似性度量方法,解决了目前存在的缺乏兼顾程序代码的结构与语义两方面的程序表示技术的问题。
-
公开(公告)号:CN119249115A
公开(公告)日:2025-01-03
申请号:CN202411747937.5
申请日:2024-12-02
Applicant: 华东师范大学
Abstract: 本发明公开了一种视觉‑语言模型对齐限制的评估方法,包括:使用预训练模型CLIP的文本和图像编码器分别提取图像和文本特征嵌入;基于余弦相似度计算图像或文本之间的相似性,设置阈值筛选满足条件的数据;采用TT2I和II2T策略构建基准数据集;在Flickr30K和MSCOCO数据集上测试视觉‑语言模型性能,使用召回率R@K指标进行评估,分析模型在对齐限制基准与原始数据集上的性能差异;本发明即AlignVLM方法展示了在检测视觉‑语言模型对齐缺陷方面的卓越能力,并验证了不同模型和策略在复杂对齐任务中的表现。为开发更鲁棒的视觉‑语言模型提供了一种有效工具,提升模型泛化能力。
-
公开(公告)号:CN119227744A
公开(公告)日:2024-12-31
申请号:CN202411736605.7
申请日:2024-11-29
Applicant: 华东师范大学
IPC: G06N3/0455 , G06N3/0499 , G06N3/0464
Abstract: 本发明公开了一种视觉与语言融合的多模态大模型系统,包括:融合了DINOv2和SigLIP的视觉编码器,用来收集低层次的空间属性以及语义属性;多层感知机投影器,用来将视觉特征映射到语言嵌入空间以及基于状态空间模型的Mamba骨干模型网络。相较于依靠Transformer网络作为基础模型的多模态大语言模型,本发明的大模型系统在推理速度,准确率等指标均有提升。
-
-
-
-
-