-
公开(公告)号:CN103646254A
公开(公告)日:2014-03-19
申请号:CN201310706728.1
申请日:2013-12-19
Applicant: 北方工业大学
Abstract: 一种高密度行人检测方法,包括步骤:首先根据行人的头部形状和纹理特征建立行人头部模型;根据头部模型对于摄像机传来的视频流的每帧图像进行处理,为第一帧图像中的每个行人头部信息创建一个队列,判断后续每帧图像与前一帧图像中的行人头部信息是否为同一个行人的头部信息;若是同一个行人的头部信息则将存入到其相应的队列中,不是同一个行人则生成一个新的队列;按照上述方法依次处理后续每帧图像,对于位置信息持续更新且包含至少三个头部信息的位置信息的队列,认为检测到了一个行人。本发明通过行人头部形状和纹理特征获取行人的头部模型,并对每帧图像中的行人头部信息进行处理,具有检测精度高、鲁棒性好、运算简便及时效性高的等优点,在智能交通视频监控、机器人视觉等方面有广泛的应用前景。
-
公开(公告)号:CN102411564A
公开(公告)日:2012-04-11
申请号:CN201110235711.3
申请日:2011-08-17
Applicant: 北方工业大学
Inventor: 张师林
IPC: G06F17/27
Abstract: 本发明涉及一种电子作业抄袭检测方法,该方法首先对待处理的作业进行文档类型适配、文档内容提取,然后对于处理之后的纯文本文件进行中文分词和词性标注,并根据常用词词频和实词语义相似度分别计算作业之间的相似程度,最后融合两方面的相似度并根据阈值判断两篇文档间是否存在抄袭。本发明的特点是,利用常用词“的”、“一”、“是”、“了”和“我”的词频,以及实词的语义相似度实现电子作业的抄袭检测。本发明解决了电子学习系统中批量作业的抄袭检测的问题;解决了学生通过同义替换和语句调整等作业抄袭方式的检测问题。本发明可以用来对计算机辅助教学系统中各种文档类型的作业进行抄袭检测。
-
公开(公告)号:CN119673388A
公开(公告)日:2025-03-21
申请号:CN202411748738.6
申请日:2024-12-02
Applicant: 北方工业大学
Inventor: 张师林
Abstract: 本发明提供一种基于知识图谱的中医诊疗方案智能生成方法,旨在结合现代医学精准诊断与传统中医药理论,提供个性化的中药治疗方案。通过构建脾胃系疾病病理和药理知识图谱,并利用RAG技术提取标准化训练数据,本发明设计了一种中药药方生成模型。该模型基于BERT大模型序列生成技术,能够从西医指标中提取关键信息,生成符合中医理论的药方。通过模型验证与优化,提高药方生成的准确性和实用性,使临床医生能够快速获得推荐的中药药方。本发明有效推动了中医药现代化进程,为提高临床治疗效率和疗效提供了新思路。
-
公开(公告)号:CN114234803A
公开(公告)日:2022-03-25
申请号:CN202111516705.5
申请日:2021-12-07
Applicant: 北方工业大学
Abstract: 本申请提供一种基于视觉的安检托盘物品定位方法及系统。本申请通过对托盘影像进行直线检测、网格区域划分和轮廓检测,分别获得各网格区域范围内轮廓特征点数量。从而在区域范围内轮廓特征点数量超出规定阈值P时判断该网格区域内存在待检测物品,进而将该区域标记为待检测区域进行X射线检测并避免对其他未放置待检测物品的区域进行X射线检测。本申请能够通过图像处理技术确定待检测区域,提高X射线进行安全检查的效率,降低X射线检查设备发射功耗。本发明可以在机场、海关等场景中实现稳定可靠且高效的物品安全检查。
-
公开(公告)号:CN108229435A
公开(公告)日:2018-06-29
申请号:CN201810103970.2
申请日:2018-02-01
Applicant: 北方工业大学
Abstract: 本发明提供一种城市道路监控场景下的行人识别方法,利用视频处理和深度学习技术判断多个视域不重叠相机所拍摄的行人是不是同一个行人。基于融合中心损失的卷积神经网络方法,本发明首先在行人数据集上训练卷积神经网络得到行人分类模型,并通过该模型实现待识别行人和数据库中行人的特征提取,最后通过特征度量和重排序方法得到候选行人列表,实现行人的识别。本发明可以实现道路监控场景下的行人辨识,进一步促进行人交通的有效管理。
-
公开(公告)号:CN104318760B
公开(公告)日:2016-08-24
申请号:CN201410469748.6
申请日:2014-09-16
Applicant: 北方工业大学
Inventor: 张师林
IPC: G08G1/005
Abstract: 本发明涉及一种基于似物性模型的路口违章行为智能检测方法及系统,该方法应用在城市交通中基于视频的路口行人闯红灯事件检测领域,其特征是利用似物性模型快速检测行人,并利用轨迹过滤的方法提高检测准确率,结合信号灯状态检测最终完成行人闯红灯事件的判断。本方法首先采集交叉口过街行人图像,并人工标定其坐标位置,在给定数据集上训练得到行人似物性模型;然后,利用似物性模型快速的检测视频图像中的行人,并对检测得到的行人,根据距离和角度关系,建立行人的运动轨迹;最后,结合信号灯状态和行人的轨迹特征,判断行人闯红灯事件,并抓拍和语音提示。
-
公开(公告)号:CN104680791A
公开(公告)日:2015-06-03
申请号:CN201510128868.4
申请日:2015-03-24
Applicant: 北方工业大学
CPC classification number: G08G1/005 , G09F27/004
Abstract: 本发明公开一种基于视频检测的行人违章信息与广告联网播放装置,包括:1)利用摄像头的切换技术实现两个方向路口的行人闯红灯抓拍;2)利用LED全彩屏实现行人违章抓拍的显示与广告视频的循环播放; 3)行人检测设备配合红绿灯信号检测器实现准确的违章行人抓拍;4)通过联网定期控制方式实现广告内容的动态更新;5)利用音频功放设备实现行人闯红灯的实时语音提示;6)利用行人轨迹特征实时将抓拍图像投放到LED全彩屏上。
-
公开(公告)号:CN102222101A
公开(公告)日:2011-10-19
申请号:CN201110168952.0
申请日:2011-06-22
Applicant: 北方工业大学
Inventor: 张师林
IPC: G06F17/30
Abstract: 本发明涉及一种视频语义挖掘方法,该方法首先对待处理的视频进行中文连续语音识别、视频目标识别和视频文字识别,然后对于识别结果进行中文分词和词性标注,并保留名词和动词作为图模型的顶点,顶点之间的边权重设置为两个顶点所代表的词语的中文语义距离,最后根据稠密子图发现算法挖掘视频的语义信息。本发明的特点是,利用中文连续语音识别、视频目标识别和视频文字识别三种识别结果的融合实现视频的语义挖掘;把视频表达为一个图模型,顶点为视频中的词语,边的权重设置为两个顶点的语义距离;进一步把视频语义挖掘算法转化为图模型的稠密子图发现算法。本发明解决了中文连续语音识别、视频目标识别和视频文字识别过程中的单识别结果错误率高和多识别结果不能有效融合的问题;解决了视频的结构化表达问题和视频语义挖掘的算法实现问题。本发明可以用来对批量视频进行自动标注、分类和语义挖掘。
-
公开(公告)号:CN113239776B
公开(公告)日:2023-06-06
申请号:CN202110504231.6
申请日:2021-05-10
Applicant: 北方工业大学
IPC: G06V40/10 , G06V10/764 , G06V10/82 , G06V10/40 , G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于能量模型的行人重识别方法,该方法第一步先获取训练模型所需数据,通过布设在不同路口的摄像机采集N个行人的图像,每个行人采集M个不同位置的图像;第二步通过基于能量的卷积神经网络训练行人分类模型;第三步加载训练好的模型作为特征提取工具得到待识别行人图像特征,用以匹配图像库图像,计算相似性度量结果;第四步将结果传入显示模块显示,以便于更方便的观察结果。
-
公开(公告)号:CN111274992A
公开(公告)日:2020-06-12
申请号:CN202010088462.9
申请日:2020-02-12
Applicant: 北方工业大学
Abstract: 本发明提供一种跨摄像头的行人重识别方法及系统,其通过对训练数据集中各图像进行摄像风格转移网络的训练获得包含有多种假图像样本的辅助训练集,从而降低由摄像头风格对识别准确度的影响。本发明还通过不同粒度的分割,使得图像中的局部特征能够更集中的去表现所在分区的特征信息,从而过滤其他区域的信息,使重识别网络获取的描述特征更具有区分力。由此,本发明能够提升行人重识别的准确率和泛化性,用于对于广域视频监控场景下行人追踪与搜索时能够显著提高识别效果,降低外界环境因素、摄像头因素或行人姿态的影响。
-
-
-
-
-
-
-
-
-