-
公开(公告)号:CN115531150A
公开(公告)日:2022-12-30
申请号:CN202211322599.1
申请日:2022-10-27
Applicant: 河海大学常州校区
Abstract: 本发明公开了基于虚拟现实的立体视觉测试和训练方法,包括通信模块、主控模块,基于通信模块与主控模块相连接的环境切换模块、测试环境模块、训练环境模块、显示模块、数据采集模块和数据分析模块,方法包括:S1、构建虚拟环境;S2、切换测试和训练环境;S3、获取数据;S4、分析数据生成报告。本发明通过构建基于虚拟现实的测试和训练立体视觉环境,将测试和训练两个方面的内容集成到一个环境中,让有立体视觉缺陷的被试能及时掌握自身立体视觉的情况并有效地弥补自身的立体视觉缺陷,并且让被试通过沉浸式环境更直观的感受视差从而提升深度感知,使用距离单位作为衡量标准,让人们更直观地了解自身立体视觉在实际应用中的表现。
-
公开(公告)号:CN111507224B
公开(公告)日:2022-08-30
申请号:CN202010273344.5
申请日:2020-04-09
Applicant: 河海大学常州校区
IPC: G06V40/16 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于网络剪枝的CNN人脸表情识别显著性分析方法,包括:S1将人脸数据按表情归类并分别训练识别网络;S2利用剪枝算法分别处理每个训练好的识别网络,得到选定卷积层各滤波器的重要性分数;S3根据选定卷积层剪枝之后计算出的各滤波器的重要性分数,计算该层的特征图权重。本发明在特定表情训练网络的基础上,利用剪枝算法找到对表情识别贡献大的特征并赋上对应权重,解决基于注意力机制的表情识别中重要特征的显著性分析问题,提高识别准确率、完成表情识别的相关操作。
-
公开(公告)号:CN113425243A
公开(公告)日:2021-09-24
申请号:CN202110285621.9
申请日:2021-03-17
Applicant: 河海大学常州校区
IPC: A61B3/08
Abstract: 本发明公开了一种基于随机点立体图的立体视觉测试方法,包括以下步骤:S1、根据现有数据,确定立体图像的立体视锐度区间和立体视锐度最小步长;S2、确定立体视锐度区间和最小步长,计算随机点立体图应具有的视差,再将视差人眼感知到的深度)转换成图像平移的距离,最后生成具有此视差的随机点立体图;S3、采用时分3D显示技术和自适应阶梯方法,设计立体视觉测试方案;S4、基于S3设计的立体视觉测试方案进行测试,根据测试者对相应立体视锐度等级立体图像的反馈来度量测试者的立体视觉。本发明能够快速,准确地测量人体的立体视觉,同时扩大了立体视觉的可测量范围、以及准确性,可用于检测测试者在一段时间的立体视觉变化。
-
公开(公告)号:CN111680587A
公开(公告)日:2020-09-18
申请号:CN202010454666.X
申请日:2020-05-26
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于多目标跟踪的鸡群活动量实时估算方法及系统,属于图像处理与计算机视觉技术领域。包括:计算图像帧中像素长度和实际长度之间的比例因子;获取鸡只检测框;为检测到的每个鸡只目标创建一个跟踪器;通过轨迹预测得到对应鸡只目标的预测框位置;对下一帧图像进行目标检测,将得到的鸡只检测框和前一帧的预测框进行匹配;筛选“检测框-预测框”对;匹配失败的检测框再次匹配;计算跟踪器中鸡只检测框的距离补偿系数和鸡只检测框相对于前一帧移动的像素长度,进而计算鸡群活动量。本技术方案可以节省人力,减少估算时间,并克服人工估算主观性强的问题,准确性更高。
-
公开(公告)号:CN111523576A
公开(公告)日:2020-08-11
申请号:CN202010285215.8
申请日:2020-04-13
Applicant: 河海大学常州校区
IPC: G06K9/62
Abstract: 本发明公开一种适用于电子质量检测的密度峰值聚类离群点检测方法,包括获取待检测离群点的所有数据点的多维特性检测数据集合;对于各数据点,分别计算局部密度值,以及该数据点到局部密度更高的最近数据点的距离值;根据各数据点局部密度值和距离值的大小,确定多个聚类中心,进而划分类簇;然后对于各数据点,基于局部密度值和距离值计算离群度;再根据所有数据点的离群度,利用箱型法确定属于边界区域的数据点集合;最后将边界区域中的数据点及其在各类簇中的子数据点作为离群数据点。本发明可充分利用聚类算法中离群点分布特点,量化出具体的特征数值,便于采用箱型法来检测出电离层中的差电子。算法易实现,效率和准确度皆较高。
-
公开(公告)号:CN111444726A
公开(公告)日:2020-07-24
申请号:CN202010228609.X
申请日:2020-03-27
Applicant: 河海大学常州校区
IPC: G06F40/30 , G06F40/295 , G06N3/04 , G06N3/08
Abstract: 本发明公开一种语义信息提取方法和装置,属于自然语言处理技术领域,方法包括:获取待识别的语料数据;对获取到的语料数据进行预处理,预处理包括将语料数据转换为词向量和/或字向量;将向量转换后的语料信息输入至预先训练的语义信息提取模型,得到命名实体识别结果;所述语义信息提取模型包括双向长短时记忆网络和CRF层网络,其训练样本为已标注字符标签和实体标签的语料数据的向量形式;双向长短时记忆网络的输出为待识别语句中各词中字符映射到标签的概率矩阵,CRF层网络根据双向长短时记忆网络的输出,确定待识别语句的标签序列并输出。本发明通过将格子结构的长短时记忆网络改进为双向,使其能够更好的获知文章中一个句子前后文的信息,从而更准确地判断这个句子的语义。
-
公开(公告)号:CN110782449A
公开(公告)日:2020-02-11
申请号:CN201911050944.9
申请日:2019-10-31
Applicant: 河海大学常州校区
Abstract: 本发明公开了基于迁移学习和可变形CNN的陶瓷釉面缺陷检测方法,S1,构建陶瓷釉面图像样本数据集,S2,通过迁移学习与可变卷积的方法,构建改进的CNN,对陶瓷釉面图像样本数据进行特征提取,S3,使用随机森林算法对特征数据进行分类。本发明在陶瓷釉面图像样本数据集的基础上,通过可变卷积算法进一步提取了陶瓷釉面图像的特征,并通过随机森林算法提高了分类识别的准确度。该发明有助于方便工厂检测出生产中不合格的陶瓷釉面,提高企业生产效率,降低企业生产成本。
-
公开(公告)号:CN110765277A
公开(公告)日:2020-02-07
申请号:CN201911005071.X
申请日:2019-10-22
Applicant: 河海大学常州校区
IPC: G06F16/36 , G06F16/332 , G06F16/33 , G06F16/35 , G05B23/02 , G06F16/951
Abstract: 本发明公开了一种基于知识图谱的移动端的在线设备故障诊断平台。包括如下步骤:S1,建立数控机床信息抽取模块;S2,建立数据清洗与知识图谱模块;S3,建立问答延伸模块;S4,建立后台管理模块。本发明会把用户最终采纳的答案作为新的节点纳入知识图谱的关系中,并在机床故障分词词典和问题模板中增添新的记录,使得此系统越用越智能,提升用户的使用体验。
-
公开(公告)号:CN110415238A
公开(公告)日:2019-11-05
申请号:CN201910700273.X
申请日:2019-07-31
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于反向瓶颈结构深度卷积网络的膜片瑕点检测方法,通过使用基于反向瓶颈结构深度卷积网络,实现了对膜片中瑕疵点的检测与标定。该方法包括图像采集、图像分割、数据标注、网络训练、瑕点检测以及图像拼接等部分。本发明提供的方法充分利用了深度卷积网络对于图像特征提取的有效性,且反向瓶颈结构能够在检测精度得到保证的情况下极大地减少参数的数量,从而实现快速准确地检测出膜片中瑕疵点的目的。
-
公开(公告)号:CN106648054B
公开(公告)日:2019-07-16
申请号:CN201610876958.6
申请日:2016-10-08
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于RealSense的陪伴机器人的多模式交互方法,包括三大功能模块和六种工作模式,多模式交互方法具体包括如下步骤:步骤1、初次使用时,设置机器人系统默认的操作性模式和默认的非操作性模式,对于每个功能模块,操作性模式和非操作性模式不同,操作性模式输入的优先权高于非操作性模式输入;步骤2、机器人系统启动后通过操作性模式选择并进入一个功能模块;步骤3、在各功能模块中根据设置的操作性模式和非操作性模式,利用RealSense传感器进行识别并进行对应的分析和处理。采用手势、人脸及语音的多模式交互方法,方便用户与机器人交互。
-
-
-
-
-
-
-
-
-