-
公开(公告)号:CN119090780A
公开(公告)日:2024-12-06
申请号:CN202411236587.6
申请日:2024-09-04
Applicant: 西南交通大学
IPC: G06T5/77 , G06T5/60 , G06N3/0455 , G06V30/19 , G06V30/226 , G06V10/54 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/084 , G06N3/09 , G06N3/094
Abstract: 本发明涉及基于字形纹理和结构双流融合修复的古籍文本图像修复方法,属于图像修复技术领域。本发明公开基于字形纹理和结构双流融合修复的古籍文本图像修复方法,包括构建文本图像修复数据集;构建基于字形纹理和结构双流融合修复模型;所述基于字形纹理和结构双流融合修复模型由生成器和鉴别器组成;通过文本图像修复数据集对基于字形纹理和结构双流融合修复模型进行训练,得到训练后的基于字形纹理和结构双流融合修复模型;将破损的古籍文本图像输入训练后的基于字形纹理和结构双流融合修复模型,模型输出得到修复后的古籍文本图像。本发明解决了伪影的问题和细节部分差异问题,对于古籍文本材料的电子化和信息化保存具有重要的意义。
-
公开(公告)号:CN115017965A
公开(公告)日:2022-09-06
申请号:CN202210946734.3
申请日:2022-08-09
Applicant: 西南交通大学
Abstract: 本发明公开了基于HHT能量和最大李雅普诺夫指数的蛇行分类方法,包括以下步骤:S1、通过对仿真获得的不同运行状态下的构架横向加速度信号进行频域及周期性分析,确定蛇行分类阈值;S2、对实时采集的构架横向加速度信号进行HHT能量计算和最大Lyapunov指数分析,得到对应的HHT能量值和最大Lyapunov指数,并根据蛇行分类阈值对其进行蛇行分类及蛇行程度确定,完成当前蛇行分类。本发明利用HHT能量法与最大Lyapunov指数相结合,对车辆系统进行不同运行状态的定性识别和蛇行程度大小的定量分析,以实现对蛇行运动的具体监测。
-
公开(公告)号:CN118887139A
公开(公告)日:2024-11-01
申请号:CN202410897622.2
申请日:2024-07-05
Applicant: 西南交通大学
IPC: G06T5/77 , G06T5/60 , G06T5/50 , G06N3/0464 , G06N3/0455 , G06N3/048 , G06N3/08
Abstract: 本发明公开了基于编解码结构的双阶段图像恢复方法,包括以下步骤:S1、制作数据集;S2、构建图像恢复模型,该图像恢复模型采用基于编解码结构的双阶段网络结构;S3、对图像恢复模型进行训练,迭代至网络收敛;S4、将档案文本图片作为训练好的图像恢复模型的输入,经过模型推理后得到恢复后的清晰图像。本发明可以提升图像恢复的效果,并可以提升图像恢复模型的性能和适应性,增强模型对复杂数据的表达和学习能力。
-
公开(公告)号:CN109801242B
公开(公告)日:2022-09-02
申请号:CN201910064027.X
申请日:2019-01-23
Applicant: 西南交通大学
Abstract: 本发明涉及一种基于改进漫水填充算法的栅格图像矢量化方法,包括以下步骤:步骤S10:取原始图像,对其进行图像锐化,得到包含边缘信息的图像;步骤S20:点击原始图像,以步骤S10得到的图像作为掩模,通过漫水填充算法,对相应图块进行填充;步骤S30:利用空洞填充算法对步骤S20得到的图块进行修补;步骤S40:根据步骤S30得到的图像,利用Freeman链码轮廓跟踪算法,找到图块轮廓的坐标点集合;步骤S50:根据步骤S40得到的坐标点集合,利用多边形拟合算法,对坐标点数目抽稀,得到关键坐标点集合,并将其之间的连线有序绘制出来,形成轮廓,得到最终的矢量化图像。本发明具有良好的栅格图像矢量化的效果,且相比于人工多处描点的栅格矢量化过程。
-
公开(公告)号:CN112948981B
公开(公告)日:2022-06-21
申请号:CN202110378710.8
申请日:2021-04-08
Applicant: 西南交通大学
Abstract: 本发明公开了一种高速列车小幅蛇行演变趋势的区间预测方法,针对现有监测方法主要集中在对大幅蛇行的监测,而忽略了小幅蛇行的演变规律,提出了一种区间预测方法。本发明通过建立高速列车小幅蛇行失稳区间预测模型,使得当高速列车处于小幅蛇行状态时,能够预测构架横向加速度变化的区间,并且给出预测区间的置信度,从而更为快速地判断列车是否将会发生蛇行失稳(小幅收敛、小幅发散两种变化状态),提高列车运行的安全性。基于以上问题,本发明公开的方法大大减少了模型待优化的参数,使得优化参数可快速收敛。将该方法用于小幅蛇行变化趋势的预测,可提高蛇行失稳识别的时效性。
-
公开(公告)号:CN112345069B
公开(公告)日:2022-05-10
申请号:CN202011296966.6
申请日:2020-11-18
Applicant: 西南交通大学
Abstract: 本发明公开了一种无线供电的地铁整轨扣件振动信号检测装置及检测方法,包括车辆装置组件与扣件组件;车辆装置组件包括安装于车辆上的第一控制器;第一控制器分别与直流电源、警示器、信号接收装置连接;直流电源一次与高频逆变电路与驱动信号电路、以及无线传能传输端相连;扣件组件包括安装于扣件上的压力传感器和振动传感器;压力传感器和振动传感器均与信号放大器连接;信号放大器依次与第二控制器和信号发送装置连接;第二控制器依次与整流电路和无线传能接收端连接;整流电路和信号发送装置均与锂电池相连。
-
公开(公告)号:CN110751195A
公开(公告)日:2020-02-04
申请号:CN201910965021.X
申请日:2019-10-12
Applicant: 西南交通大学
Abstract: 一种基于改进YOLOv3的细粒度图像分类方法,该方法包括下述步骤:一、对细粒度图像进行预处理;二、通过Darknet-53特征提取网络对输入图像提取特征;三、多层卷积网络得到三种大小的分类特征图,分别为13×13,26×26,52×52;四、提取细粒度特征图。五、将原分类特征图与细粒度特征图融合,改进损失函数,训练网络直到达到预先设定的迭代次数或准确率不再提升;六、细粒度图像类别识别。本发明在不增加图像检测时间的前提下,通过加入细粒度分类层,提高YOLOv3原网络对细粒度图像分类的准确度。
-
公开(公告)号:CN110633610A
公开(公告)日:2019-12-31
申请号:CN201910413104.8
申请日:2019-05-17
Applicant: 西南交通大学
Abstract: 本发明公开了一种基于YOLO的学员状态检测算法,包括以下步骤:S1:YOLO的改进;S2:在原来的DBL组件后加入瓶颈注意力模型BAM,然后经过2个DBL组件,再加入卷积注意力模型CBAM;S3:修改后的网络进行训练,本发明涉及基于YOLO的目标检测技术。本发明在YOLO网络的基础上,加入了瓶颈注意力模型(BAM)和卷积注意力模型(CBAM),在保证了较高检测速率的同时,提高了YOLO网络的精度。同时,我们将其应用在教学课堂中,实现对学生听课状态的检测,便于教学者对课堂情况的了解和管理加入了注意力机制的YOLO网络,经过在VOC 2012数据集上的测试,速度可以达到在自己的学员数据集上,准确率相对原版网络,准确率有所提升。
-
公开(公告)号:CN119091426A
公开(公告)日:2024-12-06
申请号:CN202411236548.6
申请日:2024-09-04
Applicant: 西南交通大学
IPC: G06V20/60 , G06V10/25 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 本申请涉及一种基于旋转小目标检测的学生指针式电表检测及读数方法。所述方法包括:首先,获取学生电学实验中指针式电表的图片数据,进行预处理后得到训练数据集;之后,搭建旋转目标检测模型,所述目标检测模型包括改进的增强有效感受野的增强扩张残差块、路径聚合网络特征融合模块和轻量检测头网络;之后,基于所述训练数据集训练所述旋转目标检测模型;之后,将待检测电表图像数据输入训练好的旋转目标检测模型,得到目标位置和类别检测结果;最后,基于所述目标位置和类别检测结果确定学生指针式电表读数。
-
公开(公告)号:CN110751195B
公开(公告)日:2023-02-07
申请号:CN201910965021.X
申请日:2019-10-12
Applicant: 西南交通大学
IPC: G06F18/24 , G06F18/214 , G06N3/045 , G06N3/0464
Abstract: 一种基于改进YOLOv3的细粒度图像分类方法,该方法包括下述步骤:一、对细粒度图像进行预处理;二、通过Darknet‑53特征提取网络对输入图像提取特征;三、多层卷积网络得到三种大小的分类特征图,分别为13×13,26×26,52×52;四、提取细粒度特征图。五、将原分类特征图与细粒度特征图融合,改进损失函数,训练网络直到达到预先设定的迭代次数或准确率不再提升;六、细粒度图像类别识别。本发明在不增加图像检测时间的前提下,通过加入细粒度分类层,提高YOLOv3原网络对细粒度图像分类的准确度。
-
-
-
-
-
-
-
-
-