-
公开(公告)号:CN116049547A
公开(公告)日:2023-05-02
申请号:CN202310003947.7
申请日:2023-01-03
Applicant: 西安交通大学
IPC: G06F16/9535 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于个性化对比损失的序列推荐方法、系统、介质及设备,对用户的交互记录数据按照时间先后顺序排列,形成用户的序列交互数据;利用用户序列交互数据,通过深度学习推荐模型SASRec得到用户和物品的特征表达;利用用户和物品的特征表达,基于个性化对比损失函数PCL进行模型训练。通过引入交叉熵或二值交叉熵损失的绝对约束和均匀性正则化约束,改进了对比损失CL仅有相对约束和对物品均匀性分布约束不足的问题,并形成了序列推荐方法PCL4SRec,显著地提升了序列推荐的性能。
-
公开(公告)号:CN112434143A
公开(公告)日:2021-03-02
申请号:CN202011315173.4
申请日:2020-11-20
Applicant: 西安交通大学
IPC: G06F16/332 , G06F16/33 , G06F16/35 , G06F40/126 , G06F40/30 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于GRU单元隐藏状态约束的对话方法、存储介质及系统,将带有情感标注的对话数据转换为单轮对话形式的数据构建数据集;建立一个基于多层GRU单元的神经网络模型,利用数据集中的情感信息对神经网络模型的GRU单元隐藏状态进行情感约束,得到情感约束后的隐藏状态;对情感约束后多层GRU单元中的隐藏状态使用上下层继承机制,得到信息融合的GRU单元隐藏状态;使用信息融合的GRU单元隐藏状态生成下一个字的概率分布,然后使用反向传播算法最小化损失值优化神经网络模型的参数,生成带有对应情感的回复信息,实现基于GRU单元隐藏状态约束的对话。本发明根据用户输入生成符合特定情感类别的回复,兼顾了内容上的一致性和情感表达的准确性。
-
公开(公告)号:CN107633266B
公开(公告)日:2020-07-28
申请号:CN201710802474.1
申请日:2017-09-07
Applicant: 西安交通大学
Abstract: 本发明公开一种电力机车接触网受电弓电弧检测方法,包括:获取电弧图像学习样本集;Adaboost级联分类器训练;采用训练后的AdaBoost级联分类器对新获取,待识别的图像进行电弧检测;使用饱和阈值对电弧检测结果进行筛选,消除弱光源干扰;进行时间连续性分析,消除灯光类光源干扰;电弧及火花的尺寸及持续时间的定量分析;进行几何不变矩特征比较,消除连续出现的相同形态光源干扰。本发明能有效对受电弓电弧进行识别分析,可快速地进行车辆维护,加强车辆故障检查和运行安全。
-
公开(公告)号:CN108288055A
公开(公告)日:2018-07-17
申请号:CN201810210517.1
申请日:2018-03-14
Applicant: 台州智必安科技有限责任公司 , 西安交通大学
Abstract: 本发明公开基于深度网络与分级测试的电力机车受电弓及电弧检测方法,包括:采集视频,并提取受电弓图片及其电弧和疑似电弧图片,分类作为神经网络训练样本集;分别建立可在CPU实现实时检测受电弓和检测电弧的卷积神经网络;对卷积神经网络用训练样本进行训练分别得到受电弓检测模型和电弧检测模型和电弧检测模型;利用改进型YOLO算法检测受电弓作为第一级检测,截取受电弓所在区域的局部图片,采用相邻帧预测方法进行提速;在受电弓局部图片内进一步利用改进型YOLO算法检测电弧作为第二级检测,保存异常图片。本发明能利用深度学习的方法快速而准确的检测到受电弓电弧,对潜在的危险进行预警,便于车辆故障检查并保障运行安全。
-
公开(公告)号:CN107633266A
公开(公告)日:2018-01-26
申请号:CN201710802474.1
申请日:2017-09-07
Applicant: 西安交通大学
Abstract: 本发明公开一种电力机车接触网受电弓电弧检测方法,包括:获取电弧图像学习样本集;Adaboost级联分类器训练;采用训练后的AdaBoost级联分类器对新获取,待识别的图像进行电弧检测;使用饱和阈值对电弧检测结果进行筛选,消除弱光源干扰;进行时间连续性分析,消除灯光类光源干扰;电弧及火花的尺寸及持续时间的定量分析;进行几何不变矩特征比较,消除连续出现的相同形态光源干扰。本发明能有效对受电弓电弧进行识别分析,可快速地进行车辆维护,加强车辆故障检查和运行安全。
-
公开(公告)号:CN101382998B
公开(公告)日:2012-09-05
申请号:CN200810118534.9
申请日:2008-08-18
Abstract: 本发明涉及一种视频场景切换检测装置及方法,装置包括:特征提取单元及场景切换检测单元;方法包括:通过三维小波变换提取视频场景中各帧的高频子带系数的变化程度特征VH;根据所述VH检测场景切换。通过利用视频场景中各帧的高频子带系数的变化程度特征VH检测场景切换,消除了亮度变化对场景切换检测的影响,大大提高了检测场景切换的准确率。
-
公开(公告)号:CN101448100B
公开(公告)日:2011-04-06
申请号:CN200810236503.3
申请日:2008-12-26
Applicant: 西安交通大学
Abstract: 本发明公开一种快速准确的视频字幕提取方法,本发明的流程为:抽取视频关键帧亮度图像,纹理投影定位字幕条,确定字幕条起始帧和终止帧,以及提取文字。通过小波变换提取视频关键帧亮度图像的纹理图,利用纹理图投影方法来定位关键帧图像中字幕条的位置;利用字幕点匹配方法来判断两帧是否存在同一条字幕,并快速地确定字幕条在视频中的起始帧和终止帧,这样只调用一次定位,便可以确定字幕条的所有持续帧,用来提高字幕提取速度;用纹理去噪方法提取字幕条中的文字。
-
公开(公告)号:CN101527800B
公开(公告)日:2011-01-05
申请号:CN200910021769.0
申请日:2009-03-31
Applicant: 西安交通大学
Abstract: 本发明公开了一种获取基于H.264/AVC压缩视频字幕的方法,包括如下步骤:执行步骤10“H.264/AVC码流解析”,从H.264/AVC压缩视频数据流中解码I帧的亮度分量图像部分解码AC系数;然后执行步骤20“熵解码与反量化”,将步骤10获得的AC系数进行熵解码和反量化以得到每个4×4和8×8块的DCT变换的AC系数;接着执行步骤30“基于块的纹理描述”,对步骤20所获得的AC系数分别对4×4和8×8块进行纹理描述;接着,执行步骤40“字幕块粗检测”,在对I帧中所有块进行纹理描述基础上,初步确认每个块是属于字幕块还是背景块;最后,执行步骤50“字幕条定位”,在字幕块粗检测所得出的模板TMAP获取的基础上进行字幕条的定位:重复步骤10~50,直到视频流结束位置,则执行步骤60“字幕检测结束”。
-
公开(公告)号:CN101448100A
公开(公告)日:2009-06-03
申请号:CN200810236503.3
申请日:2008-12-26
Applicant: 西安交通大学
Abstract: 本发明公开一种快速准确的视频字幕提取方法,本发明的流程为:抽取视频关键帧亮度图像,纹理投影定位字幕条,确定字幕条起始帧和终止帧,以及提取文字。通过小波变换提取视频关键帧亮度图像的纹理图,利用纹理图投影方法来定位关键帧图像中字幕条的位置;利用字幕点匹配方法来判断两帧是否存在同一条字幕,并快速地确定字幕条在视频中的起始帧和终止帧,这样只调用一次定位,便可以确定字幕条的所有持续帧,用来提高字幕提取速度;用纹理去噪方法提取字幕条中的文字。
-
公开(公告)号:CN111738088B
公开(公告)日:2022-10-25
申请号:CN202010450217.8
申请日:2020-05-25
Applicant: 西安交通大学
IPC: G06V40/10 , G06V20/40 , G06V10/774 , G06V10/80 , G06V10/82 , G06V10/766 , G06N3/04 , G01C3/00
Abstract: 本发明公开一种基于单目摄像头的行人距离预测方法,包括:使用单目摄像头确定行人人头高度‑行人摄像头距离模型,并采集视频;标注行人检测及行人距离样本集;建获得卷积神经网络模型;使用训练样本对获得的卷积神经网络模型进行训练,获得行人检测及距离预测模型;将要检测的图片输入训练好的行人检测及距离预测模型中,获得行人的坐标、得分以及距离。本发明充分发挥了深度学习检测方法的优点,保持了高精度和好的鲁棒性,可以在使用成本较低的单目摄像头的情况下,在检测行人的同时较为准确的预测出行人与摄像头的距离,同时本发明在行人距离摄像头较近或者行人有遮挡的情况下不受干扰,仍能正常的预测出行人的距离。
-
-
-
-
-
-
-
-
-