-
公开(公告)号:CN111899284A
公开(公告)日:2020-11-06
申请号:CN202010816457.5
申请日:2020-08-14
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种基于参数化ESM网络的平面目标跟踪方法,包括:S1、获取目标模板T、第t帧的输入图像以及第t帧中的初始运动参数,由初始运动参数确定输入图像的目标区域It,对目标模板T和目标区域It进行预处理,包括图片缩放和归一化操作,使用特征提取网络对预处理后的目标模板T和第t帧的输入图像的目标区域It进行特征的提取,得到特征映射FT和FtI;S2、利用相似性度量模块计算两个特征映射FT和FtI之间的差异;S3、通过遮挡检测机制确定并排除目标在当前帧中被遮挡的部分,通过最小化当前帧中未被遮挡部分的差异求解目标的运动参数。本发明的方法更适用于目标跟踪任务,而且大大提高跟踪的准确性。
-
公开(公告)号:CN111814854A
公开(公告)日:2020-10-23
申请号:CN202010597480.X
申请日:2020-06-28
Applicant: 北京交通大学
Abstract: 本发明提供了一种无监督域适应的目标重识别方法,该方法包括:构建多尺度域适应注意力学习网络;利用源域数据集和目标域数据集对多尺度域适应注意力学习网络进行训练,计算多尺度域适应注意力学习网络的多任务损失,在多任务损失的值收敛后,得到训练好的多尺度域适应注意力学习网络;利用训练好的多尺度域适应注意力学习网络构建无监督域适应的目标重识别模型,利用无监督域适应的目标重识别模型对输入的图像进行目标重识别处理。本发明的方法通过将特征图分割成与目标相关的特征图和与域相关特征图来减少域差异,将特征图映射在不同尺度下,在多个尺度下进行分割,可以学习到仅仅与域相关的、多尺度的特征表示,从而达到了最优的性能。
-
公开(公告)号:CN110515380A
公开(公告)日:2019-11-29
申请号:CN201910779182.X
申请日:2019-08-22
Applicant: 北京交通大学
IPC: G05D1/02
Abstract: 本发明提供了一种基于转弯权重约束的最短路径规划方法。该方法包括:步骤1、计算出源点v与其它所有结点之间的距离,将源点v与其它所有结点之间的距离存储在结点距离数据表中;步骤2、从U中选取一个到源点v距离最短的结点k,把k加入S中;步骤3、以结点k为中间结点,基于转弯权重重新计算U中各结点到源点v的距离,将重新计算的源点v与其它所有结点之间的距离更新存储在结点距离数据表中;步骤4、重复执行步骤2和3,直到将终点w添加到S中,得到源点v到终点w的最短路径。本发明在有效计算最短路径的同时,对路口转弯进行权重惩罚,得出的最短路径在道路长度较短的基础上能够尽量避免转弯,帮助AGV引导车进程有效快速的完成任务。
-
公开(公告)号:CN106897662A
公开(公告)日:2017-06-27
申请号:CN201710010146.8
申请日:2017-01-06
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于多任务学习的人脸关键特征点的定位方法。该方法包括根据级联分类器对目标图像进行人脸区域检测,利用人眼检测器定位识别出的人脸区域中的人眼的位置,计算出人脸区域中的两眼间的距离;将人脸区域中的两眼间的距离与人脸平均模型中的两眼间的距离进行对比,根据比较结果确定人脸平均模型的缩放比例,利用缩放比例对人脸平均模型中的人脸区域进行位置调整,通过多任务学习方法定位目标图像对应的人脸区域中的人脸特征点。本发明通过利用不同特征的表征优势,结合多任务学习的框架,解决了监督梯度下降法中的特征点定位中的学习不足的问题,提升了人脸特征点定位的初始化模型的检测性能,提高了人脸关键特征点定位的准确性。
-
公开(公告)号:CN119625818A
公开(公告)日:2025-03-14
申请号:CN202411417104.2
申请日:2024-10-11
Applicant: 北京交通大学
IPC: G06V40/20 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多层级特征融合的行为识别方法及装置,包括步骤:步骤S1:多层级特征的收集;步骤S2:时序特征显著性表达;步骤S3:多层次特征融合方法;步骤S4;输出目标任务结果。本发明首次同时考虑了三维卷积神经网络中的时序感受野首先问题和不同运动速率分辨能力弱的问题,使三维卷积神经网络在维持计算开销变化不大的情况下有效提升行为识别的准确率。本发明设计了时序特征显著性表达机制,通过对特征进行显著性表达处理,获取全局时空信息,增强模型的长时序建模能力。设计多层级特征融合模块,利用不同层级特征对运动速率的感知能力,增强模型的分辨力,实现单输入源下不同动作速率的行为识别能力。
-
公开(公告)号:CN119047530A
公开(公告)日:2024-11-29
申请号:CN202410944113.0
申请日:2024-07-15
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于直接反馈对齐机制的图神经网络优化方法。该方法包括:获取初始图数据,将初始图数据输入到待优化的图神经网络模型中,通过前向传播算法得到节点的预测值;对于有标签节点,根据其预测值与真值得到每一个有标签节点的误差;利用伪误差生成器为每个无标签节点生成伪误差;根据有标签节点的误差以及筛选出的伪标签节点的伪误差应用反馈对齐机制同步更新图神经网络模型的每一层网络的参数;根据损失值是否收敛判断图神经网络参数是否收敛;若图神经网络参数收敛,则训练完成,输出优化后的图神经网络模型。本发明方法同时能够处理半监督学习环境中的标签稀缺问题。可以应用于引文网络分类,互联网网页分类等图数据挖掘任务中。
-
公开(公告)号:CN118608776A
公开(公告)日:2024-09-06
申请号:CN202410241120.4
申请日:2024-03-04
Applicant: 北京交通大学
Abstract: 本发明提供一种基于几何特征融合的点云语义分割方法及系统,属于机器视觉图像处理技术领域,本发明引入了极坐标转换模块缓解由于物体旋转导致分割性能大幅度下降的问题,为了在降低分割所需的时间的同时还能够不牺牲模型的分割性能,在下采样获取关键点的阶段采用时间开销较小的随机采样,由于随机采样的随机性,不可避免的会损失掉部分特征信息,故而在特征提取和特征融合阶段提出了几何特征融合模块并加入了改进过Point Transformer模块,弥补特征信息的同时对特征进行提取和融合。通过极坐标转换模块和几何特征融合模块,在分割性能和分割时间进行了平衡。本发明能够平衡分割性能和时间开销,解决信息损失和旋转不变性问题,实现有效的大规模点云语义分割。
-
公开(公告)号:CN118366186A
公开(公告)日:2024-07-19
申请号:CN202410475803.6
申请日:2024-04-19
Applicant: 北京交通大学
IPC: G06V40/10 , G06V10/40 , G06V10/774 , G06V10/82
Abstract: 本发明提供一种基于多级跨模态联合对齐的行人重识别方法及系统,属于机器视觉图像处理技术领域,获取待识别的图像数据;利用预先训练好的行人重识别模型对获取的待识别的图像进行处理,得到图像中行人重识别结果。本发明提出可见红外模态协调器并以加权灰度、跨通道剪切混合和频谱抖动协调器三种不同的方式,减轻了可见光和红外图像之间的差异,弥合了图像级别的模态差距;引入具有可训练参数的模态分布适配器,捕获特征图的空间统计特征并自适应地对齐不同模态的特征分布,减少特征级别的模态差距;引入跨模态检索损失,减少VI‑ReID目标层面的差距;引入多光谱增强排序策略,增强了模型的鲁棒性和跨模态检索能力。
-
公开(公告)号:CN118264471A
公开(公告)日:2024-06-28
申请号:CN202410408472.4
申请日:2024-04-07
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于区块链跨链的车联网跨域服务公平可信提供方法。该方法包括:系统初始化阶段、服务发布阶段、服务请求阶段、双向密钥确认阶段和服务提供阶段。每个信任域内的RSU运行本域的应用链,每个域的CA为本域的车辆签发证书,并作为本域的代表,调用域间区块链上的域管理合约进行注册。服务请求者和服务提供者在双向密钥确认阶段对对称密钥进行协商确认。服务提供者向本域的RSU发送服务信息,RSU调用应用链B上的跨链调用合约,将服务信息发布至域间区块链。本发明方法充分考虑了车联网用户的跨域服务交互需求,利用跨链技术实现了数据的跨域交换。通过为服务请求者签发假名证书从而防止服务请求者在跨域服务交互的过程中泄露身份隐私。
-
公开(公告)号:CN114140826B
公开(公告)日:2024-05-31
申请号:CN202111468443.X
申请日:2021-12-03
Applicant: 北京交通大学
IPC: G06V40/10 , G06V10/32 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明提供了一种基于相机特征分离的目标重识别方法,包括如下步骤:步骤1:对数据进行预处理;步骤2:通过编码器提取样本特征,基于特征聚类生成伪标签;步骤3:基于注意力模块分离Feature Map;步骤4:向前传播得到目标和相机分类结果;步骤5:计算损失函数;步骤6:对模型进行优化计算;步骤7:得到测试模型的效果;步骤8:得到无监督目标重识别的解决方案;本申请相比于现有的消除相机影响的无监督目标重识别方法,用注意力模块直接分离相机特征更加直接,比二阶段方法更加简单;基于类别下相机中心的四元中心损失可以避免基于样本的度量损失的训练过程不稳定的现象。
-
-
-
-
-
-
-
-
-