-
公开(公告)号:CN110751153B
公开(公告)日:2023-08-01
申请号:CN201910886599.6
申请日:2019-09-19
Applicant: 北京工业大学
IPC: G06V10/26 , G06V10/774
Abstract: 一种室内场景RGB‑D图像的语义标注方法,其能够使室内场景语义标注方法中感受野不局限于超像素,构建超像素组的语义特征表示并进一步基于度量学习对超像素组特征进行优化,从而提高室内场景理解的准确率。该语义标注方法,包括:(1)采用gPb/UCM算法对RGB‑D室内场景图像进行超像素分割;(2)超像素特征提取:执行Patch特征计算、超像素特征表示;(3)超像素组特征提取:执行实例超像素组及其特征提取、类超像素组及其特征提取;(4)超像素组特征向量化:定义高斯分量之间的常数距离、执行实例超像素组特征向量化、执行类超像素组特征向量化;(5)度量学习:学习优化矩阵L、基于优化矩阵L标注测试样本。
-
公开(公告)号:CN110544297B
公开(公告)日:2023-06-20
申请号:CN201910722716.5
申请日:2019-08-06
Applicant: 北京工业大学
IPC: G06T17/00 , G06V10/44 , G06V10/82 , G06N3/0475 , G06N3/094
Abstract: 公开一种单幅图像的三维模型重建方法,其不需要人工设计复杂的特征算法,避免了复杂的相机校准及精细的流程设计,并具备了通过学习所见拓展所知,重建所未知的能力;改进了预测不完整、噪声多,训练时间长的问题;不仅能够准确地重建图像,同时还能避免噪声的引入。该方法包括:(1)输入深度图像;(2)转换为2.5D体素网格;(3)在生成器部分,首先将输入的单幅深度图像编码为一个潜在向量,然后利用注意力机制学习一个基于注意力的潜在向量,再将注意力的潜在变量解码生成3D重建形状;(4)在判别器部分,在3D重建形状上实施重构判别器,在可见部分形状上实施掩模判别器。
-
公开(公告)号:CN110930370B
公开(公告)日:2023-03-31
申请号:CN201911065268.2
申请日:2019-11-04
Applicant: 北京工业大学
IPC: G06T7/00
Abstract: 一种全景图像质量评估方法,通过将无压缩的全景图和对应压缩后的全景图经过scharr滤波器滤波后获得单个像素计算的视觉得分,通过多尺度融合来评估不同尺度下输入图像的质量,针对全景图的观看模式,采用尺度自适应方案,用注意力图机制v(t)控制是否使用注意力权重W(r)进行细节感知,可以模拟实现人眼观看全景图像的不同维度时会分配不同的注意力,以及人眼在观看图像时对全局和细节的特征把握,提高了模型客观评估结果与主观结果的一致性。
-
公开(公告)号:CN115482379A
公开(公告)日:2022-12-16
申请号:CN202211106328.2
申请日:2022-09-11
Applicant: 北京工业大学
Abstract: 基于交错空洞卷积UNet的图像语义分割方法适用于计算机视觉领域。该方法使用了交错空洞卷积模块以及边缘保持模块。交错空洞卷积模块通过交错式的融合方式,即避免了将表达不同物体的特征进行相加,又有效的融合分布在不同通道的特征。而边缘保持模块通过将不同卷积核的卷积层的输出做差得到边缘特征,经整合后加和到输出特征上。该模块具有锐化特征边缘信息的能力。从而增强模型对于边缘的预测能力。该方法的提出,主要解决的技术问题包括多感受野的特征融合与图像语义分割的细节优化,从而获得更好的语义分割性能。
-
公开(公告)号:CN114637931A
公开(公告)日:2022-06-17
申请号:CN202210323705.1
申请日:2022-03-29
Applicant: 北京工业大学
IPC: G06F16/9537 , G06F17/16 , G06K9/62
Abstract: 基于流形上序列子空间聚类的出行模式检测方法属于智能交通领域,目的是要检测出一条完整轨迹中的交通模式变化。根据GPS轨迹数据的经纬度和时间戳来提取每个轨迹点的特征,用相邻轨迹点的特征向量来算得轨迹点的对称正定表示矩阵,然后将各轨迹点的表示矩阵按时间戳顺序放置得到轨迹的表示矩阵集合;其次,与传统的低秩表示模型不同,采用了对称正定流形的对数‑欧几里得度量下的低秩表示模型,并在低秩表示模型中加入强制序列数据相邻列相似的项来保证相邻轨迹点相似;最后,将目标函数分解为几个子问题,并用拉格朗日乘数法来进行求解。本发明具有较高的检测准确性。
-
公开(公告)号:CN110517270B
公开(公告)日:2022-04-12
申请号:CN201910642478.7
申请日:2019-07-16
Applicant: 北京工业大学
IPC: G06T7/11 , G06T7/90 , G06V10/762 , G06K9/62 , G06N3/04
Abstract: 一种基于超像素深度网络的室内场景语义分割方法,能够缓解像素作为深度网络计算单元带来的图像语义分割边界不清晰以及计算量大的问题,同时打破现有深度网络方法无法接受无序的超像素集合作为输入的局限。该方法包括:(1)对RGB颜色图像使用简单线性迭代聚类分割算法SLIC得到超像素集合;(2)计算每一个超像素的最小包围矩形;(3)基于超像素深度网络RCN提取图像的颜色特征与深度特征;(4)用每一个超像素的最小包围矩形,在颜色与深度的多层次特征图上进行裁剪和重塑操作,得到每一个超像素颜色多层次特征表示与深度多层次特征表示;(5)融合超像素颜色多层次特征与深度多层次特征得到超像素特征,对超像素进行分类。
-
公开(公告)号:CN114077692A
公开(公告)日:2022-02-22
申请号:CN202111310620.1
申请日:2021-11-04
Applicant: 北京工业大学
IPC: G06F16/9035 , G06F16/906 , G06F16/901 , G06N5/02 , G06N3/08 , G06V10/764 , G06V10/82 , G06K9/62
Abstract: 基于交互任务知识图谱的细粒度工具推荐方法及装置,能够很好地针对细粒度任务进行工具推荐,并且在最优工具不存在时,可以有效地检索到替代工具。方法包括:(1)建立交互任务知识图谱ITKG来定义交互任务、工具及被操作物体的多粒度语义;(2)通过交互工具推荐网络IT‑Net推荐细粒度任务适配的工具;(3)通过约束工具和被操作物体的粗粒度语义预测损失loss,通过细粒度语义预测loss,使IT‑Net学习到工具和被操作物体的共同特征和专有特征;(4)通过约束适配细粒度任务的工具和被操作物体的嵌入特征距离小于不适配细粒度任务的工具和被操作物体的嵌入特征距离,使IT‑Net学习适配细粒度任务的工具和被操作物体的特征关系。
-
公开(公告)号:CN113468471A
公开(公告)日:2021-10-01
申请号:CN202110543478.9
申请日:2021-05-19
Applicant: 北京工业大学
Abstract: 本发明提出一种基于张量型加权Schatten‑p范数的交通数据修复方法。该方法首次将加权Schatten‑p范数引入交通数据修复的问题中,其形式更接近于张量秩函数的形式,更确切地说是加权核范数和张量秩函数之间的一种平衡,可以更好地挖掘数据之间的各向异性;其次,提出一种全新的权重向量构造方法,可以极大限度地保证奇异值之间的大小关系,保证数据的主成分不被破坏;最后,通过引入广义奇异值软阈值算法和ADMM算法,成功求解优化问题的全局最优解。本发明进一步优化低秩结构,确保结果的低秩性以及对权重向量进行重构,保证各个奇异值在原数据中所起的作用,最终提升数据修复效果。
-
公开(公告)号:CN113409327A
公开(公告)日:2021-09-17
申请号:CN202110608265.X
申请日:2021-06-01
Applicant: 北京工业大学
Abstract: 本发明提出一种基于排序与语义一致性约束的实例分割改进方法,针对如何提高分割实例的掩膜质量问题,主要是提出面向实例分割网络的排序损失与语义一致性损失,前者优化子区域的选择结果,后者优化子区域的语义分割结果。实例分割属于计算机视觉领域的重要任务,既要求区分具体实例,又要求完成分类与定位任务。当前的实例分割方法,存在分割实例的掩膜质量不高的问题,这对很多实际任务有不可忽略的负面影响。提出的排序损失与语义一致性损失,可以应用于目前已有的任意两阶段与单阶段实例分割框架中。在公开数据集上进行的实验表明,增加排序损失与语义一致性损失后,深度网络的实例分割效果均取得一定程度的提升,分割实例的掩膜质量有所改善。
-
公开(公告)号:CN113052030A
公开(公告)日:2021-06-29
申请号:CN202110273215.0
申请日:2021-03-11
Applicant: 北京工业大学
Abstract: 本发明涉及一种基于单张RGB图像的双流多尺度手部姿态估计方法,用于解决单张RGB图像中自遮挡、近邻关节预测歧义问题。本发明是以RGB图像作为输入,利用深度神经网络提取单张图像的特征并得到手部关节2D姿态初始坐标,利用双分支网络进行2D姿态估计,得到两路手部关节2D姿态坐标;对于两路2D姿态坐标,利用双分支的多尺度语义图U‑Net网络分别估计两路手部关节的3D坐标,然后再将两路3D坐标加和求平均,最终输出手部关节的3D坐标。本发明基于手的不同拓扑结构,更好的利用了关节之间的信息,最终实现高精度的手部姿态估计。
-
-
-
-
-
-
-
-
-