-
公开(公告)号:CN116088495A
公开(公告)日:2023-05-09
申请号:CN202211416730.0
申请日:2022-11-14
Applicant: 中北大学
IPC: G05D1/02
Abstract: 本发明属于强化学习领域,具体涉及一种室内移动机器人强化学习导航方法,为解决在复杂环境复杂奖励的情况下,智能体导航中的样本利用率低以及导航成功率不高的问题,本发明在D3QN算法基础上,引入优势后见经验回放算法和分层强化学习结构。首先,通过比较不同轨迹点的优势函数来选择新目标点,拥有最大优势函数的轨迹点作为新目标点,根据新目标点,对轨迹样本重新标记并存入经验池中。然后,在分层强化学习的结构下,训练智能体在复杂的环境下学习,顶层智能体负责学习大范围的路径规划,底层智能体负责导航到子目标,最后实现到总目标点的导航。
-
公开(公告)号:CN115222684A
公开(公告)日:2022-10-21
申请号:CN202210799731.1
申请日:2022-07-06
Applicant: 中北大学
IPC: G06T7/00 , G06V10/764 , G06N20/00
Abstract: 本发明属于表面缺陷检测领域,具体涉及一种基于多任务增量学习的表面缺陷检测方法,可用于缺陷检测。该方法所包括的步骤如下:本发明利用MobileVIT进行特征提取,为面向新材质的新任务添加各自的全连接层作为相应的分类器,然后以逐任务的形式将样本输入模型,并对新旧任务计算交叉熵损失,对旧任务计算轻量化协方差特征蒸馏损失,其次利用反向传播算法优化模型,最后采用Herding方法挖掘样例。本发明采用轻量化的MobileVIT进行特征提取,并从模型和特征层面减轻灾难性遗忘,具有较高的实际工程应用价值。
-
公开(公告)号:CN118430838A
公开(公告)日:2024-08-02
申请号:CN202410500192.6
申请日:2024-04-24
Applicant: 中北大学
Abstract: 本发明公开了一种基于图像深度学习网络集成模型的流感预测方法,属于流行病监测技术领域。针对现有方法在特征提取方面存在局限,无法有效挖掘序列中的深层信息,从而影响其预测精度这一问题,首先,通过基于格拉姆角场将一维数字序列编码为二维图像序列,为模型提供基于图像的独特信息特征,在此基础上,通过集成麻雀搜索优化算法设计搭建深度学习网络模型,利用卷积神经网络的图像处理能力进行特征提取,完成流感预测。将一维流感序列图像编码引入再进一步搭建通过集成麻雀搜索算法优化后的非线性流感预测模型,以提高模型预测精度,同时验证卷积神经网络图像处理能力在流感时序预测领域中的优势和实用性。
-
公开(公告)号:CN117148381A
公开(公告)日:2023-12-01
申请号:CN202311152005.1
申请日:2023-09-07
Applicant: 中北大学
IPC: G01S17/93
Abstract: 本发明公开了一种基于SAC的智能机器人路径规划方法,属于机器人路径规划技术领域。针对现有强化学习技术,训练过程缓慢且不稳定,规划路径曲折不符合机器人运动规律以及对于“陷阱”环境极易陷入局部最优点而无法到达目标点等问题,通过使用卷积处理优化后的雷达信息,对于连续的动作空间增加机器人运动属性限制;增加兴趣点探索机制;分别考虑导航、避障、平滑运动轨迹以及在“陷阱”环境中脱困等方面设计全局奖励以及局部奖励;基于SAC算法以及优化后的空间状态信息设计满足静动态避障环境的Actor与Critic网络结构。
-
公开(公告)号:CN120070887A
公开(公告)日:2025-05-30
申请号:CN202510117693.0
申请日:2025-01-24
Applicant: 中北大学
IPC: G06V10/26 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/042 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于OANet(Occlusion‑Aware Network)的遮挡感知实例分割方法,旨在解决复杂场景下对象重叠引起的实例分割难题。该方法通过构建三层网络架构,显式地对遮挡关系进行建模,以提高复杂场景下实例分割的精度和鲁棒性。其中,顶层GCN+Transformer网络检测遮挡物体,底层GCN+Transformer网络推断被遮挡实例,新增被遮挡物的遮挡回归分支PSA+RefConv用于整合全局信息,优化分割边界。实验结果表明,与BCNet网络相比,OANet模型在COCO、COCOA实例分割基准数据集上均取得显著的性能提升,AP(平均精度)比基准模型提高1.2,证明其在处理严重遮挡情况时的有效性。
-
公开(公告)号:CN116646092A
公开(公告)日:2023-08-25
申请号:CN202310578545.X
申请日:2023-05-22
Applicant: 中北大学
IPC: G16H50/80 , G16H50/70 , G06N3/0442 , G06N3/047
Abstract: 本发明属于流感活动预测技术领域,具体涉及一种基于集合调整卡尔曼滤波和SIR模型的流感预测方法,为解决LSTM在峰值点拟合偏低的问题,本发明提供的流感预测方法一方面结合感染率和康复率,由SIR模型模拟流感在人群中传播,来预测流感的人数。另一方面通过集合调整卡尔曼滤波系统结合ILI观测值对SIR模型输出的预测值进行状态滤波得到最后的ILI预测值。
-
公开(公告)号:CN116644290A
公开(公告)日:2023-08-25
申请号:CN202310600296.X
申请日:2023-05-25
Applicant: 中北大学
IPC: G06F18/20 , G06F18/214 , G06N3/044 , G06N3/006 , G06N3/08
Abstract: 本发明属于计算机视觉技术领域,具体涉及一种基于优化神经网络的人体尺寸参数估计方法。为了提高人体围度尺寸预测的效率和准确性,本发明采用GBWO‑ENN的方法。针对传统灰狼算法易于陷入局部最优和无法平衡全局和局部搜索的平衡性问题,提出了GBWO算法。针对Elman神经网络收敛速度慢、容易陷入局部极小的问题,采用GBWO算法对Elman神经网络的权值和阈值进行优化。
-
公开(公告)号:CN114581718A
公开(公告)日:2022-06-03
申请号:CN202210233977.2
申请日:2022-03-10
Applicant: 中北大学
Abstract: 本发明属于计算机视觉技术领域,具体涉及一种融合持久同调的三维点云分类方法,为解决当前三维点云分类技术中缺乏对点云拓扑特征进行表征的问题,本发明在现有基于神经网络的点云分类技术PointNet++基础上,进一步引入代数拓扑学中的持久同调方法进行点云分类。首先,构建点云witness单纯复形拓扑结构,从贝蒂数和持久图两个方面量化点云的持久同调拓扑特征。其次,定义一个基于持久同调的损失函数,据此对三维点云分类的网络模型进行训练学习,得到神经网络模型各项参数。最后,利用训练好的卷积神经网络,进行三维点云的分类任务。测试结果显示,本发明显著提升了点云分类准确率。
-
公开(公告)号:CN119904577A
公开(公告)日:2025-04-29
申请号:CN202411990516.5
申请日:2024-12-31
Applicant: 中北大学
IPC: G06T17/00 , G06T19/20 , G06V20/64 , G06V10/20 , G06V10/40 , G06V10/80 , G06V10/75 , G06V10/74 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于向量神经元网络的点云场景重建方法,属于计算机视觉和三维重建技术领域。针对目前点云场景重建方法在处理旋转变化和复杂场景重建时的不足问题,本发明利用PointNet对点云场景数据进行实例分割,识别并分割场景中的各个物体;建立一个涵盖常见室内场景物体的CAD模型库,训练VN网络,利用向量卷积层对每个点及其邻域进行特征提取;通过堆叠多个向量卷积层,并结合残差连接和跳跃连接,获取不同尺度的特征表示;随后计算点云特征与CAD模型特征之间的相似度,采用Chamfer距离进行检索,选取最相似的CAD模型作为候选;最后将CAD模型候选逐一与场景点云进行对齐,并引入物理违规检查模块,确保重建后场景的精确性和物理合规性。
-
公开(公告)号:CN114581718B
公开(公告)日:2025-04-01
申请号:CN202210233977.2
申请日:2022-03-10
Applicant: 中北大学
IPC: G06V10/764 , G06V10/82 , G06N3/0464 , G01S13/86 , G06V20/64
Abstract: 本发明属于计算机视觉技术领域,具体涉及一种融合持久同调的三维点云分类方法,为解决当前三维点云分类技术中缺乏对点云拓扑特征进行表征的问题,本发明在现有基于神经网络的点云分类技术PointNet++基础上,进一步引入代数拓扑学中的持久同调方法进行点云分类。首先,构建点云witness单纯复形拓扑结构,从贝蒂数和持久图两个方面量化点云的持久同调拓扑特征。其次,定义一个基于持久同调的损失函数,据此对三维点云分类的网络模型进行训练学习,得到神经网络模型各项参数。最后,利用训练好的卷积神经网络,进行三维点云的分类任务。测试结果显示,本发明显著提升了点云分类准确率。
-
-
-
-
-
-
-
-
-