-
公开(公告)号:CN118644895A
公开(公告)日:2024-09-13
申请号:CN202410782924.5
申请日:2024-06-18
Applicant: 东北大学 , 东北大学佛山研究生创新学院
IPC: G06V40/20 , G06V10/774 , G06V10/77 , G06V10/82
Abstract: 本发明的一种基于离散扩散模型的文本条件人体动作生成方法,包括:步骤1:获取人体3D关键点数据集;步骤2:采用人体3D关键点数据集对动作量化变分自编码器进行预训练,采用训练完的动作量化变分自编码器编码获得动作潜变量;步骤3:采用人体3D关键点数据集和动作潜变量对轻量化离散扩散模型进行训练;步骤4:将给定的文本条件输入到文本编码器,生成文本特征向量,将文本特征向量输入到训练好的轻量化离散扩散模型获得动作潜变量,将动作潜变量输入到训练好的动作量化变分自编码器,解码获得与给定的文本条件对应的3D关键点运动序列。
-
公开(公告)号:CN118644895B
公开(公告)日:2025-03-07
申请号:CN202410782924.5
申请日:2024-06-18
Applicant: 东北大学 , 东北大学佛山研究生创新学院
IPC: G06V40/20 , G06V10/774 , G06V10/77 , G06V10/82
Abstract: 本发明的一种基于离散扩散模型的文本条件人体动作生成方法,包括:步骤1:获取人体3D关键点数据集;步骤2:采用人体3D关键点数据集对动作量化变分自编码器进行预训练,采用训练完的动作量化变分自编码器编码获得动作潜变量;步骤3:采用人体3D关键点数据集和动作潜变量对轻量化离散扩散模型进行训练;步骤4:将给定的文本条件输入到文本编码器,生成文本特征向量,将文本特征向量输入到训练好的轻量化离散扩散模型获得动作潜变量,将动作潜变量输入到训练好的动作量化变分自编码器,解码获得与给定的文本条件对应的3D关键点运动序列。
-
公开(公告)号:CN118314617B
公开(公告)日:2024-10-08
申请号:CN202410741153.5
申请日:2024-06-11
Applicant: 东北大学 , 东北大学佛山研究生创新学院
IPC: G06V40/16 , G06V10/82 , G06V20/40 , G06V10/774 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于分块多尺度卷积神经网络的微表情识别方法,包括:提供包括多个视频序列的数据集,视频序列包括起始帧和顶点帧;从数据集中选择一个视频序列作为待测样本;提供基于分块多尺度卷积神经网络;将待测样本输入基于分块多尺度卷积神经网络,基于分块多尺度卷积神经网络的光流特征提取模块根据待测视频生成四维光流特征向量;基于分块多尺度卷积神经网络的分块多尺度卷积模块根据四维光流特征向量生成识别结果。通过光流特征提取模块更准确地捕捉和强化微表情的动态特征,为识别过程提供丰富的信息源;分块多尺度卷积模块增强了对微妙面部变化的敏感度,从而提升微表情识别的准确性。
-
公开(公告)号:CN117132937B
公开(公告)日:2024-12-06
申请号:CN202311140621.5
申请日:2023-09-06
Applicant: 东北大学佛山研究生创新学院 , 东北大学
IPC: G06V20/52 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/0442 , G06N3/084
Abstract: 本发明提供一种基于注意力孪生网络的双通道行人重识别方法,包括:将图库图片和待识别的样本图片送入第一孪生网络进行显著特征提取,获取每张图片的浅层特征向量;对样本图片和图库图片的浅层特征向量进行相似性度量,计算第一孪生网络的损失L1,根据损失值得到相似性最高的k张图库图片;将k张图库图片与样本图片送入第二孪生网络中计算其损失L2;同时将样本图片和k张图库图片按照相似性顺序输入到双向长短期记忆网络计算上下语义特征向量和均方差损失L3,上下语义特征向量经聚合得到图片排序特征向量;将第二孪生网络的损失L2与图片排序特征向量进行融合并计算距离,再进行相似度聚合输出与待识别的样本图片最相似的图片列表。
-
公开(公告)号:CN118314617A
公开(公告)日:2024-07-09
申请号:CN202410741153.5
申请日:2024-06-11
Applicant: 东北大学 , 东北大学佛山研究生创新学院
IPC: G06V40/16 , G06V10/82 , G06V20/40 , G06V10/774 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于分块多尺度卷积神经网络的微表情识别方法,包括:提供包括多个视频序列的数据集,视频序列包括起始帧和顶点帧;从数据集中选择一个视频序列作为待测样本;提供基于分块多尺度卷积神经网络;将待测样本输入基于分块多尺度卷积神经网络,基于分块多尺度卷积神经网络的光流特征提取模块根据待测视频生成四维光流特征向量;基于分块多尺度卷积神经网络的分块多尺度卷积模块根据四维光流特征向量生成识别结果。通过光流特征提取模块更准确地捕捉和强化微表情的动态特征,为识别过程提供丰富的信息源;分块多尺度卷积模块增强了对微妙面部变化的敏感度,从而提升微表情识别的准确性。
-
公开(公告)号:CN117132937A
公开(公告)日:2023-11-28
申请号:CN202311140621.5
申请日:2023-09-06
Applicant: 东北大学佛山研究生创新学院 , 东北大学
IPC: G06V20/52 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/0442 , G06N3/084
Abstract: 本发明提供一种基于注意力孪生网络的双通道行人重识别方法,包括:将图库图片和待识别的样本图片送入第一孪生网络进行显著特征提取,获取每张图片的浅层特征向量;对样本图片和图库图片的浅层特征向量进行相似性度量,计算第一孪生网络的损失L1,根据损失值得到相似性最高的k张图库图片;将k张图库图片与样本图片送入第二孪生网络中计算其损失L2;同时将样本图片和k张图库图片按照相似性顺序输入到双向长短期记忆网络计算上下语义特征向量和均方差损失L3,上下语义特征向量经聚合得到图片排序特征向量;将第二孪生网络的损失L2与图片排序特征向量进行融合并计算距离,再进行相似度聚合输出与待识别的样本图片最相似的图片列表。
-
公开(公告)号:CN117993102A
公开(公告)日:2024-05-07
申请号:CN202410170192.4
申请日:2024-02-06
Applicant: 东北大学
IPC: G06F30/15 , G06F30/27 , G06F30/28 , G06F18/10 , G06F119/14 , G06F113/08
Abstract: 本发明提供一种三自由度无人水面舰艇模型在线辨识方法,首先通过最小二乘支持向量机分别辨识出三个自由度的模型,分别是纵向速度模型、横向速度模型、转首角速度模型,然后在无人水面舰艇航行过程中,当某个模型的预测值和真实值之间的误差满足所设置的类PD(proportional and derivative‑like,类PD)事件触发条件时,采集当前时刻舰艇的状态量,将其添加进训练集,之后通过数据过滤窗结构对数据集进行过滤,并采用过滤后的数据集对该模型重新进行训练,最后将重新训练的模型更替上一时刻的模型。采用类PD事件触发结构和数据过滤窗结构,既能保持优异的建模性能,又能在计算资源消耗和模型精度之间实现更灵活的折中。
-
公开(公告)号:CN117234222A
公开(公告)日:2023-12-15
申请号:CN202311382374.X
申请日:2023-10-24
Applicant: 东北大学
IPC: G05D1/06
Abstract: 本发明提供一种分布式异构多UUV协同控制模块,包括通信子模块、使命解析子模块、协同算法子模块、故障检测与处理子模块以及数据记录子模块。通信子模块提供统一标准的输入输出接口协议,实现协同控制模块与外界的信息交换;使命解析子模块输入基于统一标准指令集制定的使命任务信息,解析任务指令;协同算法子模块计算并输出统一标准的协同控制指令信息;故障检测与处理子模块判断UUV是否存在故障以及故障类型,并输出统一标准的故障处理策略。本发明提供统一标准的输入输出接口协议与指令集,并封装成协同控制模块,不参与UUV底层控制,解决了异构UUV协同控制中因指令及接口不统一、开放程度不同造成的设计开发、应用及拓展问题。
-
公开(公告)号:CN119046864A
公开(公告)日:2024-11-29
申请号:CN202410872180.6
申请日:2024-07-01
Applicant: 东北大学
IPC: G06F18/25 , G06F18/15 , G06F18/213 , G06N3/0455 , G06N3/0464 , G06N3/0499 , G06F30/27 , G06F30/28 , G06F30/15 , G06F119/14 , G06F113/08 , G06F123/02
Abstract: 本发明提供一种六自由度水下无人航行器在线模型辨识方法,属于水下无人航行器的系统建模技术领域。本发明对航行器时间序列和状态变量分别采用基于操纵控制数据流的多头自注意力机制,构建水下无人航行器真实状态数据缺失的模型辨识策略,并基于此提出了编码器‑解码器结构的端到端水下无人航行器在线模型辨识深度学习方法。本发明方法可以对缺失的状态数据进行估计或重建,能够以较小的计算成本实时建立精确的六自由度水下无人航行器模型,从而保证航行器在海洋环境中能够稳定、可靠地工作。
-
公开(公告)号:CN118711047A
公开(公告)日:2024-09-27
申请号:CN202410862329.2
申请日:2024-06-28
Applicant: 东北大学
IPC: G06V20/05 , G06V10/40 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明提供基于轻量化网络的类别不平衡侧扫声呐图像实时识别方法,属于实时水下目标识别的技术领域。所述方法包括:离线模型训练和水下实时在线识别两部分。对于离线模型训练而言,将类别不平衡数据集进行多平衡采样,并基于轻量化分支构建神经网络模型,同时对于部分分支结构使用特征空间正则化以解决泛化变异性问题。对于水下实时在线识别系统而言,为解决无人水下航行器(Autonomous Underwater Vehicle,AUV)上的侧扫声呐(Side Scan Sonar,SSS)数据实时处理的问题,将原始SSS数据在线解码、转换、拼接得到原始SSS瀑布图,并引入回波强度归一化法进行校正,然后分配图像位置信息实时得到SSS图像,最后将实时得到的处理信息,通过像素重要性值法快速筛选出有效目标图像,并将其输入至部署的轻量化网络中完成水下实时识别。
-
-
-
-
-
-
-
-
-