-
公开(公告)号:CN118821904A
公开(公告)日:2024-10-22
申请号:CN202410793377.0
申请日:2024-06-19
Applicant: 重庆邮电大学
IPC: G06N3/094 , G06N3/045 , G06N3/0464 , G06N3/0475 , G01R31/367 , G01R31/387
Abstract: 本发明涉及一种基于双重残差分层生成对抗网络的锂电池容量数据生成方法,属于锂电池历史容量数据生成领域。该方法首先建立双重残差分层生成对抗网络模型,采集真实锂电池充放电的容量数据;然后将采集的数据输入建立的双重残差分层生成对抗网络模型中进行训练,通过训练好的双重残差分层生成对抗网络模型进行锂电池容量数据的生成。其中,所述的双重残差分层生成对抗网络模型包括生成器和判别器,生成器和判别器均包括S个相同的通过双重残差连接的模块。本发明能够获得与真实数据具有较大相似性的生成数据,可以为锂电池RUL预测的神经网络提供足够且丰富的训练数据,提高神经网络的准确性和泛化性。
-
公开(公告)号:CN118692133A
公开(公告)日:2024-09-24
申请号:CN202410729456.5
申请日:2024-06-06
Applicant: 重庆邮电大学
IPC: G06V40/18 , G06V20/40 , G06V10/766 , G06V10/62 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/049 , G06N3/09
Abstract: 本发明涉及一种基于时空注意力机制和高斯过程的个性化视线追踪方法,属于视线追踪技术领域。其包括:采用基于深度残差网络的卷积神经网络模型接收输入视频并提取所有帧的特征映射;通过基于双重和交叉结构的混合空间注意力模型来处理特征映射,得到连续帧之间的空间运动信息;空间运动信息通过时间注意力模型学习使用过去帧嵌入的时间动态,得到具有时间维度动态信息的特征;通过视线回归层将时间注意力模型输出的具有时间维度动态信息的特征映射到预测视线方向序列中;通过基于高斯过程的个性化时空注意力模型得到的后验均值函数预测凝视角残差值,并将其用于校正预测视线方向序列后输出最终预测视线方向向量。本发明能够提取更多的凝视细节。
-
公开(公告)号:CN118675526A
公开(公告)日:2024-09-20
申请号:CN202410729452.7
申请日:2024-06-06
Applicant: 重庆邮电大学
IPC: G10L15/25 , G10L15/00 , G10L15/06 , G06V40/16 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及一种基于交叉注意力融合的视觉语音识别方法及系统,属于计算机交互技术领域。该方法包括以下步骤:采集和标注视频数据和音频数据;对视频数据进行预处理,提取出嘴部区域的图像帧和相应的面部标志点;使用深度学习模型分别提取图像帧和面部标志点的特征;通过交叉注意力机制融合图像帧和面部标志点的特征;将融合后的特征输入分类器,识别视频中的语音内容。本发明能够有效整合图像帧和面部标志点两种视觉特征,充分利用两种模态之间的互补关系,提升唇读系统的精度和鲁棒性。针对唇语识别需要处理视频中的时序信息,捕捉唇部运动的动态变化的问题,引入时间卷积网络作为序列解码器,能够捕捉视频序列中唇部运动的动态时序变化。
-
-