-
公开(公告)号:CN117173232A
公开(公告)日:2023-12-05
申请号:CN202310937667.3
申请日:2023-07-27
Applicant: 北京邮电大学
IPC: G06T7/55 , G06T5/50 , G06T19/20 , G06N3/0475 , G06N3/09
Abstract: 本发明提供一种深度图像的获取方法、装置及设备,该方法包括:获取目标三维场景的原始RGB图像和原始深度图像;将所述原始RGB图像,输入至色彩深度信息融合模型中的特征金字塔网络,得到多个图像特征;将所述多个图像特征和所述原始深度图像,输入至所述色彩深度信息融合模型中的深度图像生成网络,得到所述目标三维场景的目标深度图像。本发明提供一种深度图像的获取方法、装置及设备用于提高深度图像的准确率。
-
公开(公告)号:CN116246146A
公开(公告)日:2023-06-09
申请号:CN202310193999.5
申请日:2023-02-24
Applicant: 北京邮电大学
IPC: G06V10/82 , G06V10/774 , G06N3/0464 , G06N3/0442 , G06N3/08 , G06V10/80
Abstract: 本发明提供一种模型训练方法、人眼注视区域预测方法及装置,其中模型训练方法,包括:获取样本两视点视频数据集,样本两视点视频数据集包括三维动态场景下拍摄的多个样本两视点视频数据;基于样本两视点视频数据集,对初始人眼注视区域预测模型进行训练,确定预设人眼注视区域预测模型;其中,初始人眼注视区域预测模型包括基于卷积神经网络建立的自底向上注意力机制子模型和基于长短时记忆网络建立的自顶向下注意力机制子模型。本发明实现了建立适用于三维动态场景下视觉注意力机制模型目的,大幅提高了人眼注视区域预测结果的预测精度,同时也大幅提高了训练所得预设人眼注视区域预测模型的适用范围。
-