-
公开(公告)号:CN115131850A
公开(公告)日:2022-09-30
申请号:CN202210622583.6
申请日:2022-06-02
Applicant: 哈尔滨理工大学
IPC: G06V40/16 , G06V20/40 , G06V10/774 , G06V10/82 , G06N3/08
Abstract: 一种无约束环境下的细粒度凝视估计方法,本发明涉及一种无约束环境下的细粒度凝视估计方法,旨在解决在普通单目相机下无约束光照和头部姿势的凝视估计精度不高的问题;具体步骤如下:首先利用帧间差分法提取普通网络摄像头拍摄被测者的关键帧图片,然后利用人脸三维检测重建模型(RetinaFace),提取图片中的人脸图像;最后利用双全连接层改进ResNet‑50深度学习网络模型,提取人脸图像中的空间凝视特征,两个全连接层及两个损失函数分别回归偏航和俯仰的注视角度。实验表明,该方法提高了每个注视角度的预测精度,改善了整体凝视预测的性能,并有效增强了注视模型的泛化能力。本发明应用于无约束环境下凝视方向估计。