格拉斯曼流形上基于原型和Simile的表情识别方法

    公开(公告)号:CN106485219A

    公开(公告)日:2017-03-08

    申请号:CN201610883740.3

    申请日:2016-10-11

    Applicant: 吉林大学

    CPC classification number: G06K9/00302 G06K9/00288

    Abstract: 格拉斯曼流形上基于原型和Simile的表情识别方法属图像处理和模式识别技术领域,本发明包括下列步骤:选取CK+人脸表情数据库,人脸区域检测,图像尺寸归一化,将CK+数据库分为测试与训练样本集,在训练样本集基础上进行局部表情模型建立,基于学习原型对局部表情模型聚类,基于Simile分类器进行高级特征提取,采用SVM分类器进行表情识别;本发明只对局部表情区域进行建模,与对全脸进行建模相比能降低计算量;对表情局部特征进行进一步高级提取,能够更好地捕捉到人脸表情的微妙变化,提高自然场景下人脸表情的识别率,具有很好的鲁棒性。

    可提高立体图像显示分辨率的蜂窝式透镜阵列设计方法

    公开(公告)号:CN104635337B

    公开(公告)日:2017-03-01

    申请号:CN201510086401.8

    申请日:2015-02-17

    Applicant: 吉林大学

    Abstract: 可提高立体图像显示分辨率的蜂窝式透镜阵列设计方法属立体视频显示技术领域,本发明主要步骤为:对比成像效率设定设计对象、蜂窝式透镜阵列模板的光学设计及成像特性分析和显示平面与蜂窝式透镜阵列的参数匹配,与传统的矩形透镜阵列相比,采用本发明的蜂窝式透镜阵列,能充分利用光学器件的有效面积,增大成像区域,使立体图像分辨率显著提高,从而获得高质量的三维再现像,提高观看的真实感和立体感。

    网络言论数据疑似犯罪度计算方法

    公开(公告)号:CN105138570B

    公开(公告)日:2019-02-05

    申请号:CN201510442984.3

    申请日:2015-07-26

    Applicant: 吉林大学

    Abstract: 网络言论数据疑似犯罪度计算方法属智能安防技术领域,本发明提出了网络言论疑似犯罪度这一概念,定义它为社交网络上某ID通过其言论表现出来的犯罪可能性,以犯罪心理学为理论依据,总结出犯罪心理表现出的言论特征,提出了网络言论犯罪度的需求因素、情绪因素和准备因素影响模型;以文本分析技术手段、运用朴素贝叶斯分类器对需求因素进行判断,利用情感词典对情绪因素进行判断,构建了犯罪敏感词词典并结合机器学习的方法对准备因素进行判断,建立了网络言论疑似犯罪度理论框架和数学模型;本发明能将预警提前到犯罪心理形成和犯罪准备阶段,运用到实际网络中可全程自动分析预测大量数据,不需人为干预,可将安防系统智能化提升到更高层次。

    网络言论数据疑似犯罪度计算方法

    公开(公告)号:CN105138570A

    公开(公告)日:2015-12-09

    申请号:CN201510442984.3

    申请日:2015-07-26

    Applicant: 吉林大学

    CPC classification number: G06F17/30705 G06F17/30684

    Abstract: 网络言论数据疑似犯罪度计算方法属智能安防技术领域,本发明提出了网络言论疑似犯罪度这一概念,定义它为社交网络上某ID通过其言论表现出来的犯罪可能性,以犯罪心理学为理论依据,总结出犯罪心理表现出的言论特征,提出了网络言论犯罪度的需求因素、情绪因素和准备因素影响模型;以文本分析技术手段、运用朴素贝叶斯分类器对需求因素进行判断,利用情感词典对情绪因素进行判断,构建了犯罪敏感词词典并结合机器学习的方法对准备因素进行判断,建立了网络言论疑似犯罪度理论框架和数学模型;本发明能将预警提前到犯罪心理形成和犯罪准备阶段,运用到实际网络中可全程自动分析预测大量数据,不需人为干预,可将安防系统智能化提升到更高层次。

    可提高立体图像显示分辨率的蜂窝式透镜阵列设计方法

    公开(公告)号:CN104635337A

    公开(公告)日:2015-05-20

    申请号:CN201510086401.8

    申请日:2015-02-17

    Applicant: 吉林大学

    CPC classification number: G02B27/0012 G02B27/2214

    Abstract: 可提高立体图像显示分辨率的蜂窝式透镜阵列设计方法属立体视频显示技术领域,本发明主要步骤为:对比成像效率设定设计对象、蜂窝式透镜阵列模板的光学设计及成像特性分析和显示平面与蜂窝式透镜阵列的参数匹配,与传统的矩形透镜阵列相比,采用本发明的蜂窝式透镜阵列,能充分利用光学器件的有效面积,增大成像区域,使立体图像分辨率显著提高,从而获得高质量的三维再现像,提高观看的真实感和立体感。

    基于亮度补偿的立体视频视觉舒适度评价方法

    公开(公告)号:CN103986925A

    公开(公告)日:2014-08-13

    申请号:CN201410247815.X

    申请日:2014-06-05

    Applicant: 吉林大学

    Abstract: 基于亮度补偿的立体视频视觉舒适度评价方法属立体视频视觉舒适度评价技术领域,本发明结合立体视频帧左右视图的灰度图提取出立体视频帧的前景区域,合成视差图并提取水平视差,计算深度视差;根据主观评价结果建立视差深度—视觉舒适度模型,再结合亮度对视觉舒适度的评价模型进行优化,使模型的评分更接近人类视觉系统的评分;结合人类主观评价实验的结果,用逆向代入法求出模型的系数确定模型,最终实现基于人类视觉系统特性的对立体视频视觉舒适度的评价;本发明用亮度补偿的方法对视觉舒适度的评价模型进行了优化,建立了更符合人类主观感知结果的立体视频视觉舒适度评价模型,使模型评分更接近人类视觉系统特性的主观实验评分。

    基于眼部和嘴部状态的疲劳驾驶检测方法

    公开(公告)号:CN104809445B

    公开(公告)日:2017-12-19

    申请号:CN201510229231.4

    申请日:2015-05-07

    Applicant: 吉林大学

    Abstract: 基于眼部和嘴部状态的疲劳驾驶检测方法属图像处理和模式识别技术领域,本发明包括下列步骤:驾驶员视频图像采集,光照补偿预处理,人脸区域检测,综合疲劳判断,发出疲劳警报;其中人脸区域检测包括眼部检测和嘴部检测;眼部检测包括用投影法获取眼部区域,作眼部特征分析,与标准特征比较,进行k值计算和眼部疲劳的判断;嘴部检测包括用mouth‑map法获取嘴部区域,作嘴部特征分析,与标准特征比较,进行p值计算和打哈欠的判断;本发明结合眼部和嘴部两个特征参数进行判断,与单一参数相比对疲劳判断的准确率和可靠性更高,本发明的实施可大幅降低由于驾驶员疲劳驾驶而引发的交通事故,为保证驾驶员的生命财产安全,提供了一种新的防范措施。

    基于亮度补偿的立体视频视觉舒适度评价方法

    公开(公告)号:CN103986925B

    公开(公告)日:2015-09-23

    申请号:CN201410247815.X

    申请日:2014-06-05

    Applicant: 吉林大学

    Abstract: 基于亮度补偿的立体视频视觉舒适度评价方法属立体视频视觉舒适度评价技术领域,本发明结合立体视频帧左右视图的灰度图提取出立体视频帧的前景区域,合成视差图并提取水平视差,计算深度视差;根据主观评价结果建立视差深度—视觉舒适度模型,再结合亮度对视觉舒适度的评价模型进行优化,使模型的评分更接近人类视觉系统的评分;结合人类主观评价实验的结果,用逆向代入法求出模型的系数确定模型,最终实现基于人类视觉系统特性的对立体视频视觉舒适度的评价;本发明用亮度补偿的方法对视觉舒适度的评价模型进行了优化,建立了更符合人类主观感知结果的立体视频视觉舒适度评价模型,使模型评分更接近人类视觉系统特性的主观实验评分。

    基于眼部和嘴部状态的疲劳驾驶检测方法

    公开(公告)号:CN104809445A

    公开(公告)日:2015-07-29

    申请号:CN201510229231.4

    申请日:2015-05-07

    Applicant: 吉林大学

    CPC classification number: G06K9/00234 G06K9/00281 G06K9/00845

    Abstract: 基于眼部和嘴部状态的疲劳驾驶检测方法属图像处理和模式识别技术领域,本发明包括下列步骤:驾驶员视频图像采集,光照补偿预处理,人脸区域检测,综合疲劳判断,发出疲劳警报;其中人脸区域检测包括眼部检测和嘴部检测;眼部检测包括用投影法获取眼部区域,作眼部特征分析,与标准特征比较,进行k值计算和眼部疲劳的判断;嘴部检测包括用mouth-map法获取嘴部区域,作嘴部特征分析,与标准特征比较,进行p值计算和打哈欠的判断;本发明结合眼部和嘴部两个特征参数进行判断,与单一参数相比对疲劳判断的准确率和可靠性更高,本发明的实施可大幅降低由于驾驶员疲劳驾驶而引发的交通事故,为保证驾驶员的生命财产安全,提供了一种新的防范措施。

    一种基于注意力机制的古筝演奏手型的识别方法

    公开(公告)号:CN116704604A

    公开(公告)日:2023-09-05

    申请号:CN202310648225.7

    申请日:2023-06-02

    Applicant: 吉林大学

    Abstract: 一种基于注意力机制的古筝演奏手型的识别方法属计算机视觉和乐器演奏的交叉学科技术领域,本发明的方法分为分类量表的制定、数据集的构建、识别网络的设计三个步骤。首先,在分类量表制定时融合了古筝手型教学要求和图像识别技术特点。其次,采用了基于自由视角的图像采集方式并通过图像数据增强构建古筝手型数据集。最后,利用迁移学习和深度神经网络,引入多维注意力机制,设计了基于注意力机制的古筝演奏手型识别网络。实际效果表明,本发明提出的基于注意力机制的古筝演奏手型识别方法具有可行性和有效性,能够实现对古筝演奏手型的智能识别,对古筝演奏者演奏水平的提高,具有实际的指导作用。

Patent Agency Ranking