-
公开(公告)号:CN113127716A
公开(公告)日:2021-07-16
申请号:CN202110474305.6
申请日:2021-04-29
Applicant: 南京大学
IPC: G06F16/951 , G06F16/9536 , G06F16/33 , G06F16/35 , G06Q50/00
Abstract: 本发明提供了一种基于显著性图的情感时间序列异常检测方法,包括:(1)获取社交平台中的话题文本数据,生成对应的原始情感时间序列曲线;(2)对原始情感时间序列进行分解,保留序列残差项;(3)对序列残差项两端的部分未知数据进行预测和补充,得到待测时间序列;(4)划分待测时间序列,利用谱残差方法生成时间子序列的显著性图;(5)根据显著性图确定异常判定结果。
-
公开(公告)号:CN105938561A
公开(公告)日:2016-09-14
申请号:CN201610228398.3
申请日:2016-04-13
Applicant: 南京大学
IPC: G06K9/62
CPC classification number: G06K9/6269
Abstract: 本发明公开了一种基于典型相关性分析的计算机数据属性约简方法,包括:(1)通过均分的思路将信息表中的原始属性集合分割成多个子属性集合,将每个子属性集合分别看做原属性集合的一个子视图;(2)通过对这些视图进行典型相关性分析得出视图特征之间的相关性情况;(3)按照相关性由大到小的顺序合并属性,将子视图再次合并到一个视图中,得到新的属性集合;(4)对新属性集合计算每个属性的属性重要度并按照从大到小排序;(5)选择属性重要度大的属性加入到约简集合中;(6)计算约简集合的依赖度,如果依赖度与原属性集合的依赖度相近,则输出约简集合;否则转至步骤5。
-
公开(公告)号:CN112052906B
公开(公告)日:2024-02-02
申请号:CN202010958311.4
申请日:2020-09-14
Applicant: 南京大学
IPC: G06V30/41 , G06V30/19 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/08 , G06F40/30 , G06F40/289
Abstract: 本发明提供了一种基于指针网络的图像描述优化方法,包括:(1)利用卷积神经网络提取输入图片的视觉特征向量,并将视觉特征输入到由两层长短期记忆网络组成的描述语句生成模块。片区域,并对图像特征基于区域做加权融合。(3)结合挑选得到的区域特征和当前句子的生成状况,利用指针网络运算机制,从预先检测到的图片属性词语中选取最恰当的词语,填充到该时刻的单词生成位置,如果无法从备选属性词语中找到合适的词语,则模型将基于当前句子生成状况,自行判断该时刻生成哪一个单词。(4)重复上(2)利用注意力机制,挑选出每一时刻关注的图(56)对比文件Hui Chen等.Show, Observe and Tell:Attribute-driven Attention Model forImage Captioning《.Proceedings of theTwenty-Seventh International JointConference on Artificial Intelligence》.2018,606-612.杨礼总.基于注意力机制下的图像描述方法研究《.中国优秀硕士学位论文全文数据库 信息科技辑》.2020,(第05期),I138-137.
-
公开(公告)号:CN112053376B
公开(公告)日:2023-10-20
申请号:CN202010928413.1
申请日:2020-09-07
Applicant: 南京大学
Abstract: 本发明提供了一种基于深度信息的工件焊缝识别方法,包括如下步骤:(1)从俯视视角,获取工件以及焊缝的深度信息,以二维矩阵形式表示;(2)数据预处理,去除深度信息中的噪声影响,对深度信息进行放缩,使得深度值都落在区间[0,255]内,转化为灰度图;(3)对深度信息的灰度图进行边缘检测,提取出其中的焊缝区域,确定焊缝的两条边缘;(4)在两条边缘中进行采样,获得一些离散点的深度信息和平面坐标信息;(5)通过分析采样点间的斜率变化,判断出焊缝的形状。本方法利用焊缝的深度信息而不是RGB信息检测焊缝,避免焊缝上的划痕以及阴影对识别的影响,并且能兼顾焊缝边缘的定位以及形状的识别。
-
公开(公告)号:CN116108174A
公开(公告)日:2023-05-12
申请号:CN202211683934.0
申请日:2022-12-27
Applicant: 南京大学
Abstract: 本发明提供了一种基于情感时间序列的异常原因提取方法,包括:数据收集与预处理,从社交媒体平台获取设定话题的评论文本数据,收集数据集,并去除不相关文本;异常点与原因标注,根据评论数量和情感值指标标记异常点,对非异常点的文本数据,分别标注评论中出现的话题子类的目标词位置,将其分类并标注情感值;异常原因提取与汇总,利用非异常点的文本数据训练基于Bert的原因提取与分类模型,对每个异常点包含的文本数据提取每条评论的原因,汇总得到异常点产生原因。本方法关注由评论文本组成的时间序列产生异常点的潜在原因,提出了新颖的原因标注与提取方法,将情感原因发现的文本从句子级精细到了词级。
-
公开(公告)号:CN113505829A
公开(公告)日:2021-10-15
申请号:CN202110776663.2
申请日:2021-07-09
Applicant: 南京大学
Abstract: 本发明提供了一种基于变分自编码器的表情序列自动生成方法,包括:(1)在大规模人脸数据集上预训练变分自编码器,使变分自编码器初步具备生成人脸图片的功能。(2)对表情变化序列等间隔取三元组,获取表情连续变化的三元组。(3)利用深度度量学习方法,用三元组的三元损失自监督训练变分自编码器。(4)经过上述步骤,变分自编码具备细粒度的特点,能感知面部表情强度,因此对编码器生成的向量进行插值再解码,即可得到一个完整的表情变化序列。
-
公开(公告)号:CN113505829B
公开(公告)日:2024-04-26
申请号:CN202110776663.2
申请日:2021-07-09
Applicant: 南京大学
IPC: G06F30/27
Abstract: 本发明提供了一种基于变分自编码器的表情序列自动生成方法,包括:(1)在大规模人脸数据集上预训练变分自编码器,使变分自编码器初步具备生成人脸图片的功能。(2)对表情变化序列等间隔取三元组,获取表情连续变化的三元组。(3)利用深度度量学习方法,用三元组的三元损失自监督训练变分自编码器。(4)经过上述步骤,变分自编码具备细粒度的特点,能感知面部表情强度,因此对编码器生成的向量进行插值再解码,即可得到一个完整的表情变化序列。
-
公开(公告)号:CN113127716B
公开(公告)日:2023-07-28
申请号:CN202110474305.6
申请日:2021-04-29
Applicant: 南京大学
IPC: G06F16/951 , G06F16/9536 , G06F16/33 , G06F16/35 , G06Q50/00
Abstract: 本发明提供了一种基于显著性图的情感时间序列异常检测方法,包括:(1)获取社交平台中的话题文本数据,生成对应的原始情感时间序列曲线;(2)对原始情感时间序列进行分解,保留序列残差项;(3)对序列残差项两端的部分未知数据进行预测和补充,得到待测时间序列;(4)划分待测时间序列,利用谱残差方法生成时间子序列的显著性图;(5)根据显著性图确定异常判定结果。
-
公开(公告)号:CN112053376A
公开(公告)日:2020-12-08
申请号:CN202010928413.1
申请日:2020-09-07
Applicant: 南京大学
Abstract: 本发明提供了一种基于深度信息的工件焊缝识别方法,包括如下步骤:(1)从俯视视角,获取工件以及焊缝的深度信息,以二维矩阵形式表示;(2)数据预处理,去除深度信息中的噪声影响,对深度信息进行放缩,使得深度值都落在区间[0,255]内,转化为灰度图;(3)对深度信息的灰度图进行边缘检测,提取出其中的焊缝区域,确定焊缝的两条边缘;(4)在两条边缘中进行采样,获得一些离散点的深度信息和平面坐标信息;(5)通过分析采样点间的斜率变化,判断出焊缝的形状。本方法利用焊缝的深度信息而不是RGB信息检测焊缝,避免焊缝上的划痕以及阴影对识别的影响,并且能兼顾焊缝边缘的定位以及形状的识别。
-
公开(公告)号:CN112052906A
公开(公告)日:2020-12-08
申请号:CN202010958311.4
申请日:2020-09-14
Applicant: 南京大学
IPC: G06K9/62 , G06N3/04 , G06N3/08 , G06F40/30 , G06F40/289
Abstract: 本发明提供了一种基于指针网络的图像描述优化方法,包括:(1)利用卷积神经网络提取输入图片的视觉特征向量,并将视觉特征输入到由两层长短期记忆网络组成的描述语句生成模块。(2)利用注意力机制,挑选出每一时刻关注的图片区域,并对图像特征基于区域做加权融合。(3)结合挑选得到的区域特征和当前句子的生成状况,利用指针网络运算机制,从预先检测到的图片属性词语中选取最恰当的词语,填充到该时刻的单词生成位置,如果无法从备选属性词语中找到合适的词语,则模型将基于当前句子生成状况,自行判断该时刻生成哪一个单词。(4)重复上述步骤,依次生成句子中的每一个单词,最终得到更加贴近图片内容的描述语句。
-
-
-
-
-
-
-
-
-