-
公开(公告)号:CN116503776A
公开(公告)日:2023-07-28
申请号:CN202310439788.5
申请日:2023-04-23
Applicant: 江南大学
IPC: G06V20/40 , G06V10/25 , G06V10/62 , G06V10/40 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/049 , G06N3/08
Abstract: 本发明公开了一种基于时间自适应的时空注意力视频行为识别方法,属于计算机视觉中行为识别技术领域。该方法通过时间自适应在时间维度对特征的重要程度进行区分,筛选出具有代表性的典型特征,从而引导分配较多的注意力在重要特征上来辅助精准识别。时空注意力基于能量函数从重要特征类和次要特征类分别获取时空信息,选择出具有代表性信息的特征,后续基于时空维度权值进行融合两类特征得到融合特征,最终根据融合特征获得视频行为识别结果。时空注意力不仅不会引入参数,而且可以直接推断出三维权重,因此可以提高视频行为识别网络的性能。整个模块具有即插即用的性质,可以方便地嵌入到主流的2DCNNs中,构成专用的视频行为识别网络。
-
公开(公告)号:CN113536016A
公开(公告)日:2021-10-22
申请号:CN202110760740.5
申请日:2021-07-02
Applicant: 江南大学
IPC: G06F16/583 , G06F16/58 , G06F16/33 , G06F16/35 , G06N3/04
Abstract: 本发明公开了一种融合图卷积的跨模态检索方法,属于跨模态检索技术领域。所述方法通过为不同模态构建各自的模态图,图中每个节点代表该模态某一样本的原始特征,并利用图卷积根据近邻关系更新图中的节点特征,同时结合全连接编码特征,得到不同模态高度语义一致的融合编码特征。之后通过公共表征学习层的模态不变损失获得表示一致的公共表征,通过两个子网顶部的线性分类器增强各模态公共表征的语义辨识度,进一步提升了跨模态检索性能;通过在Wikipedia数据集和Pascal Sentence数据集上的实验证明,本申请方法相对于现有技术中性能最优的DSCMR方法,平均mAP值分别提高了2.3%和2.4%。
-
公开(公告)号:CN109885718B
公开(公告)日:2021-05-28
申请号:CN201910151097.9
申请日:2019-02-28
Applicant: 江南大学
IPC: G06F16/583 , G06K9/32 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于深度车贴检测的嫌疑车辆检索方法,属于智能交通领域以及图像检索领域。所述方法包括:对卡口车辆图像进行车窗检测,获取卡口车辆图像中的车窗的车贴区域;对车贴区域进行车贴检测,所述车贴检测包括将待检测车贴信息与车贴数据库中的车贴信息做对比以得出车辆检索结果;其中车贴数据库中的车贴信息为预先存储并在检测过程中不断补充得到的。本发明通过选用嫌疑车辆前脸车窗上的车贴作为车辆的一个独有特征来对车辆进行检索,通过训练并使用深度网络模型能够精确有效的检索出数据库中的车辆,满足实际情况中的车辆检索需求。
-
公开(公告)号:CN112655973A
公开(公告)日:2021-04-16
申请号:CN202011565851.2
申请日:2020-12-25
Applicant: 江南大学
Abstract: 本发明公开了琼脂包埋肉味香精微胶囊在制备植物蛋白肉中的应用,属于食品加工技术领域。本发明所述的应用包括如下步骤:(1)称取植物蛋白肉丝、乳化浆置于容器内,添加食盐和酵母提取物,混合均匀形成匀浆;(2)在步骤(1)的匀浆中添加琼脂包埋肉味香精微胶囊,混合均匀,得到植物蛋白肉浆;其中,琼脂包埋肉味香精微胶囊的添加量为乳化浆质量的2~5%;(3)成型、贮藏得到植物蛋白肉。本发明制备得到的植物蛋白肉的香精损失率在10%以下,可以低至6.19%,减少肉味香精在植物蛋白肉产品加工、贮存和烹制过程中因受热、氧化等造成的损失。
-
公开(公告)号:CN106776856B
公开(公告)日:2020-07-03
申请号:CN201611069889.4
申请日:2016-11-29
Applicant: 江南大学
IPC: G06F16/783 , G06F16/732 , G06K9/00 , G06K9/46 , G06K9/62
Abstract: 本发明提供了一种融合颜色特征与词汇树的车辆图像检索方法,首先提取训练图像的车辆部分,然后对车辆部分提取局部特征,利用分层k‑means方法将特征量化为视觉单词词汇树,然后将测试图像提取车身部分局部特征,再将该特征分配到对应的视觉单词,并采用感知哈希的原理,将视觉单词分别映射为哈希码,得到图像的哈希码序列,然后提取车身图像的颜色特征,量化并统一为一个特征度,按照颜色差异由小到大排序,根据排序结果建立颜色特征权重,计算图像哈希码序列之间汉明距离,将颜色特征权重作为汉明距离的加权系数,计算图像的最终相似度,该方法有效节约车辆图像检索时间,提高车辆图像的检索准确率,可满足实际应用要求。
-
公开(公告)号:CN111275718A
公开(公告)日:2020-06-12
申请号:CN202010056068.7
申请日:2020-01-18
Applicant: 江南大学
Abstract: 本发明公开了一种基于显著区域分割的衣物量检测及护色洗判别方法,属于智能制造及人工智能技术领域。本发明以视觉显著性区域分割作为解决问题的主要途径,并在分割网络中加入了多尺度特征聚合模块,以及循环残差优化模块,提高了分割效果,进而提高了衣物量检测精度;具体是利用洗衣机内拍摄的图片,通过设计视觉显著性判别网络,利用洗衣机内筒与衣物的视觉差异,精确分割出桶内衣物,在此基础上设计衣物量检测及护色洗判别方案,完成精确判别。
-
公开(公告)号:CN110895707A
公开(公告)日:2020-03-20
申请号:CN201911196183.8
申请日:2019-11-28
Applicant: 江南大学
Abstract: 本发明公开了一种强遮挡条件下洗衣机内衣物类型的深度判别方法,属于智能制造及人工智能技术领域。本发明通过设计一个基于图像的目标检测网络完成洗衣机内衣物类型的检测,且针对洗衣机内衣物存在强遮挡的情况,提出一种基于双向多尺度融合的区域生成网络,通过多尺度特征的正向与方向融合,实现不同层特征间的信息交流,提高检测网络对目标尺度变化的适应性。
-
公开(公告)号:CN109885718A
公开(公告)日:2019-06-14
申请号:CN201910151097.9
申请日:2019-02-28
Applicant: 江南大学
IPC: G06F16/583 , G06K9/32 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于深度车贴检测的嫌疑车辆检索方法,属于智能交通领域以及图像检索领域。所述方法包括:对卡口车辆图像进行车窗检测,获取卡口车辆图像中的车窗的车贴区域;对车贴区域进行车贴检测,所述车贴检测包括将待检测车贴信息与车贴数据库中的车贴信息做对比以得出车辆检索结果;其中车贴数据库中的车贴信息为预先存储并在检测过程中不断补充得到的。本发明通过选用嫌疑车辆前脸车窗上的车贴作为车辆的一个独有特征来对车辆进行检索,通过训练并使用深度网络模型能够精确有效的检索出数据库中的车辆,满足实际情况中的车辆检索需求。
-
公开(公告)号:CN105354533A
公开(公告)日:2016-02-24
申请号:CN201510625981.3
申请日:2015-09-28
Applicant: 江南大学
CPC classification number: G06K9/00825 , G06K9/6223 , G06K9/6269 , G06K2209/15 , G06T2207/30248
Abstract: 本发明提供了一种基于词袋模型的卡口无牌车辆车型识别方法,该方法首先基于直方图完成车辆检测,基于梯度密度完成车脸定位,之后基于词袋模型进行车型分类,包括训练与测试两部分,并针对词袋模型忽略词汇之间关联而导致分类效果不佳的问题,对空间信息进行构造。在构造空间信息时,分为全局空间信息与局部空间信息两部分进行计算,其中全局空间信息的获取来自相同标记图像块间的空间角度关系,首先将图像相同标记的图像块按到原点的距离大小进行排序,并依次计算相邻两图像块与横轴之间的夹角,统计关于各个标记的全局角度直方图信息;局部信息则按照特定方法计算相同标记块出现的局部频率直方图。将二者直方图信息结合起来,完成词袋空间信息的构造。该方法准确率较高,且在定位精准上,对车脸定位要求较低,运行时间少,可满足一般应用要求。
-
公开(公告)号:CN104036229A
公开(公告)日:2014-09-10
申请号:CN201310090347.5
申请日:2013-03-10
Applicant: 江南大学
Abstract: 本发明公开了一种基于回归的主动外观模型初始化方法,属于计算机视觉领域。该方法的实现过程为:在利用主动外观模型进行人脸特征点自动跟踪时,假设已知视频跟踪中第一帧的目标位置信息,在后续跟踪过程中,利用双阈值特征对应算法获取相邻帧图像间的离散特征对应,利用通过核岭回归算法建立的离散特征点与结构化标定点之间空间映射关系,获取人脸特征的初始标定,可大幅降低后续迭代次数,同时提高标定精度。与传统主动外观模型的初始化方法相比,本发明的可辅助主动外观模型获取更为准确的人脸特征点标定结果。
-
-
-
-
-
-
-
-
-