-
公开(公告)号:CN114648723B
公开(公告)日:2024-08-02
申请号:CN202210454687.0
申请日:2022-04-28
IPC: G06V20/40 , G06V20/52 , G06N3/0464 , G06N3/0895 , G06N3/084
Abstract: 本发明涉及智能视频监控及深度学习领域,尤其涉及一种基于时间一致性对比学习的动作规范性检测方法和装置,该方法为:首先将第一数量标注和第二数量未标注的通过摄像头采集的视频构建数据集,第一数量小于第二数量;然后将未标注视频经过强弱数据增强后提取特征,再输入时间一致性行为对齐网络,输出特征图和不同样本间相似动作起始与结束帧集合,映射集合在特征图上对应子特征图,构造同类与不同类子特征图样本,送入对比学习网络提取时空判别性特征;再将第一数量标注视频送入预训练后的网络进行迁移学习,输出行为类别;最后通过帧间行为类别变化判断行为规范性,若不规范则发出预警。
-
-
公开(公告)号:CN117058492A
公开(公告)日:2023-11-14
申请号:CN202311322535.6
申请日:2023-10-13
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06V20/70 , G06N3/09 , G06N5/04
Abstract: 一种基于学习解耦的两阶段训练病害识别方法和系统,其方法包括:步骤S1:采集待识别作物的图像样本,制作训练数据集;步骤S2:构造基于学习解耦的分类算法网络模型;步骤S3:对基于学习解耦的分类算法模型进行一阶段训练;步骤S4:固定部分权重,对基于学习解耦的分类算法模型进行二阶段训练;步骤S5:基于训练得到的基于学习解耦的分类算法模型进行推理,最终得到待分类目标叶片的病害种类和病害等级。本发明具有准确度高,标注成本极低,且可实现单模型对病害种类和病害等级进行细分类识别。
-
公开(公告)号:CN117011316A
公开(公告)日:2023-11-07
申请号:CN202311278665.4
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
Abstract: 一种基于CT图像的大豆茎秆内部结构辨识方法和系统,该方法包括:步骤一,将大豆盆栽放入植物CT采集设备,利用micro‑CT设备对大豆植株进行从上而下的扫描,得到采集的大豆茎秆CT图像数据;步骤二,对采集的CT图像数据集进行数据增强,引入扩散模型对数据进行超分辨处理,获取更丰富的组织细节信息;步骤三,对CT图像进行分割,得到大豆茎秆内部的组织结构的分割图;步骤四,根据分割结果进行体积重建,获得网格化数据,获得分割区域的体积、表面积等参数。本发明利用CT技术对大豆全生命周期的茎秆内部组织进行捕获,避免了传统破坏式捕获大豆植株内部信息,能有效提升大豆植株茎秆内部结构辨识的细粒度,实现精准精细的表型识别。
-
公开(公告)号:CN115953822B
公开(公告)日:2023-07-11
申请号:CN202310202394.8
申请日:2023-03-06
IPC: G06V40/16 , G06V40/10 , G06V20/00 , G06V10/82 , G06N3/0464 , G06N3/0442 , G06N3/08
Abstract: 本发明公开一种基于rPPG生理信号的人脸视频鉴伪方法和装置,该方法包括以下步骤:步骤一:采集人脸视频与手指PPG信号,构建PPG信号视频数据集;搜集真实人脸视频与伪造人脸视频,构建鉴伪数据集;步骤二:使用PPG信号视频数据集作为训练数据,训练得到rPPG信号提取网络;步骤三:使用鉴伪数据集,利用步骤二训练得到的rPPG信号提取网络提取rPPG信号,后输入二元决策网络并进行网络训练;步骤四:使用通过步骤二训练获得的rPPG信号提取网络和步骤三训练获得的二元决策网络,对待检测的视频进行真伪判断。本发明使用难以伪造的rPPG生理信号用于分辨人脸伪造合成视频,可以有效提升判断准确率。
-
公开(公告)号:CN116071635A
公开(公告)日:2023-05-05
申请号:CN202310202530.3
申请日:2023-03-06
IPC: G06V10/82 , G06V10/774 , G06N3/08
Abstract: 本发明公开了基于结构性知识传播的图像识别方法与装置,将标注的样本图片划分为训练集和测试集;选定第一神经网络模型,经训练集的训练,得到训练好的第一神经网络模型;选定第二神经网络模型,并从第一神经网络模型和第二神经网络模型中,选取中间层,作为进行知识传播的特征层;得到第二神经网络模型中中间层特征表达的结构性知识,与第一神经网络模型特征表达对应位置的结构性知识,构建中间层特征表达知识传播的损失函数,结合任务相关损失函数,使用训练集训练第二神经网络模型,得到训练好的第二神经网络模型;部署应用训练好的第二神经网络模型,对测试集的待识别图片进行图像识别。
-
公开(公告)号:CN114972947A
公开(公告)日:2022-08-30
申请号:CN202210882622.6
申请日:2022-07-26
Applicant: 之江实验室
IPC: G06V10/80 , G06V10/82 , G06V20/70 , G06V30/148 , G06V30/19 , G06V10/764 , G06V10/28
Abstract: 本发明公开了一种基于模糊语义建模的深度场景文本检测方法和装置,该方法包括:步骤一,获取现有的用于训练场景文本检测的多组具有真值标注的图像数据集;步骤二,对数据集中的图像进行特征学习与全局特征融合,得到融合的全局特征图;步骤三,对融合的全局特征图进行像素级别语义分类,同时通过数值回归预测像素级别的语义可靠性,在全监督下进行多分支的联合优化,完成端到端联合学习框架的构建;步骤四,使用端到端联合学习框架,预测图像中的模糊语义信息,并利用可靠性分析及融合获得文本属性图;步骤五,对文本属性图进行二值化和联通域提取,得到最终的文本检测结果。本发明实现方法简便,灵活鲁棒,适用范围广。
-
公开(公告)号:CN114757832A
公开(公告)日:2022-07-15
申请号:CN202210663897.0
申请日:2022-06-14
Applicant: 之江实验室
Abstract: 本发明公开一种基于交叉卷积注意力对抗学习的人脸超分辨方法和装置,该方法将原始低分辨率图像输入人脸超分辨生成网络,经过卷积层、若干个全局残差通道注意力单元、粗上采样模块、两批局部残差通道注意力单元、精上采样模块,得到目标分辨率图像,再通过索贝尔算子获得边缘信息,通过低倍率降采样处理并反馈到主网络中进一步提高超分辨效果,利用小波变换将目标分辨率图像、真值图像和其他通过数据增强方式得到的图像进行分解,每个图像分解成一个低频信息、两个中频信息和一个高频信息,然后去掉低频信息,融合中频和高频信息,将其送到对抗网络进行判别,最后引入数据增强方法,以产生多个正负样本进行对抗网络与人脸超分辨网络的迭代优化。
-
公开(公告)号:CN114067294B
公开(公告)日:2022-05-13
申请号:CN202210052681.0
申请日:2022-01-18
Applicant: 之江实验室
IPC: G06V20/58 , G06V20/62 , G06V10/40 , G06V10/74 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于文本特征融合的细粒度车辆识别系统及方法,系统包括:特征提取模块、分类层、文本表示网络、相似度计算模块、融合标签计算模块、散度损失计算模块;方法包括:步骤S1,构建细粒度车辆图像分类数据集;步骤S2,将训练图像进行特征提取;步骤S3,对图像特征向量进行分类;步骤S4,将数据集各子类标签输入预先训练好的文本表示网络;步骤S5,通过图像特征向量与图像标签的词向量;将得到的强化标签分布与原标签向量进行加权融合;步骤S6,将预测标签分布与加权融合的标签分布的相似度作为损失,指导整个系统的训练;步骤S7,推理阶段,将待测图像进行特征提取与分类层,根据预测的标签分布确定图像类别。
-
公开(公告)号:CN113837152B
公开(公告)日:2022-04-15
申请号:CN202111410772.9
申请日:2021-11-25
Applicant: 之江实验室
IPC: G06V30/413 , G06V30/14 , G06V30/19 , G06K9/62 , G06N3/08
Abstract: 本发明公开了一种表格图片文本智能检测方法及系统,系统包含文本自动检测模块、位置变换矩阵模块和位置加权模块。方法包括:S1,检测目标表格图片当中所有可能的文本;S2,自动生成相对位置关系的变换矩阵;S3,通过位置加权,计算最终检测结果。本发明针对表格图片文本,采用深度学习训练的方式,通过将通用自动文本检测方法与表格文本之间相对位置相结合,不仅依赖于文本目标自身的位置,还依赖于文本间的相对位置关系,最终以位置变换矩阵的形式表示,还通过对目标检测结果进行加权来确认每个目标的具体位置,从而提高表格图片文本检测精度。
-
-
-
-
-
-
-
-
-