-
公开(公告)号:CN115760670B
公开(公告)日:2023-05-23
申请号:CN202310023010.6
申请日:2023-01-06
IPC: G06T5/50 , G06T3/40 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N3/088
Abstract: 本发明公开了基于网络隐式先验的无监督高光谱融合方法及装置,获取低分辨率高光谱和高分辨率多光谱图像;采用噪声对图像进行扰动;将噪声扰动后的图像输入至编码器‑解码器体系结构,进行多级特征学习,生成高分辨率高光谱图像的模糊估计;对模糊估计分别进行空间和光谱下采样;基于低分辨率高光谱图像与空间下采样的结果,高分辨率多光谱图像与光谱下采样的结果,计算退化模型的损失函数,反向传播退化模型的优化参数给编码器‑解码器体系结构;重复执行上述过程,直至生成高分辨率高光谱图像的模糊估计达到循环终止条件。本发明利用两个并行的特殊卷积块分别模拟空间和光谱下采样,形成一个闭环,实现了无训练样本条件下的无监督学习。
-
公开(公告)号:CN115860122A
公开(公告)日:2023-03-28
申请号:CN202211566685.7
申请日:2022-12-07
IPC: G06N5/04 , G06N5/043 , G06N5/022 , G06F16/36 , G06F16/35 , G06N3/045 , G06N3/0442 , G06N3/042 , G06N3/047 , G06N3/048 , G06N3/092
Abstract: 本发明公开了一种基于多智能体强化学习的知识图谱多跳推理方法,针对知识图谱推理过程中存在的长路径推理性能差、只注重关系选择而忽略实体选择重要性和未能充分利用实体、关系多重语义的问题。该发明含有以下步骤,将知识图谱作为智能体感知的环境,并对知识图谱进行预处理;设计强化学习算法中用于训练智能体的网络结构;初始化所有智能体的状态信息和算法参数;将预处理的知识图谱作为智能体的环境,利用强化学习算法使智能体与环境交互进行迭代学习,得到训练完成的策略网络;使用训练完成的策略网络对待处理的知识图谱进行推理预测。本技术能够克服实体或关系的多重语义带来的语义歧义问题,从而提高智能体路径推理的准确性。
-
公开(公告)号:CN115033594A
公开(公告)日:2022-09-09
申请号:CN202210953656.X
申请日:2022-08-10
Applicant: 之江实验室
IPC: G06F16/242 , G06F16/2453 , G06F40/216 , G06F40/289
Abstract: 本发明提供了一种给出置信度的垂直领域检索方法和装置,方法包括在初次启动检索引擎时,生成用来将预存信息生成查询过程中所需要的第一词权重表、惩罚词权重表;对待查语句集进行处理,生成待查语句的满匹配得分表和倒排索引表;用户输入查询语句,求得该查询语句与待查语句集的匹配置信度并进行降序排列。本发明充分考虑未涵盖在特定语料库中的词汇,使用协调因子重构其词权重,并设计合理的计算公式给出令人信服的匹配置信度,从而支撑下游任务的顺利进行。
-
公开(公告)号:CN117351946B
公开(公告)日:2024-10-25
申请号:CN202311413996.4
申请日:2023-10-27
Applicant: 之江实验室
IPC: G10L15/06 , G10L15/183 , G10L15/26 , G10L19/04
Abstract: 本说明书公开了一种语音识别方法、装置、存储介质及电子设备。在本说明书提供的语音识别方法中,获取样本文本;将所述样本文本输入待训练的双向语言模型,所述双向语言模型至少包括前向预测子网、后向预测子网、融合子网;通过所述前向预测子网根据所述样本文本得到前向预测结果,并通过所述后向预测子网根据所述样本文本得到后向预测结果;通过所述融合子网对所述前向预测结果和所述后向预测结果进行融合,得到双向预测结果;根据所述双向预测结果和所述样本文本之间的差异,对所述双向语言模型进行训练;采用所述双向语言模型对语音识别模型进行知识迁移;采用知识迁移后的语音识别模型进行语音识别。
-
公开(公告)号:CN112486630B
公开(公告)日:2024-07-26
申请号:CN202011375644.0
申请日:2020-11-30
Applicant: 之江实验室 , 北京一流科技有限公司
Abstract: 本发明公开了一种分布式训练部署系统。所述系统包括:从容器创建组件,基于用户输入的分布式任务创建申请包含的资源清单创建从容器集,并确认所创建的从容器处于可备用状态;主容器创建组件,基于用户输入的资源清单创建主容器,并确认所创建的主容器处于可备用状态;容器IP获取组件,获取所创建的主容器和从容器的IP,并基于所获取的IP创建JS对象简谱文件,并将该JS对象简谱文件写入所有主容器和从容器的指定位置;以及免密认证组件,通过对属于同一分布式任务的主容器和从容器配置安全密钥和认证信息,建立主容器和从容器之间的网络通讯的SSH免密认证。
-
公开(公告)号:CN115880643B
公开(公告)日:2023-06-27
申请号:CN202310016375.6
申请日:2023-01-06
Applicant: 之江实验室
Abstract: 本申请涉及人工智能技术领域,尤其是涉及一种基于目标检测算法的社交距离监测方法和装置,该方法包括:步骤一,获取监控设备的拍摄参数,以及监控视频中的实时视频流,并对视频流进行抽帧操作,获取到图像样本;步骤二,采用目标检测算法对图像样本进行行人运动目标物检测,后对检测到的行人运动目标物进行基于中心点的标记;步骤三,采用图像类比算法计算行人间距;步骤四,设定行人间距阈值,对于小于行人间距阈值的行人间距,对其对应的行人标记做警示处理。本发明对于固定监控场景下进行监控图像处理,并对行人间距进行实时计算,并做出警示标识,大大简化了计算逻辑,提升计算效率,增强距离精度计算,使整个社交距离的监控更加稳定流畅。
-
公开(公告)号:CN115424110A
公开(公告)日:2022-12-02
申请号:CN202210991817.4
申请日:2022-08-17
Abstract: 本发明涉及图像处理领域,具体涉及一种掩码变形方法,其能在仅知晓目标域标签信息的前提下,实现域之间的实例形变,且能够使得实例和掩码信息保持一致,其首先获得源域掩码的整体特征,然后将源域的各实例掩码分别与整体特征进行融合,获得各实例掩码特征;然后,再将目标域标签信息的特征编码分别嵌入各实例掩码特征;最后,通过生成器输出目标域生成掩码,作为对应目标域的实例掩码。同时,提供了一种掩码变形方法的掩码形变网络的训练方法,其以目标域真实掩码和通过上述掩码形变网络生成的掩码构成正负样本对,进行生成对抗网络训练,提出了一种有效且高效的训练范式。
-
公开(公告)号:CN112884021B
公开(公告)日:2022-09-02
申请号:CN202110127717.2
申请日:2021-01-29
Abstract: 本发明公开了一种面向深度神经网络可解释性的可视分析系统,包括:深度学习模型结构和计算过程的解释性可视化模块,揭示深度学习模型内部的网络结构和数据流的逐步计算流程;训练过程数据流的解释性可视化模块,揭示整个训练过程中数据流的统计信息;神经网络特征提取功能的解释性可视化模块,将神经元权重或神经元输出以可视化方式展示给用户,以解释各层神经元的特征提取能力,通过对比可视化方式,发现模型在不同时间点、不同参数等情况下的表现差异;数据异常值的解释性可视化模块,帮助用户发现数据中的异常和训练中模型参数的异常,提示用户及时暂停和修改模型参数;用户定制功能可视化模块,支持多种可视化模块在同一个页面中进行展示。
-
公开(公告)号:CN113191385B
公开(公告)日:2022-06-03
申请号:CN202110318366.3
申请日:2021-03-25
Applicant: 之江实验室
IPC: G06V10/774 , G06V10/762 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于预训练标注数据不可知的图像分类自动标注方法,包括如下步骤:S1,获取待标注图像,收集预训练图像分类模型;S2,将预训练图像分类模型拆分成特征提取模型与标签预测模型,并初始化,固定标签预测模型参数,不参与后续迁移训练;S3,约束特征提取模型,使自动标注模型的输出具体类别确定,整体分布离散;S4,对特征提取模型输出特征进行聚类;S5,筛选出大小超过阈值的聚类簇,所对应的类别组成为待标注图像标签空间;S6,给所有待标注图像打上伪标签;S7,重新聚类并分配伪标签,对特征提取模型进行有监督训练;S8,迭代S3至S7;S9,使用迁移后的自动标注模型对待标注图像进行推理,得到标注结果。
-
公开(公告)号:CN112241455B
公开(公告)日:2021-05-04
申请号:CN202011498328.2
申请日:2020-12-17
Applicant: 之江实验室
Abstract: 本发明公开了一种基于多层级知识蒸馏的预训练语言模型自动压缩方法及平台,所述方法包括如下步骤:步骤一、构建多层级知识蒸馏,在自注意力单元、隐藏层状态、嵌入层三个不同层级上蒸馏大模型的知识结构;步骤二、训练元学习的知识蒸馏网络,生成多种预训练语言模型的通用压缩架构;步骤三、基于进化算法搜索最佳压缩结构。首先,研究基于元学习的知识蒸馏生成多种预训练语言模型的通用压缩架构;其次,在已训练好的元学习网络基础上,通过进化算法搜索最佳压缩结构,由此得到与任务无关的预训练语言模型的最优通用压缩架构。
-
-
-
-
-
-
-
-
-