基于通信下界的神经网络存内计算装置及加速方法

    公开(公告)号:CN113052299B

    公开(公告)日:2022-05-31

    申请号:CN202110283214.4

    申请日:2021-03-17

    Applicant: 浙江大学

    Abstract: 本发明涉及神经网络算法及计算机硬件设计领域,具体为提出一种基于通信下界的神经网络存内计算装置及加速方法。本发明公开了一种基于通信下界的神经网络存内计算装置,包括处理器、外部存储器和神经网络加速装置。本发明还同时公开了利用上述基于通信下界的神经网络存内计算装置进行的加速方法。本发明以片外‑片上通信下界分析为理论支撑,利用输出特征图复用和卷积窗口复用,平衡权重复用和输入特征图复用,提出存内计算架构下的神经网络加速装置以及对应的数据流方案,从而减少片外‑片上数据访问量。

    一种基于跨样本注意力聚合的小样本学习方法和装置

    公开(公告)号:CN114639000B

    公开(公告)日:2025-03-25

    申请号:CN202210331296.X

    申请日:2022-03-30

    Inventor: 曹广 刘鹏 周迪

    Abstract: 本发明公开了一种基于跨样本注意力聚合的小样本学习方法,包括将将支持集输入至卷积神经网络后压缩至矩阵形式得到多类别特征向量,将多类别特征向量输入至注意力聚合模块得到支持集的多个类别聚合向量;将查询集输入至卷积神经网络后压缩至矩阵形式得到查询特征向量,将查询特征向量输入至注意力聚合模块得到查询聚合向量;基于类别聚合向量、查询聚合向量和真实类别聚合向量通过距离感知概率激活方法得到查询图片的类别预测概率值;类别预测概率值构建交叉熵损失函数,通过交叉熵损失函数优化训练模型中的参数得到类别预测模型;该方法能够清晰区分物体和背景区域,并能够准确提取类别特征。

    一种基于跨样本注意力聚合的小样本学习方法和装置

    公开(公告)号:CN114639000A

    公开(公告)日:2022-06-17

    申请号:CN202210331296.X

    申请日:2022-03-30

    Inventor: 曹广 刘鹏 周迪

    Abstract: 本发明公开了一种基于跨样本注意力聚合的小样本学习方法,包括将将支持集输入至卷积神经网络后压缩至矩阵形式得到多类别特征向量,将多类别特征向量输入至注意力聚合模块得到支持集的多个类别聚合向量;将查询集输入至卷积神经网络后压缩至矩阵形式得到查询特征向量,将查询特征向量输入至注意力聚合模块得到查询聚合向量;基于类别聚合向量、查询聚合向量和真实类别聚合向量通过距离感知概率激活方法得到查询图片的类别预测概率值;类别预测概率值构建交叉熵损失函数,通过交叉熵损失函数优化训练模型中的参数得到类别预测模型;该方法能够清晰区分物体和背景区域,并能够准确提取类别特征。

    基于通信下界的神经网络存内计算装置及加速方法

    公开(公告)号:CN113052299A

    公开(公告)日:2021-06-29

    申请号:CN202110283214.4

    申请日:2021-03-17

    Applicant: 浙江大学

    Abstract: 本发明涉及神经网络算法及计算机硬件设计领域,具体为提出一种基于通信下界的神经网络存内计算装置及加速方法。本发明公开了一种基于通信下界的神经网络存内计算装置,包括处理器、外部存储器和神经网络加速装置。本发明还同时公开了利用上述基于通信下界的神经网络存内计算装置进行的加速方法。本发明以片外‑片上通信下界分析为理论支撑,利用输出特征图复用和卷积窗口复用,平衡权重复用和输入特征图复用,提出存内计算架构下的神经网络加速装置以及对应的数据流方案,从而减少片外‑片上数据访问量。

    一种基于质量节点模型的学习方法

    公开(公告)号:CN112132147A

    公开(公告)日:2020-12-25

    申请号:CN202010818346.8

    申请日:2020-08-14

    Abstract: 本发明公开了一种基于质量节点模型的学习方法,引入了基于质量节点的引力模型,以实现简约可解释了目标损失函数计算;以各类的引力大小作为分类预测结果,可准确的确定所属分类,提高分类识别准确率;并且利用小样本学习机制,利用数量较少的带标注样本进行训练,而不必对海量样本进行繁重的标注,不必应用海量新样本对卷积神经网络进行训练,大幅减少训练时间,并且在同样的训练工作量下具有更高的识别准确率。

Patent Agency Ranking