-
公开(公告)号:CN106844985A
公开(公告)日:2017-06-13
申请号:CN201710066204.9
申请日:2017-02-06
Applicant: 中国科学院计算技术研究所
CPC classification number: G06F17/5009 , B25J9/1664
Abstract: 本发明提出一种高自由度机器人逆运动学的快速求解方法及系统,该方法包括步骤1,将关节变量θ带入机器人运动学方程中,获得雅克比矩阵J,将所述雅克比矩阵J进行转置,获得雅克比转置矩阵JT;步骤2,生成一组投机值,为每个投机值计算相应的关节变量更新值,将每个关节变量更新值带入机器人正运动学方程中,获得相应的位姿Pk,为每个位姿Pk计算其与目标位姿P的位姿偏差Δek,及位姿偏差Δek的模errork;步骤3,在模errork的集合中选取最小值errormin,及其对应的位姿偏差Δemin与关节变量更新值Δθmin,并更新位姿偏差为Δe=Δemin,更新关节变量θ=θ+Δθmin;步骤4,判断errormin是否满足errormin
-
公开(公告)号:CN106447034A
公开(公告)日:2017-02-22
申请号:CN201610977182.7
申请日:2016-10-27
Applicant: 中国科学院计算技术研究所
IPC: G06N3/06
CPC classification number: G06N3/06
Abstract: 本发明提出一种基于数据压缩的神经网络处理器、设计方法、芯片,该处理器包括至少一个存储单元,用于存储操作指令与参与计算的数据;至少一个存储单元控制器,用于对所述存储单元进行控制;至少一个计算单元,用于执行神经网络的计算操作;控制单元,与所述存储单元控制器与所述计算单元相连,用于经由所述存储单元控制器获得所述存储单元存储的指令,并且解析所述指令以控制所述计算单元;至少一个数据压缩单元,用于按照数据压缩存储格式对所述参与计算的数据进行压缩,其中每个所述数据压缩单元与所述计算单元相连。本发明降低了神经网络处理器中数据资源的占用,提高了运算速度,提升了能量效率。
-
公开(公告)号:CN118349514A
公开(公告)日:2024-07-16
申请号:CN202410458816.2
申请日:2024-04-17
Applicant: 中国科学院计算技术研究所
IPC: G06F15/173 , G06F9/50
Abstract: 一种面对多芯粒的数据传输系统,任务预处理模块用于分析待处理任务,根据待处理任务中代码和数据之间的耦合度以及数据依赖关系将待处理任务分解为多个子任务;并对每个子任务进行评估,得到多个子任务的描述向量并传输给任务处理模块;任务处理模块基于多个子任务之间的数据耦合度和数据依赖关系多对多个子任务进行拓扑排序,并计算多个子任务的每个子任务的描述向量与每个异构计算单元的特征向量之间的距离,以将所述子任务分配给相应的异构计算单元;数据传输控制模块用于通过路由网络将多个子任务传送给多个异构计算单元并管理数据在多个异构计算单元之间的交换和传输。
-
公开(公告)号:CN117973315A
公开(公告)日:2024-05-03
申请号:CN202410027476.8
申请日:2024-01-08
Applicant: 中国科学院计算技术研究所
IPC: G06F30/398 , G06F13/40 , G06F17/18 , G06F13/18
Abstract: 一种用于芯片间传输的多数据通道选择系统,包括:多个缓存队列,与多个数据输入通道、路由选择模块以及数据打包模块相连,用于缓存所述数据输入通道的输入数据,并基于路由选择模块的控制信号将数据发送给数据打包模块;多通道仲裁模块,与所述多个数据输入通道以及路由选择模块相连,基于通道仲裁策略进行仲裁,并将仲裁结果发送给路由选择模块;路由选择模块,根据所述仲裁结果进行路由选择,并向被选中通道对应的缓存队列发送读使能信号,同时将所述通道的序号发送给数据打包单元;以及数据打包单元,与所述缓存队列相连,根据所述仲裁结果从对应通道的缓存队列读出数据并根据数据位宽打包为固定位宽的数据包。
-
公开(公告)号:CN117852473A
公开(公告)日:2024-04-09
申请号:CN202311814985.7
申请日:2023-12-27
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种用于调整集成电路互联网络拓扑图的强化学习模型的训练方法,包括:步骤A1、获取训练集,其包括多个任务图,所述任务图包括多个节点和边,任务图的节点为处理核节点,边的权重为两个节点间需求的通信速率;步骤A2、步骤A2、根据训练集中的每个任务图初始化集成电路的拓扑图,训练预设的强化学习模型迭代调整拓扑图,根据预设的奖励函数计算的每个拓扑图的奖励更新强化学习模型的参数,其中,所述拓扑图包括多个节点和边,拓扑图的多个节点包括处理核节点和路由器节点。
-
公开(公告)号:CN117807935A
公开(公告)日:2024-04-02
申请号:CN202311808014.1
申请日:2023-12-26
Applicant: 中国科学院计算技术研究所
IPC: G06F30/337 , G06F111/06
Abstract: 本发明提出一种基于芯粒的芯片设计自动分解方法和系统,包括根据芯片的设计描述图,对设计描述图中块类型进行划分,得到初始的分解方案作为当前划分方案;对该当前划分方案中分组进行调整;遍历被调整分组的候选芯粒集合的笛卡尔积,选择使该芯片目标函数最小的芯粒划分方案作为扰动方案;根据扰动前后的目标函数,进行基于模拟退火的芯片设计分解,得到最优芯粒设计。本发明自动地根据性能、成本等模型,自动地去找最好的芯粒方案。
-
公开(公告)号:CN116451754A
公开(公告)日:2023-07-18
申请号:CN202310310363.4
申请日:2023-03-24
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063 , G06N3/0464 , G06N3/048 , G06F9/48
Abstract: 本发明提供了一种支持多层神经网络的层间并行处理的加速器,包括:计算阵列;用于获取一个或者多个数据块上存储的多层神经网络中,已可用于后续计算的层内和/或层间数据作为重组数据并重组成预设重组粒度的重组数据矩阵以及获取对重组数据矩阵处理所需的网络参数并重排成重组权重矩阵的第一重排器;用于在计算阵列处理重组矩阵时获取重组数据矩阵对应的预设重组粒度,指示计算阵列中各处理单元按照预设重组粒度获取重组数据矩阵中的数据和重排权重矩阵中对应的权重进行处理的扩展模块;用于在计算阵列对所述重组数据矩阵处理完成后,根据处理各数据得到的结果按结果原始形式进行结果重组以还原网络层的输出的第二重组器。
-
公开(公告)号:CN116225532A
公开(公告)日:2023-06-06
申请号:CN202310219286.1
申请日:2023-03-07
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种支持加速向量运算的通用处理器,该通用处理器包括CPU,该通用处理器还包括一个或者多个向量运算模块,每个向量运算模块被配置为:从CPU获取对待处理的向量运算的指示信息,所述指示信息包括数据位宽和向量维度;根据所述指示信息中的数据位宽和向量维度调整向量运算模块对待处理的向量运算中数据的读取和计算方式,以在支持可配置数据位宽和向量维度的情况下利用向量运算模块完成向量运算。
-
公开(公告)号:CN115906943A
公开(公告)日:2023-04-04
申请号:CN202211511675.3
申请日:2022-11-29
Applicant: 中国科学院计算技术研究所
IPC: G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本发明提供了一种用于神经网络加速器的存储介质的数据管理方法,所述存储介质包括主存,所述方法包括:获取待加速的基于神经网络的模型的结构信息和指令信息;根据所述结构信息和指令参数,在所述存储介质中划分出专用存储区域用以存储所述模型对应的指令和数据;其中,所述专用存储区域包括:指令区,用于存储加速器对模型进行加速运算所需的指令;数据堆叠区,用于存储相应层输出的将在间隔的其他层使用的中间结果数据,并在区内进行空间复用;数据暂存区,用于存储相应层输出的只在该层的下一层使用的中间结果数据,并在区内进行空间复用。
-
公开(公告)号:CN114841329A
公开(公告)日:2022-08-02
申请号:CN202210627742.1
申请日:2022-06-06
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种支持多序列运算的神经网络加速器及加速装置。本发明的神经网络加速器包括至少一个多序列处理装置,每个所述多序列处理装置包括运算功能模块和数据连接管理单元,所述运算功能模块包括:至少一个乘法运算模块、至少两个加法运算模块、至少一个寄存器模块、一个逻辑运算模块以及一个激活函数运算模块。本发明针对神经网络架构对非网络视觉算法任务算子的低效处理问题,提出了一种能够执行多种非神经网络算子以及支持多种向量序列操作的神经网络加速器架构。通过设计可线上配置数据操作序列的处理单元,并组合为相应的并行阵列,以实现多种视觉算法并行操作的兼容以及计算效率的提升。
-
-
-
-
-
-
-
-
-