-
公开(公告)号:CN111539997A
公开(公告)日:2020-08-14
申请号:CN202010326223.2
申请日:2020-04-23
Applicant: 中国科学院自动化研究所 , 中国科学院自动化研究所广州人工智能与先进计算研究院
Abstract: 本发明属于图像配准技术领域,具体涉及一种基于GPU计算平台的图像并行配准方法、系统、装置,旨在解决现有技术中海量图像下基于傅里叶变换的图像配准算法处理效率低的问题。本发明提供的基于GPU计算平台的图像并行配准方法,将图像配准并行化,对海量图像进行多GPU任务划分,根据图像分辨率大小划分子任务,将子任务分配给GPU的线程块,在核函数内基于傅里叶变换的配准算法并行完成数据计算,从而对图像配准进行加速,且傅里叶变换的配准算法每一个子步骤均是在GPU核函数内完成,使得每个GPU内最大化并行效率。本发明采用异步传输的方式实现数据传输、配准、传回和写入磁盘三个过程流水线并行,提高了海量图像并行配准的效率,做到实时处理。
-
公开(公告)号:CN111488219A
公开(公告)日:2020-08-04
申请号:CN202010266058.6
申请日:2020-04-07
Applicant: 中国科学院自动化研究所 , 中国科学院自动化研究所广州人工智能与先进计算研究院
IPC: G06F9/50
Abstract: 本发明属于高速数据采集、网络数据处理领域,具体涉及一种用于高速数据采集系统的以太网数据流记录方法、系统、装置,旨在解决现有高速数据采集CPU利用率低、系统兼容性差、封装和部署困难以及系统传输可靠性低的问题。本系统方法包括:Linux操作系统启动后,隔离出设定数量的CPU核心;卸载操作系统内核态网卡驱动,创建huge page内存池,对各万兆网卡,分配其对应的数据接收缓存池及无锁FIFO缓存,并对各万兆网卡PCIE寄存器初始化,使其进入采集状态;以用户态轮询的驱动方式对各万兆网卡采集的数据包进行连续接收及磁盘记录。本发明提高了CPU利用率、系统兼容性和传输可靠性,降低了封装和部署难度。
-
公开(公告)号:CN119336683A
公开(公告)日:2025-01-21
申请号:CN202411909319.6
申请日:2024-12-24
Applicant: 中国科学院自动化研究所
Abstract: 本申请实施例提供了一种基于PCIe P2P的数据处理方法、设备及介质,方法包括:根据FPGA板卡和GPU设备之间的对应关系,将数据通过FPGA板卡和其对应的GPU设备之间的PCIe总线传输至GPU设备;通过GPU设备对数据进行计算,得到对应的数据处理结果;通过GPU设备和网卡之间的PCIe总线,将数据处理结果传输至后端;确定与NVMe SSD进行通信的设备类型,并通过NVMe SSD与设备类型之间的PCIe总线,将数据或数据处理结果存储至NVMe SSD,以解决传统的PCIe数据传输方式通常需要数据在设备和主机内存之间来回移动,导致一定的延迟和系统负载的问题。
-
公开(公告)号:CN114090186A
公开(公告)日:2022-02-25
申请号:CN202111421929.8
申请日:2021-11-26
Applicant: 中国科学院自动化研究所 , 广东人工智能与先进计算研究院
Abstract: 本发明属于计算机技术领域,具体提出了一种基于Openstack平台管理PCIE设备的系统,包括管理节点、一个或多个计算节点;所述管理节点和所述计算节点通过通信链路连接;所述管理节点包括设备信息库、第一管理模块;所述设备信息库包括白明单设备列表以及对应的PCIE设备状态;所述计算节点包括一个或多个PCIE设备、第二管理模块;所述第一管理模块,配置为基于所述设备信息库中PCIE设备创建KVM虚拟机;在创建虚拟机之前,所述第二管理模块对所述第一管理模块所选配的PCIE设备进行虚拟化,并透传给kvm虚拟机。本发明可以实现异构计算平台中多种异构设备的统一调度。
-
公开(公告)号:CN119336683B
公开(公告)日:2025-03-14
申请号:CN202411909319.6
申请日:2024-12-24
Applicant: 中国科学院自动化研究所
Abstract: 本申请实施例提供了一种基于PCIe P2P的数据处理方法、设备及介质,方法包括:根据FPGA板卡和GPU设备之间的对应关系,将数据通过FPGA板卡和其对应的GPU设备之间的PCIe总线传输至GPU设备;通过GPU设备对数据进行计算,得到对应的数据处理结果;通过GPU设备和网卡之间的PCIe总线,将数据处理结果传输至后端;确定与NVMe SSD进行通信的设备类型,并通过NVMe SSD与设备类型之间的PCIe总线,将数据或数据处理结果存储至NVMe SSD,以解决传统的PCIe数据传输方式通常需要数据在设备和主机内存之间来回移动,导致一定的延迟和系统负载的问题。
-
公开(公告)号:CN119379787A
公开(公告)日:2025-01-28
申请号:CN202411353187.3
申请日:2024-09-26
Applicant: 中国科学院自动化研究所
IPC: G06T7/73 , G06F18/21 , G06F18/25 , G06N3/0464
Abstract: 本申请提供了一种视觉特征与文本特征融合的位置编码方法、系统及装置,根据本申请的方法包括:获取待处理数据中的图像和文本序列;对图像采用卷积神经网络获取图像的多尺度特征,对多尺度特征进行多尺度特征融合操作,获取压缩特征图;采用图像域位置编码对压缩特征图进行图像域位置编码获取图像特征嵌入;对文本序列进行文本嵌入映射获取文本特征嵌入;对图像特征嵌入和文本特征嵌入采用位置编码统一实现图像特征编码和文本特征编码,生成融合的位置编码向量,本申请提供的技术方案可以提升图像信息位置的准确性。
-
公开(公告)号:CN116996417B
公开(公告)日:2024-01-16
申请号:CN202311247018.7
申请日:2023-09-26
Applicant: 中国科学院自动化研究所
IPC: H04L43/0829 , H04L47/12 , H04L49/90
Abstract: 本发明属于通信技术领域,提供了一种多源端口数据存储方法及装置,该多源端口数据存储方法包括:获取多个设备网口的信号周期数据;对多个设备网口的信号周期数据分别进行标记,并分别缓存至各设备网口对应的缓冲池的目标缓冲行区域;在多个设备网口对应的缓冲池的目标缓冲行区域的下一个缓冲行区域接收到信号周期数据中的任一项数据包的情况下,确定信号周期数据缓存完成。本发明所述方法利用多个缓冲池对不同网口的输入数据进行有序缓存,能够改善接收端发生数据拥塞的情况,利用当前缓冲行区的缓存结果能够快速确定数据丢包信息,优化了面向多源端口的数据实时接收缓存和实时丢包检测流程,提高了多源端口数据存储效率。
-
公开(公告)号:CN116382465A
公开(公告)日:2023-07-04
申请号:CN202310131178.9
申请日:2023-02-17
Applicant: 中国科学院自动化研究所 , 中国科学院脑科学与智能技术卓越创新中心 , 广东人工智能与先进计算研究院
Abstract: 本发明提供一种光学脑机接口系统和方法,属于生物医学领域,采集单元基于预设接口从光学采集设备获取光学神经信号;预处理单元对光学神经信号进行预处理,得到第一神经图像数据;配准单元根据预设的第一配准算法和预设的第二配准算法对第一神经图像数据进行并行配准,得到配准后的第二神经图像数据;解码单元根据预设的感兴趣区域对第二神经图像数据进行解码,得到神经活动表征数据;反馈单元根据神经活动表征数据,得到反馈控制信号以进行闭环反馈。本发明通过接口从光学采集设备直接获取底层的光学神经信号,进行实时的预处理、配准、解码等步骤,通过神经活动表征数据得到反馈控制信号以进行闭环反馈。
-
公开(公告)号:CN109582276B
公开(公告)日:2020-11-10
申请号:CN201811288116.4
申请日:2018-10-31
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于无线电管理与检测技术领域,具体提供一种超宽带信号的实时中值频点提取方法,该提取方法包括:S1:生成频谱数据;S2:对生成的频谱数据进行平滑处理;S3:将频谱数据大小与位置信息进行整合;S4:在FPGA内对数据进行并行排序;S5:对中值频点进行提取。通过本发明的实时中值频点提取方法,可以实现基于超高带宽的实时的信号监测下的中值频点的提取,并且由于对数据进行了并行排序和比较,充分地利用了FPGA的空间,从而极大地降低了运算时间,提高中值频点的提取速度。
-
公开(公告)号:CN119210543A
公开(公告)日:2024-12-27
申请号:CN202411710766.9
申请日:2024-11-27
Applicant: 中国科学院自动化研究所
Abstract: 本申请提供了一种基于GPU分布式集群的波束合成系统及方法,根据本申请的系统包括:信号采集系统、交换网络、分布式波束合成系统以及天文信号处理后端;信号采集系统包括M个FPGA板卡,通过M个FPGA板卡采集天文数据并对天文数据进行预处理,所述天文数据为包括N路天线P个频点的数据;分布式波束合成系统通过G个GPU节点接收N路天线数据并进行GPU波束合成并行计算,合成B个波束,将B个波束作为波束合成结果发送到所述天文信号处理后端;天文信号处理后端通过L个服务器节点接收波束合成结果。本申请提供的技术方案可以减少系统造价的同时提高效率,保证实时性。
-
-
-
-
-
-
-
-
-