一种GPU处理器上的K-NN的高性能并行实现装置

    公开(公告)号:CN112380003B

    公开(公告)日:2021-09-17

    申请号:CN202011203928.1

    申请日:2020-11-02

    Applicant: 北京大学

    Abstract: 本发明提供了一种GPU处理器上的K‑NN的高性能并行实现装置,用于提高在GPU处理器上分类的并行加速实现。本发明装置包括:数据读入模块将应用场景中的训练数据和测试数据存成矩阵形式;样本距离计算模块计算每个测试样本与所有训练样本的距离;Top‑K选择模块利用预训练好的决策树模型判断执行粒度,包括线程级别优化、线程束级别优化、线程块级别优化、多线程块级别优化以及基于基数排序优化,选取前k个元素;标签选择模块为测试样本设置类别标签。本发明使用基于分治法的Top‑K并行框架,大大减少不必要的操作,能更充分的利用硬件资源,达到在GPU处理器上提高K‑NN并行效率、实现时间性能加速的目的。

    SVM模型的训练方法、装置、设备和计算机可读存储介质

    公开(公告)号:CN112686342A

    公开(公告)日:2021-04-20

    申请号:CN202110270550.5

    申请日:2021-03-12

    Applicant: 北京大学

    Abstract: 本公开的实施例提供了SVM模型的训练方法、装置、设备和计算机可读存储介质。所述方法包括获取数据集;加载所述数据集;通过自动调优框架在线预测所述数据集的最优存储格式并进行格式转换;执行SMO算法对SVM模型进行训练。以此方式,能够根据输入的数据集自动的选择最优的数据存储格式与算法;全局循环层次基于所述最优数据存储格式进行大量的更加高效的矩阵乘法运算计算kernel matrix;局部SMO求解器层次,使用GPU的寄存器通信技术与合并访存方法进行了更加细致的内存优化,充分利用硬件平台的计算资源。

    一种GPU处理器上的K-NN的高性能并行实现装置

    公开(公告)号:CN112380003A

    公开(公告)日:2021-02-19

    申请号:CN202011203928.1

    申请日:2020-11-02

    Applicant: 北京大学

    Abstract: 本发明提供了一种GPU处理器上的K‑NN的高性能并行实现装置,用于提高在GPU处理器上分类的并行加速实现。本发明装置包括:数据读入模块将应用场景中的训练数据和测试数据存成矩阵形式;样本距离计算模块计算每个测试样本与所有训练样本的距离;Top‑K选择模块利用预训练好的决策树模型判断执行粒度,包括线程级别优化、线程束级别优化、线程块级别优化、多线程块级别优化以及基于基数排序优化,选取前k个元素;标签选择模块为测试样本设置类别标签。本发明使用基于分治法的Top‑K并行框架,大大减少不必要的操作,能更充分的利用硬件资源,达到在GPU处理器上提高K‑NN并行效率、实现时间性能加速的目的。

    SVM模型的训练方法、装置、设备和计算机可读存储介质

    公开(公告)号:CN112686342B

    公开(公告)日:2021-06-18

    申请号:CN202110270550.5

    申请日:2021-03-12

    Applicant: 北京大学

    Abstract: 本公开的实施例提供了SVM模型的训练方法、装置、设备和计算机可读存储介质。所述方法包括获取数据集;加载所述数据集;通过自动调优框架在线预测所述数据集的最优存储格式并进行格式转换;执行SMO算法对SVM模型进行训练。以此方式,能够根据输入的数据集自动的选择最优的数据存储格式与算法;全局循环层次基于所述最优数据存储格式进行大量的更加高效的矩阵乘法运算计算kernel matrix;局部SMO求解器层次,使用GPU的寄存器通信技术与合并访存方法进行了更加细致的内存优化,充分利用硬件平台的计算资源。

Patent Agency Ranking