一种面向移动设备的地图数据精简方法

    公开(公告)号:CN101400138B

    公开(公告)日:2010-06-16

    申请号:CN200810224951.1

    申请日:2008-10-28

    Applicant: 北京大学

    Abstract: 本发明公开了一种面向移动设备的地图数据精简方法,属于面向移动设备的地图服务领域。本发明的方法为:1)根据移动应用中地图显示的需要,确定面向移动设备的地图显示级别数;2)根据地图显示级别,设定对应级别地图上所要显示的图层及其实体;3)对每一级别地图上所显示实体的几何属性进行精简;4)对精简后的每一级别地图上所显示的地图数据进行分块,分块的大小固定为255坐标单位×255坐标单位,但不同级别地图数据块的分块坐标单位大小可以调整;5)将分块后的地图数据采用二进制数据流进行存储或传输。与现有技术相比,本发明在保证较好的地图展示效果的基础上,数据量小、绘制性能高。

    一种支持相似虚拟机快速启动的方法

    公开(公告)号:CN101697134A

    公开(公告)日:2010-04-21

    申请号:CN200910236641.6

    申请日:2009-10-27

    Applicant: 北京大学

    Abstract: 本发明公开了一种支持相似虚拟机快速启动的方法,属于计算机软件技术领域。本发明的方法为:1)为每个虚拟机都创建一具有公共主镜像的可写快照镜像;2)虚拟化平台将源虚拟机启动时对公共主镜像的磁盘读操作信息记录到一共享表中; 3)后续虚拟机启动时,虚拟化平台在执行对公共主镜像读操作请求之前,查询共享表;4)如果共享表中存在该读操作的磁盘块,则根据共享表在该读操作的目的内存页面与所找到的共享内存页面之间建立映射关系,然后向该虚拟机发送完成信息;如果不存在,则执行该读操作,同时将此读操作信息记录到共享表中。与现有技术相比,本发明能够有效地加快相似虚拟机的启动速度,同时也能增加启动的虚拟机的数量。

    一种文本上下文中实体地址信息的提取方法

    公开(公告)号:CN100535907C

    公开(公告)日:2009-09-02

    申请号:CN200710120548.X

    申请日:2007-08-21

    Applicant: 北京大学

    Abstract: 本发明提供了一种文本上下文中实体地址信息的提取方法,其通过搜集包含实体名称的网页集合,进行初始相关度计算并对初始相关度进行修正得到最终的相关度,最后根据相关度进行排名,将排名前几个的结果返回给用户;本发明可以有效地从网页包含的地址中找出与用户指定的实体空间相关的地址信息,辅助用户进行定位。

    一种虚拟机管理器的动态内存映射方法

    公开(公告)号:CN100527098C

    公开(公告)日:2009-08-12

    申请号:CN200710178118.3

    申请日:2007-11-27

    Applicant: 北京大学

    Abstract: 本发明公开了一种虚拟机管理器的动态内存映射方法,其步骤为:分别建立虚拟机和虚拟机管理器的页面池;虚拟机访问违例时虚拟机管理器动态建立并更新虚拟机物理内存集合P到虚拟机管理器页面池中的机器内存集合M的映射关系f(p);采用本发明的方法可以同时支持上层的按需取页、虚拟存储和内存共享功能,使得虚拟机管理器在充分保证虚拟机访问内存性能的前提下,实现虚拟机内存的动态管理和调配。

    一种虚拟机的外存在线迁移方法

    公开(公告)号:CN100489787C

    公开(公告)日:2009-05-20

    申请号:CN200710118597.X

    申请日:2007-07-10

    Applicant: 北京大学

    Abstract: 本发明涉及一种虚拟机的外存在线迁移方法,在推送(Push)阶段,首先将虚拟机的全部外存数据由源主机发送至目的主机;虚拟机管理器监控当前外存发送过程中虚拟机的外存访问,记录该发送过程中的外存块更新状态,标记被写脏外存脏块;将外存脏块循环由源主机发送至目的主机;直至达到设定的条件,停止外存数据的发送,进入停机阶段;然后根据外存更新状态记录信息确定剩余的外存脏块及其大小,将所有剩余的外存脏块由源主机发送至目的主机;或在拉拽(Pull)阶段,根据外存更新状态记录信息将剩余的外存脏块进行同步操作。保证迁移过程中仅有非常短暂的停机时间,使得在线迁移不依赖于共享外存设备的硬件环境,能够在分散式外存环境下得到应用。

    实现远程内存交换的方法、装置及系统

    公开(公告)号:CN101403992A

    公开(公告)日:2009-04-08

    申请号:CN200810029571.2

    申请日:2008-07-18

    Inventor: 罗英伟 全小飞

    Abstract: 本发明实施例公开了一种实现远程内存交换的方法、装置及系统,所述方法包括:从虚拟机的机器内存中释放机器页面,所述机器页面映射有物理页面;将映射了所述机器页面的物理页面的内容传送到远程交换空间,其中,所述远程交换空间建立在远程物理主机上。本发明实施例公开的实现远程内存交换的装置包括页面回收模块及远程发送模块。采用本发明实施例,将虚拟机的部分内存交换到远程物理主机的空闲内存上,提高在一组物理主机上聚合虚拟机的数量和执行效率,使得在充分保证虚拟机页面交换性能的前提下,实现对物理主机更高的利用率,降低总体拥有成本。

    一种虚拟机的外存在线迁移方法

    公开(公告)号:CN101101562A

    公开(公告)日:2008-01-09

    申请号:CN200710118597.X

    申请日:2007-07-10

    Applicant: 北京大学

    Abstract: 本发明涉及一种虚拟机的外存在线迁移方法,在推送(Push)阶段,首先将虚拟机的全部外存数据由源主机发送至目的主机;虚拟机管理器监控当前外存发送过程中虚拟机的外存访问,记录该发送过程中的外存块更新状态,标记被写脏外存脏块;将外存脏块循环由源主机发送至目的主机;直至达到设定的条件,停止外存数据的发送,进入停机阶段;然后根据外存更新状态记录信息确定剩余的外存脏块及其大小,将所有剩余的外存脏块由源主机发送至目的主机;或在拉拽(Pull)阶段,根据外存更新状态记录信息将剩余的外存脏块进行同步操作。保证迁移过程中仅有非常短暂的停机时间,使得在线迁移不依赖于共享外存设备的硬件环境,能够在分散式外存环境下得到应用。

    一种支持局部性表达函数的大数据处理方法和系统

    公开(公告)号:CN108241472A

    公开(公告)日:2018-07-03

    申请号:CN201711250255.3

    申请日:2017-12-01

    Applicant: 北京大学

    Abstract: 本发明涉及一种支持局部性表达函数的大数据处理方法和系统。该方法包括以下步骤:1)发掘大数据处理系统中所处理的数据的局部性,形成局部性表达函数;2)将局部性表达函数部署在大数据处理系统中;3)大数据处理系统按照局部性表达函数分配工作任务。所述大数据处理系统采用分布式存储方式或集中式存储方式;所述局部性表达函数在大数据处理系统中的部署方式分为两种类型:内置式冷启动模式、外置式热插拔模式。本发明通过发掘数据中隐藏的局部性,并且使用自定义的局部性函数表达出来,最终被大数据处理系统识别,按照局部性来分配机器执行任务,从而达到优化处理效率。

    一种提高操作系统大页使用率的方法

    公开(公告)号:CN103984599B

    公开(公告)日:2017-05-17

    申请号:CN201410146873.3

    申请日:2014-04-14

    Applicant: 北京大学

    Abstract: 本发明公开了一种提高操作系统大页使用率的方法。本方法为:1)系统在每一进程的虚拟地址空间数据结构中增加一变量a,记录为进程已经分配虚拟地址的堆顶位置;2)进程启动时,系统将a初始化为0;当该进程调用堆顶设置函数进行内存申请时,向系统传入一堆顶参数b;3)系统根据该进程上一次请求的堆顶位置和当前请求的堆顶位置b,计算堆顶位置向上大页对齐之后的值c;4)系统将a的当前值赋值给该进程的记录已分配内存最高堆地址变量,并将其与c进行比较:如果小于c,则根据二者差值增大该进程的堆栈空间;如果小于c,则进行内存释放,如果相等则不进行内存调用。本发明充分提升了大页的使用率,进而提升程序的性能。

    一种基于推迟提交的GPU虚拟化优化方法

    公开(公告)号:CN103955394A

    公开(公告)日:2014-07-30

    申请号:CN201410133294.5

    申请日:2014-04-03

    Applicant: 北京大学

    Abstract: 本发明公开了一种基于推迟提交的GPU虚拟化优化方法。本方法为:1)客户机上的GPU虚拟化框架前端读入一待执行CUDA应用程序的二进制文件,查找并标记可推迟提交的循环;2)前端执行到可推迟提交的循环部分时,直到该循环结束之前,缓存所有的CUDA函数调用信息及其依赖关系,跳过该函数调用的执行,然后在该循环结束之后将该缓存信息一次发送到宿主机上的GPU虚拟化框架后端;3)后端根据该缓存信息重新构建函数调用并执行,然后将所有任务执行结果打包一次发送回前端;可推迟提交的循环指不去执行循环中的CUDA函数调用,循环依然可以正确执行。本发明减少了前后端通信的次数,从而对GPU虚拟化的性能进行优化。

Patent Agency Ranking