可穿戴超声膀胱容量测定与多模态影像形貌评估系统

    公开(公告)号:CN116211353A

    公开(公告)日:2023-06-06

    申请号:CN202310498607.6

    申请日:2023-05-06

    Inventor: 王明清 彭冉 王皓

    Abstract: 本发明涉及一种可穿戴超声膀胱容量测定与多模态影像形貌评估系统,该系统包括可穿戴部件、采集影像预处理单元、一致性评估单元和CBCT图像评估单元;采集影像预处理单元用于对超声、CT和CBCT采集影像进行预处理,得到膀胱容量值与膀胱三维形态;一致性评估单元用于基于模拟定位CT图像与超声图像的膀胱三维形态与容量值进行一致性评估,判断戴斯相似性系数、结构相似性SSIM和Hausdorff_95是否达到参数阈值;CBCT图像评估单元用于判断膀胱变形是否是由靶区变形导致的;如果是,则重新模拟定位和设计计划;如果否,则排除靶区变形之外的原因,进行相关治疗与处理后,判断是否重新定位和设计计划。

    一种多模态图像合成的深度学习神经网络模型系统

    公开(公告)号:CN113256500B

    公开(公告)日:2021-10-01

    申请号:CN202110746839.X

    申请日:2021-07-02

    Abstract: 本发明涉及一种多模态图像合成的深度学习神经网络模型系统,包括由残差深度神经网络(RDNN)与多分辨率优化策略相结合形成的多分辨率残差深度神经网络;RDNN包括A个卷积层,B个脱落层,C个批归一化(Batch Normalization)层和D个长期残差连接;其中,卷积层用于图像特征的提取;脱落层用于避免网络过拟合;批归一化层用于对对应卷积核的输入进行标准化;长期残差连接用于保留输入图像中的结构信息;每个脱落层的两侧均设置有卷积层,每个脱落层与两侧相邻的卷积层均连接;每个脱落层和批归一化层之间均设置有一个卷积层;脱落层、卷积层和批归一化层之间依次连接;每个长期残差连接的一端连接在卷积层与批归一化层之间;另一端连接在另一组卷积层与批归一化层之间。

    一种膀胱容量的测量方法及系统

    公开(公告)号:CN112957073B

    公开(公告)日:2023-01-10

    申请号:CN202110127230.4

    申请日:2021-01-29

    Abstract: 本发明提供了一种膀胱容量的测量方法及系统。该测量方法包括:收集过往影像数据和过往膀胱勾画数据,并将过往影像数据和过往膀胱勾画数据输入神经网络进行训练,以得到第一深度神经网络模型;通过对膀胱模拟定位得到模拟影像数据,并根据第一深度神经网络模型,得到膀胱的模拟三维形貌和模拟体积;将模拟三维形貌分割成多个三维的体素,并根据模拟体积得到每个体素的体积;采用超声诊断探头,获取膀胱的当前三维形貌;以及将膀胱的当前三维形貌与模拟三维形貌中的多个三维的体素进行配准,并根据每个体素的体积,计算得到当前膀胱的容量值。本发明通过体素级分割和逐个体素地配准,将测量误差控制在了体素级别,提升了膀胱容量的测量精度。

    呼吸检测方法、电子设备、存储介质及程序产品

    公开(公告)号:CN117375741A

    公开(公告)日:2024-01-09

    申请号:CN202210771443.5

    申请日:2022-06-30

    Abstract: 本申请提供了呼吸检测方法、电子设备、存储介质及程序产品。该方法包括第一设备接收至少一个第二设备的Wi‑Fi信号;所述第一设备根据所述至少一个第二设备的Wi‑Fi信号的信道状态信息的相位差或幅度确定N个信号集合,所述N个信号集合内的所述相位差或所述幅度分别属于N个不同的数值范围,其中N为大于或等于2的整数;所述第一设备根据所述N个信号集合确定环境变化信息,所述环境变化信息包括呼吸检测信息。可以基于该分层的信道状态信息进行呼吸检测,得到准确的呼吸检测信息。

    一种多路HTTP通道复用的方法及终端

    公开(公告)号:CN111131019B

    公开(公告)日:2021-06-22

    申请号:CN201911275947.2

    申请日:2019-12-12

    Abstract: 一种多路HTTP通道复用的方法及终端,涉及通信技术领域,可以实现终端与服务器之间多路HTTP通道复用,提升终端和服务器之间的数据传输效率,该方法应用于终端,包括:终端通过第一HTTP通道向第一服务器发送第一HTTP请求,用于请求第一数据;在接收第一服务器返回的第一HTTP响应,通过第一HTTP通道接收第一服务器发送的第一数据的第一部分;同时,若第一HTTP响应中携带的第一数据的大小大于第一阈值,则生成第二HTTP请求,并通过第二HTTP通道发送给第二服务器,用于请求第一数据的第二部分;在接收完第一数据的第一部分后,向第一服务器发送控制信令,用于断开所述第一HTTP通道。

    一种数据传输方法及电子设备

    公开(公告)号:CN111416794A

    公开(公告)日:2020-07-14

    申请号:CN201910016807.7

    申请日:2019-01-08

    Abstract: 本申请提供一种数据传输方法及电子设备,该方法包括:电子设备首先与应用服务器建立MPTCP连接,其中,MPTCP连接包括蜂窝网络对应的第一TCP连接和WIFI网络对应的第二TCP连接;然后电子设备接收来自应用服务器的指示信息;指示信息包括类型标识和用于指示带宽需求的参数,类型标识用于指示应用服务器发送的数据流的类型。当类型标识为指示数据传输时延要求低的第一标识时,电子设备在接收到指示信息之后的第一时段采用第二TCP连接接收数据流,当电子设备在第一时段实际接收的累计数据量小于参数与第一时段对应的时长的乘积时,电子设备在第二时段同时采用第一TCP连接和第二TCP连接接收数据流。

    一种无接触感知定位方法
    18.
    发明授权

    公开(公告)号:CN107396311B

    公开(公告)日:2020-04-10

    申请号:CN201710580410.1

    申请日:2017-07-17

    Applicant: 北京大学

    Inventor: 张大庆 王皓 牛凯

    Abstract: 本申请公开一种定位方法、定位系统和计算机可读存储介质。所述方法包括:第一接收设备R1和第二接收设备R2同时从发送设备T接收射频信号,所述射频信号包含两个或更多个载波;针对两个或更多个载波中的至少一对载波,构建第一接收设备R1的M层菲涅尔区;针对所述两个或更多个载波中的至少一对载波,构建第二接收设备R2的N层菲涅尔区;根据第一接收设备R1在一时间段内接收到的所述射频信号,确定目标位于的第一接收设备R1的菲涅尔区F1;根据第二接收设备R2在相应时间段内接收到的所述射频信号,确定目标位于的第二接收设备R2的菲涅尔区F2;确定菲涅尔区F1和F2的交点;根据菲涅尔区F1和F2的交点,确定目标的位置坐标。

    一种无接触感知定位方法
    19.
    发明公开

    公开(公告)号:CN107390172A

    公开(公告)日:2017-11-24

    申请号:CN201710581210.8

    申请日:2017-07-17

    Applicant: 北京大学

    Inventor: 张大庆 王皓 牛凯

    Abstract: 本申请公开一种确定环境中的菲涅尔相位偏移的方法、系统以及计算机可读存储介质。所述确定环境中的相位偏移的方法包括:接收设备R从发送设备T接收射频信号,所述射频信号包括两个或更多个载波;以发送设备T的位置、接收设备R的位置为椭圆焦点,构建所述两个或更多个载波的K层菲涅尔区;在所述环境中布置反射目标,使得反射目标在所述环境中移动;针对所述至少两个载波中的至少一个载波对组合,确定所述反射目标引起的不同载波之间的理论菲涅尔相位差;针对所述至少两个载波中的所述至少一个载波对组合,确定所述反射目标和环境引起的不同载波之间的实际菲涅尔相位差;将实际菲涅尔相位差与相应的理论菲涅尔相位差进行比较,确定在所述环境中的所述至少一个载波对组合的菲涅尔相位偏移。本申请还公开了一种基于确定环境中的相位偏移的方法,进行室内定位的方法。

    一种基于数字全息流式显微成像的尿路上皮癌细胞早期筛查方法

    公开(公告)号:CN116359175A

    公开(公告)日:2023-06-30

    申请号:CN202310197045.1

    申请日:2023-03-03

    Abstract: 本发明公开了一种基于数字全息流式显微成像的尿路上皮癌细胞早期筛查方法。该发明将数字全息显微成像与微流控芯片技术相结合实现对尿液中尿路上皮癌细胞的检测。利用注射泵驱动临床尿液样本在微流控芯片中进行流动,采用离轴数字全息显微成像系统进行流动细胞的全息干涉图像采集,进而对全息图像进行数值衍射再现并分割出单细胞聚焦、连续的定量相位图像组成数据集,对图像数据集提取形态特征、光学相位特征及纹理特征参数组成高维特征数据集,并利用机器学习算法支持向量机进行训练得到可用于尿液细胞分类人工智能模型,最后,利用所建立的分类模型对临床尿液样本中的癌细胞进行识别筛选。本发明为尿细胞学检查提供了一种低成本、快速、便捷的检测方法,适用于无需染色标记的临床尿液样本中尿路上皮癌的早期筛查。

Patent Agency Ranking