一种基于激光雷达的三维场景重建方法、装置及电子设备

    公开(公告)号:CN114511682A

    公开(公告)日:2022-05-17

    申请号:CN202210407112.3

    申请日:2022-04-19

    Applicant: 清华大学

    Inventor: 陈小雪 周谷越

    Abstract: 本发明提供一种基于激光雷达的三维场景重建方法、装置及电子设备,涉及计算机视觉技术领域,基于联合检测结果学习物体的隐式表达函数,重建得到紧密的物体表面,实现对三维场景准确、完整的理解。该方法包括:获取目标区域的点云数据;基于注意力机制的神经网络对点云数据进行联合检测,获得联合检测结果;联合检测结果包括目标区域物体和目标区域布局;基于联合检测结果进行学习获得目标区域物体的隐式表达函数;基于隐式表达函数对目标区域物体进行三维场景重建。所述基于激光雷达的三维场景重建装置应用于基于激光雷达的三维场景重建方法。所述基于激光雷达的三维场景重建方法应用于电子设备中。

    舞蹈动作评分方法、装置、设备和存储介质

    公开(公告)号:CN114333046A

    公开(公告)日:2022-04-12

    申请号:CN202111358056.0

    申请日:2021-11-16

    Applicant: 清华大学

    Inventor: 史海天 周谷越

    Abstract: 本发明提供一种舞蹈动作评分方法、装置、设备和存储介质,包括:将当前学员的舞蹈动作的人体姿态识别数据输入到人体识别模型,得到人体关节的第一三维坐标;根据所述第一三维坐标获取同一帧图像中人体的相连接的两个骨骼之间的第一夹角;获取所述第一夹角在相邻两帧图像之间的第一角度变化量;将所述第一角度变化量与标准动作的标准角度变化量进行比较,得到角度变化量差值,其中,所述第一角度变化量与对应的所述标准角度变化量所在舞蹈动作的动作序列片段相匹配;根据所述角度变化量差值和当前舞蹈类型对应的评分规则获取所述当前学员的人体不同部位的差异化分数。本发明的技术方案可以较为准确地进行舞蹈动作评分。

    3D打印的后处理自动化设备及系统

    公开(公告)号:CN113910611A

    公开(公告)日:2022-01-11

    申请号:CN202111095427.0

    申请日:2021-09-17

    Applicant: 清华大学

    Abstract: 本发明提供一种3D打印的后处理自动化设备及系统,其中3D打印的后处理自动化设备包括支撑架,用于放置打印工件,支撑架能够带动打印工件转动;第一驱动机构,能够驱使支撑架转动、以使打印工件表面的残留物与打印工件分离;防护罩,能够与支撑架相对位移,防护罩和支撑架能够在第一相对位置和第二相对位置之间切换,在第一相对位置,支撑架能够使打印工件位于防护罩的围设空间内、以收集从所述打印工件上分离出的残留物,在第二相对位置,支撑架能够使打印工件位于防护罩的围设空间外;第二驱动机构,用于驱使防护罩和支撑架相对位移。解决了现有技术中的后处理装置因在离心分离时存在的液滴飞溅导致的不易维护的问题。

    基于车路协同的数据处理方法、系统、存储介质

    公开(公告)号:CN113887522A

    公开(公告)日:2022-01-04

    申请号:CN202111288682.7

    申请日:2021-11-02

    Applicant: 清华大学

    Inventor: 袁基睿 周谷越

    Abstract: 本公开涉及基于车路协同的数据处理方法、系统、存储介质,包括在设备获取的图像中进行目标物体识别,所述设备包括:车端设备和/或路侧设备;确定所述设备距所述目标物体的距离;利用第一映射关系,确定所述车路协同感知系统检测出所述目标物体的第一检出概率;所述第一映射关系为物体距所述设备的距离与所述设备对所述物体的检出概率之间的映射关系,所述第一检出概率,用于表征所述车路协同感知系统的感知物体的性能。根据本公开实施例的基于车路协同的数据处理方法能够定量地评判车路协同感知系统对于目标物体的检出效果,避免依赖人为主观经验产生的误差,提高评判结果准确率和稳定性。

    一种身体状态检测方法、装置、电子设备及智能服装

    公开(公告)号:CN114081479B

    公开(公告)日:2024-10-01

    申请号:CN202111490177.0

    申请日:2021-12-08

    Applicant: 清华大学

    Abstract: 本公开涉及一种身体状态检测方法、装置、电子设备及智能服装,其中,该方法包括:获取用户的身体数据;其中,身体数据来自弹性传感器和/或柔性传感器;通过对身体数据进行处理,确定用户当前的身体状态信息,身体状态信息包括身体姿态信息和肌肉激活状态信息。本公开中,通过弹性传感器和/或柔性传感器可以保证不同场景下所获取的身体数据的准确性,同时降低了成本;此外,所确定的用户当前的身体状态信息能够帮助用户更好地从生理及情绪等层面了解自身的身体状态,从而满足用户对自己日常活动及运动时的身体状态的了解需求。

    夜间场景单目图像深度估计方法及装置

    公开(公告)号:CN117058438A

    公开(公告)日:2023-11-14

    申请号:CN202310806936.2

    申请日:2023-07-03

    Applicant: 清华大学

    Abstract: 本发明提供一种夜间场景单目图像深度估计方法及装置,其中方法包括:获取待处理夜间单目图像;将所述待处理夜间单目图像输入至深度估计模型,获得所述深度估计模型输出的深度估计结果;其中,所述深度估计模型是基于生成对抗网络构建的、并基于包括日间图像样本和夜间图像样本的图像集进行训练后得到的。本发明实施例提供的夜间场景单目图像深度估计方法及装置,基于生成对抗网络构建深度估计模型,利用生成对抗网络对日间图像样本和夜间图像样本的学习能力,使得深度估计模型能够对待处理夜间单目图像的预测结果与光照条件良好时刻下的深度估计结果相似或相同,提高夜间场景单目图像深度估计的准确率。

    数据驱动的仿生机器人的自然触觉交互方法及组件

    公开(公告)号:CN116185188A

    公开(公告)日:2023-05-30

    申请号:CN202310078995.2

    申请日:2023-01-17

    Applicant: 清华大学

    Inventor: 龚江涛 周谷越

    Abstract: 本发明提供一种数据驱动的仿生机器人的自然触觉交互方法及组件,该方法包括:采集用户与仿生机器人对应的真实生物的触觉交互过程数据并统计汇总得到训练数据序列;建立数据驱动的交互预测模型并利用训练数据序列对数据驱动的交互预测模型进行训练;确定用户作用于仿生机器人的触觉输入系统生成的触觉输入信号;利用训练好的数据驱动的交互预测模型根据触觉输入信号对仿生机器人的自然触觉交互进行控制。通过本发明的方法,能够通过触觉输入系统识别用户的触摸动作,并通过数据驱动的交互预测模型计算仿生机器人应该给与用户的自然反馈,通过控制仿生机器人的动作实现自然触觉交互反馈的闭环。

    基于图像采集设备的城市空域地图的构建方法和装置

    公开(公告)号:CN118533161A

    公开(公告)日:2024-08-23

    申请号:CN202410427360.3

    申请日:2024-04-10

    Applicant: 清华大学

    Abstract: 本发明提供一种基于图像采集设备的城市空域地图的构建方法和装置,包括:通过图像采集设备采集待构建城市空域的图像和所述图像对应的位姿,得到图像集,根据所述图像集得到神经辐射场,使用预设优化策略对所述神经辐射场进行捆集调整,得到所述图像的初步位姿;将所述图像集和所述初步位姿输入至预先构建的共视区域检索模块,进行图像相似性搜索,得到图像对,根据所述图像对计算对应所述神经辐射场的相对变换,得到所述图像对的粗略相对位姿;根据所述图像对及其对应的两个所述神经辐射场微调所述粗略相对位姿,得到准确相对位姿;根据所述准确相对位姿将所有所述神经辐射场融合,得到目标地图。本发明得到的位姿估计、配准和融合结果准确度高。

    交通交互性能的评估方法、装置、设备、介质和产品

    公开(公告)号:CN114973656B

    公开(公告)日:2024-08-09

    申请号:CN202210507919.4

    申请日:2022-05-10

    Abstract: 本公开提供了一种交通交互性能的评估方法、装置、设备、介质和产品,涉及人工智能技术领域,具体为智能交通和自动驾驶技术领域。具体实现方案包括:根据与目标测试场景对应的初始交通状态,基于针对目标测试场景中的交通参与对象的交互参考信息,确定与N个时刻对应的测试交通状态,N为大于1的整数;根据初始交通状态和测试交通状态,确定与N个时刻对应的基于预设性能指标的指标量化评估值;以及根据与N个时刻对应的指标量化评估值,确定针对目标测试场景的性能评估值,交通状态包括目标测试场景中的交通参与对象的交通状态值和状态值分布概率。

Patent Agency Ranking