一种集成行走步态、环境信息感知及反馈功能的智能终端

    公开(公告)号:CN113768495B

    公开(公告)日:2023-03-31

    申请号:CN202110900280.1

    申请日:2021-08-06

    Applicant: 同济大学

    Abstract: 本发明涉及一种集成行走步态、环境信息感知及反馈功能的智能终端,包括鞋主体,鞋主体上设有表面换能器、接触式拾音器和支撑电路元器件,表面换能器用于产生主动传感的振动信号和振动反馈,接触式拾音器用于检测表面换能器发出的特定频谱的振动信号在以人体为媒介传播后的回波信号,以及鞋主体与地面接触时的振动信号;支撑电路元器件分别连接表面换能器和接触式拾音器,用于根据回波信号中信号特定频率传递特性的变化,判断人体姿态的变化;根据鞋主体与地面接触时的振动信号判断行走路面的材质,从而根据人体姿态的变化和行走路面的材质控制表面换能器进行振动反馈。与现有技术相比,本发明具有感知参数更精细、结构更为紧凑和功能更强大等优点。

    一种地下空间移固协同检测方法及系统

    公开(公告)号:CN115833905A

    公开(公告)日:2023-03-21

    申请号:CN202211391156.8

    申请日:2022-11-08

    Applicant: 同济大学

    Inventor: 李刚 何斌 沈润杰

    Abstract: 本发明涉及地下空间检测技术领域,特别是涉及一种地下空间移固协同检测方法及系统,一种地下空间移固协同检测方法由地下空间传感器节点和地下空间无人机组成。地下空间传感器节点根据地下结构空间自适应最优布置策略进行固定监测。地下空间无人机基于机身安装的电子伸缩防撞杆计算第一虚拟力,通过虚拟力引导路径规划算法实现移动检测。地下空间无人机计算基于电子伸缩防撞杆的第一虚拟力、静态感知概率的第二虚拟力和结构演化知识的第三虚拟力,通过虚拟力引导路径规划算法实现固定节点引导无人机飞行检测模式。采用本发明,解决了检测系统中多智能体协同感知、数据融合和目标认知关联性不足问题,实现地下空间移固高效协同检测。

    一种用于虚拟场景的交互方法、系统及介质

    公开(公告)号:CN115756165A

    公开(公告)日:2023-03-07

    申请号:CN202211448640.X

    申请日:2022-11-18

    Applicant: 同济大学

    Abstract: 本发明涉及智能穿戴设备技术领域,提供一种用于虚拟场景的交互方法、系统及介质,包括以下步骤:步骤S1、获取并存储实时外部信息;步骤S2、将实时外部信息反映到元宇宙,构建元宇宙场景;步骤S3、将元宇宙场景中的虚拟信息反馈至使用者,根据反馈信息影响使用者的视觉、听觉和触觉,使得使用者根据视觉、听觉和触觉做出控制指令;步骤S4、接收控制指令,修改元宇宙场景,返回步骤S3,实现交互。与现有技术相比,本发明实现了使用者在元宇宙虚拟世界中进行视觉、听觉和触觉的双向交互,更加直观,体验感更好,方法更加简洁,可以真正融入虚拟世界。

    一种三维重构及路径规划方法、装置、设备及存储介质

    公开(公告)号:CN115741717A

    公开(公告)日:2023-03-07

    申请号:CN202211565181.3

    申请日:2022-12-07

    Applicant: 同济大学

    Abstract: 本申请实施例涉及机器人多模态感知技术领域,特别涉及一种三维重构及路径规划方法装置、设备及存储介质,该方法包括:基于电子皮肤,构建三维感知阵列;然后,获取三维的网格空间,并从网格空间中提取轮廓向量;对轮廓向量进行三维分解,得到轮廓数据并平滑处理;接下来,将轮廓数据合成为三维轮廓,提取时间序列数据;基于时间序列数据得到物体的三维空间信息;基于机器人的相对位姿,对三维空间信息进行修正并获取当前全局环境特征向量;最后,基于当前全局环境特征向量以及强化学习算法,获取路径规划信息。本申请实施例提供的三维重构及路径规划方法,能够提高响应速度,实现实时、精确地对物体进行三维重构以及未知复杂环境路径规划。

    一种基于BIM结构信息的VSLAM定位方法

    公开(公告)号:CN115727854A

    公开(公告)日:2023-03-03

    申请号:CN202211503493.1

    申请日:2022-11-28

    Applicant: 同济大学

    Abstract: 本发明公开了一种基于BIM结构信息的VSLAM定位方法,属于室内定位领域,包括移动智能体、BIM数据库、边缘计算设备、用户接口,移动智能体采集视觉传感器获取的RGB/RGBD图像,控制移动机器人位姿;BIM数据库存储从BIM模型中提取的建筑物三维结构和语义信息;边缘计算设备和移动智能体相连接,包括CAD重建网络和VSLAM算法两个主要线程,通过CAD重建网络求解9‑DoFCAD模型和VSLAM算法求解当前位姿、优化轻量化结构地图;用户接口接收用户命令,获取移动智能体位置,发送移动智能体控制信号并监控边缘计算设备运行情况,本发明利用BIM模型提供的结构化信息为机器人提供准确的定位源,同时避免传统的建图任务,具有轻量化、精度高等优势。

    一种建筑数字孪生平台的构建方法

    公开(公告)号:CN110717985B

    公开(公告)日:2023-02-21

    申请号:CN201910882580.4

    申请日:2019-09-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种建筑数字孪生平台的构建方法,包括:步骤S1:根据建筑的几何结构和尺寸形状,建立建筑的三维模型;步骤S2:获取状态传感器、定位传感器和环境传感器采集的数据并存入数据库中;步骤S3:根据传感器采集的数据,结合建筑的三维模型建立孪生三维平台;步骤S4:利用建立的孪生三维平台进行预测性服务应用以反馈建筑的优化设计。与现有技术相比,本发明设计孪生三维平台,将控制算法嵌入其中,实时动态地映射物理环境,同时可监控。

    面向建筑光储一体化集群的电力协同调度数据涌现方法

    公开(公告)号:CN115310358A

    公开(公告)日:2022-11-08

    申请号:CN202210973364.2

    申请日:2022-08-15

    Applicant: 同济大学

    Abstract: 本发明提供一种面向建筑光储一体化集群的电力协同调度数据涌现方法,对不同“源网荷储一体化”系统的逐时状态量进行模拟,通过导入建筑模型、结合天气文件获取各系统光伏逐时发电数据,通过蒙特卡洛随机采样方法生成具备多样性的人员用能时刻表,结合建筑模型、天气文件、空调系统设计、照明系统设计、人员用能时刻表获取各系统逐时用电数据,将发电量、用电量以及对应的充电量进行匹配,并联合各系统状态进而获取大量可靠的“源网荷储一体化”系统集群的逐时联合状态量,通过本发明的方法可获得足够规模的数据作为强化学习的训练样本,且成本低,适于在工程应用中进行普及。

    一种水电站引水管道内无人机自动巡检的定位导航方法

    公开(公告)号:CN115290093A

    公开(公告)日:2022-11-04

    申请号:CN202210975309.7

    申请日:2022-08-15

    Applicant: 同济大学

    Abstract: 本发明公开了一种水电站引水管道内无人机自动巡检的定位导航方法,包括:利用无人机搭载的激光雷达扫描引水管道内部,得到点云数据,并将点云数据拟合为圆柱体模型;确定圆柱体模型的中轴线;确定机体坐标系下无人机的当前位置坐标在中轴线的垂足点,根据垂足点计算无人机的目标点位置;根据前后两帧中轴线的距离变化,计算中轴线坐标系下无人机的实际速度,并将中轴线坐标系下无人机的实际速度转换至世界坐标系下;根据无人机的实际速度和期望速度,对无人机进行姿态调整。本发明能够适应不同弯曲程度的管道环境,对无人机进行准确定位和导航。

    一种基于多源信息融合的机器人抓取方法和装置

    公开(公告)号:CN115256377A

    公开(公告)日:2022-11-01

    申请号:CN202210816782.0

    申请日:2022-07-12

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多源信息融合的机器人抓取方法和装置,方法包括获取待抓取物体的RGB图像、光流图像和深度图像;分别对RGB图像、光流图像和深度图像进行特征提取,对应获得各个特征;将RGB特征、光流特征和深度特征输入多源信息融合模块,输出获得待抓取物体的融合特征;将融合特征输入物体姿态预测模块,通过物体姿态预测模块对对待抓取物体进行分类,并回归出待抓取物体的抓取位置信息;根据所预测待抓取物体的抓取位置信息,抓取待抓取物体;根据触觉传感器感知触觉信息,判断是否抓取成功。与现有技术相比,本发明充分考虑机器人抓取的复杂环境,有效地提高了机器人对运动物体的抓取能力,具有精度高、鲁棒性好等优点。

    一种面向人机技能传授的虚拟作业演示系统

    公开(公告)号:CN112365580B

    公开(公告)日:2022-10-28

    申请号:CN202011276712.8

    申请日:2020-11-16

    Applicant: 同济大学

    Abstract: 本发明公开了一种面向人与机器人技能传授的虚拟作业演示系统。该系统主要由虚拟场景建模、作业信息捕捉、知识挖掘分析三个部分组成。基于虚拟现实技术搭建家庭作业场景,实现演示者的全身运动捕捉和环境全域信息感知,并设计一种结合运动特征与操作物语义的行为分层多权重分割识别算法来获取任务行为高层次语义知识,生成任务行为状态机。本发明提出的虚拟作业演示系统具有效率高、成本低等优点,不仅能为服务机器人仿人行为学习提供丰富、完善、精确的作业演示数据,而且能挖掘作业顺序、作业目标等任务知识,对促进机器人任务知识库的构建和维护、提高机器人的适用性和灵活性具有重要意义。

Patent Agency Ranking