一种舞台场景点云扫描站点选取与路径规划方法

    公开(公告)号:CN114925937B

    公开(公告)日:2024-08-06

    申请号:CN202210744828.2

    申请日:2022-06-27

    Applicant: 东北大学

    Abstract: 本发明涉及一种舞台场景点云扫描站点选取与路径规划方法和标定装置。其中的方法包括:通过移动平台遍历待扫描场景,获取舞台的二维栅格地图,基于SDF有向距离场计算获取最优站点,并基于Dijkstra算法和蚁群算法获取最优路径,控制移动平台按最优路径移动到最优站点,启动升降梯和扫描仪本体进行扫描,判断扫描设备是否遍历所有最优站点,若否,重复步骤获取最优站点和最优路径。本发明通过完全自主选取站点和路径规划,大大缩短了人工成本和扫描时间,提高了扫描效率和重建效果。

    一种基于自适应双目结构光的深度感知方法和装置

    公开(公告)号:CN114022529B

    公开(公告)日:2024-04-16

    申请号:CN202111190342.0

    申请日:2021-10-12

    Applicant: 东北大学

    Abstract: 本发明涉及一种基于自适应双目结构光的深度感知方法及装置。其中的方法首先构建了一种适应于场景变化的自适应结构光编码方案,用于解决当同一个场景中存在不同深度分布的物体时,双目畸变图像出现过/欠曝以及散焦的问题。并基于该编码方案构建了自适应结构光生成模型,构建数据集对自适应结构光生成模型进行训练。而后构建一种适用于自适应结构光的双目立体匹配网络用于获取场景的深度值。通过将自适应结构光生成模型生成的散斑结构光图案投射到实际场景中去,利用双目相机进行拍摄,得到含有结构光图案信息的双目图像,并将其作为网络的输入,输出深度图。其中的装置包括存储器和处理器,该处理器在执行储存在存储器的指令时实施所述方法。

    基于BERT模型的新冠知识智能问答系统及方法

    公开(公告)号:CN115238053A

    公开(公告)日:2022-10-25

    申请号:CN202210847126.7

    申请日:2022-07-19

    Applicant: 东北大学

    Abstract: 本发明提供一种基于BERT模型的新冠知识智能问答系统及方法,所述系统包括数据采集模块、数据存储模块、自然语言处理模块、服务器模块、网页前端模块;通过BERT模型将非结构化数据提取为特征向量,然后通过Milvus对这些特征向量进行计算并建立向量索引,最后利用IVF_SQ8算法实现对非结构化数据的检索。本发明一方面用BERT模型提高了特征词向量转化的准确度,去除了繁杂的预处理工作,解决了传统NLP模型训练速度较慢、计算量大、人工操作复杂、词向量转换效果较差的问题,另一方面用高性能Milvus向量搜索引擎实现了高维向量的存储与检索工作,应用IVF_SQ8基于量化的索引算法提升了匹配精准度,并减小了内存,降低了人力、时间、资金等成本。

    基于多传感器点云的鲁棒配准方法及系统

    公开(公告)号:CN115170624A

    公开(公告)日:2022-10-11

    申请号:CN202210737936.7

    申请日:2022-06-27

    Applicant: 东北大学

    Abstract: 本发明涉及一种基于多传感器点云的鲁棒配准方法及系统,其中系统包括折反射全景相机、激光传感器、移动机器人底盘和可伸缩支架,可伸缩支架一端固定连接所述折反射全景相机和激光传感器,另一端固定连接移动机器人底盘;其中方法包括:通过所述移动机器人底盘实时获取平台的位置和姿态,并生成规划路径,根据所述规划控制机器人运动,使得所述折反射全景相机和所述激光传感器在扫描点进行点云采集,得到点云信息;通过非线性优化和深度学习的点云配准算法对所述点云信息进行点云配准,得到配准后的点云;对所述配准后的点云进行后处理,包括进行三维点云分割和点云三角面片化,得到经过所述后处理的点云。

    一种基于多位置传感器特征融合的行为识别系统及其方法

    公开(公告)号:CN114881150A

    公开(公告)日:2022-08-09

    申请号:CN202210511116.6

    申请日:2022-05-11

    Applicant: 东北大学

    Abstract: 本发明属于行为识别技术领域,提出了一种基于多位置传感器特征融合的行为识别系统及其方法。基于多位置传感器特征融合的行为识别系统包括数据模块和模型模块,数据模块将采集的原始数据进行存储以及预处理,获得动作图片,用于后续模型训练;模型模块包括特征提取子模块和分类子模块,得到最后的预测结果。本发明舍弃了全部数据之间的空间依赖性,而选择相关性更强的不同传感器相同轴向数据之间的空间依赖性,通过将数据按照(x,y,z)三轴方向抽取,数据融合后形成三组动作图片,再通过二级后融合模型进行特征融合,有效地提取到多维时序数据地时间与空间特征,从而达到准确识别人体行为的目的。

    图像处理系统及图像处理方法

    公开(公告)号:CN108717709B

    公开(公告)日:2022-01-28

    申请号:CN201810508041.X

    申请日:2018-05-24

    Applicant: 东北大学

    Abstract: 本发明公开了一种图像处理系统及图像处理方法,包括图像采集模块,用于采集含有标记物的图像;标记物检测和识别模块,对所述图像采集模块输出的图像进行处理,首先需要检测到标记物在图像中的位置,然后对标记物进行关键点检测,最后对标记物内部的编码图案进行解码,完成对标记物的身份ID识别;标记物数据存储模块、相机位姿估计模块、虚拟物体注册和图像显示模块。本发明所述的图像处理系统及图像处理方法,解决了标记物反光或部分遮挡因素影响时检测失败的情况,提高检测的鲁棒性,并采用一种非线性优化的方法对相机的位姿数据进行求解以增强虚拟物体注册的真实性效果。

    一种人脸图像处理方法
    47.
    发明授权

    公开(公告)号:CN108537126B

    公开(公告)日:2021-03-23

    申请号:CN201810205659.9

    申请日:2018-03-13

    Applicant: 东北大学

    Abstract: 本发明公开了一种人脸图像处理系统及方法,所述系统包括:模特图像存储模块,用于存储模特图像;人脸图像采集模块,用于采集人脸图像;图像传输模块,用于传输人脸图像到图像处理模块;图像处理模块,用于进行人脸图像合成;图像显示模块,用于显示包括采集的人脸图像、推荐的模特图像以及最终的合成图像。所述方法主要是检测输入图像和参考图像中的人脸区域并提取人脸特征点,以及按照相同规律分别对两张人脸图像进行三角剖分等步骤。通过本发明的系统及方法可使图像采集模块与图像处理模块实现分离,便于选择最佳的采集位置,同时使顾客能够实时看到采集到的人脸图像,选择合适的人脸表情,最佳的拍照位置。

    基于监控视频的多区域实时动作检测方法

    公开(公告)号:CN108764148B

    公开(公告)日:2020-03-10

    申请号:CN201810534453.0

    申请日:2018-05-30

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于监控视频的多区域实时动作检测方法,具有如下步骤:模型训练阶段和测试阶段,其中,模型训练阶段为获取训练数据:标注好的特定动作的数据库;计算训练数据中的视频序列的稠密光流,获取训练数据中的视频序列的光流序列,并对光流序列中的光流图像进行标注;利用训练数据中的视频序列和光流序列分别训练目标检测模型yolo v3,分别得到RGB yolo v3模型和光流yolo v3模型。本发明不仅能实现对监控视频中特定动作的时空位置检测,并且能实现对监控的实时处理。

    基于随机循环矩阵的彩色单像素成像方法及系统

    公开(公告)号:CN108833919A

    公开(公告)日:2018-11-16

    申请号:CN201810700735.3

    申请日:2018-06-29

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于随机循环矩阵的彩色单像素成像方法及系统,所述成像系统包括在Discovery 4100开发板上加装的DDR2 SDRAM,板载FPGA,空间调制器、信号采集与处理模块、信号恢复与重构模块和透镜及分光镜组成的光路。本发明利用测量矩阵控制空间调制器从而对光信号进行编码,采用“边采样,边压缩”的方式处理数据,并结合分光镜分解速率快实时性好的优点,形成了一套彩色单像素成像系统,解决了传统成像设备中海量数据给信号的传递与存储带来的难题,利用分块自适应步长梯度投影恢复算法将图像品质得以大幅提升,其分辨率可达256*256。

    基于监控视频的多区域实时动作检测方法

    公开(公告)号:CN108764148A

    公开(公告)日:2018-11-06

    申请号:CN201810534453.0

    申请日:2018-05-30

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于监控视频的多区域实时动作检测方法,具有如下步骤:模型训练阶段和测试阶段,其中,模型训练阶段为获取训练数据:标注好的特定动作的数据库;计算训练数据中的视频序列的稠密光流,获取训练数据中的视频序列的光流序列,并对光流序列中的光流图像进行标注;利用训练数据中的视频序列和光流序列分别训练目标检测模型yolo v3,分别得到RGB yolo v3模型和光流yolo v3模型。本发明不仅能实现对监控视频中特定动作的时空位置检测,并且能实现对监控的实时处理。

Patent Agency Ranking