-
公开(公告)号:CN118915036A
公开(公告)日:2024-11-08
申请号:CN202411100713.5
申请日:2024-08-12
Applicant: 东南大学
IPC: G01S11/02 , G06F18/21 , G06N3/0464 , G06N3/0495 , H04W4/02
Abstract: 本发明提供了一种基于级联残差注意力网络的UWB测距误差补偿方法与设备,该方法包括级联残差网络和注意力机制,设备为能获取自身高精度位置坐标的UWB测距模块。方法是先利用UWB测距模块采集完整的CIR数据和全部信道特征后,通过特征选择筛选关键CIR数据和信道特征组成输入数据集。再搭建级联残差网络模型并加入注意力机制进行模型训练。最后通过压缩、量化与边缘端部署,将训练好的模型于支持边缘计算的计算模块上实现UWB测距误差预测。本发明可以有效进行UWB测距误差的消除,且能够部署在计算资源受限的嵌入式设备上,实现快速、有效与鲁棒的UWB测距误差补偿,适用于多种需要应用UWB进行无线测距的场景,有助于大幅度提升基于UWB的测距定位精度。
-
公开(公告)号:CN114692857B
公开(公告)日:2024-07-02
申请号:CN202210333197.5
申请日:2022-03-31
Applicant: 东南大学
Abstract: 本发明公开了一种基于事件驱动的脉冲神经网络集群计算框架,包括:以事件驱动神经元为基本组成单元的集群结构;集群之间的突触连接层,内部具有神经元连接权重的矩阵;维护候选脉冲时序的优先级队列;负责分发脉冲的网络调度器。其中神经元集群在更新时进行批处理来避免重复计算,根据预筛选条件避免不必要的峰值计算。该框架基于事件驱动方法仿真,仿真精度不受时间步大小的限制,能够充分利用脉冲事件的时空稀疏性降低计算量。在事件驱动的更新步骤中复用衰减系数和预筛选进行加速,有效地降低了单次更新的计算量,从而提高了整体的仿真速度。
-
公开(公告)号:CN116452705A
公开(公告)日:2023-07-18
申请号:CN202310438278.6
申请日:2023-04-23
Applicant: 东南大学
IPC: G06T11/60 , G06T3/00 , G06V20/70 , G06V40/10 , G06N3/0475 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种语义对齐的图像虚拟试衣方法,可以实现基于给定服饰的高质量虚拟试衣。所述的图像虚拟试衣方法为四阶段的模型:首先对人体图像和人体语义图进行预处理以去除手臂、服装信息;其次通过人体语义合成模块预测目标人体语义图;然后使用服装对齐模块对齐服装和人体;最后使用试衣合成模块得到最终的试衣图像。在服装对齐模块中,提出了区域限制策略限制服装变形的范围,减少服装过度扭曲的情况。在试衣合成模块中,使用了空间自适应归一化层替代普通的归一化层以固定人体语义图信息。所提出的虚拟试衣方法可以生成更加符合目人体布局的虚拟试衣图像,有助于提升真实场景下的虚拟试衣效果。
-
公开(公告)号:CN112085804B
公开(公告)日:2022-11-01
申请号:CN202010847309.X
申请日:2020-08-21
Applicant: 东南大学
Abstract: 本发明公开了一种基于神经网络的物体位姿识别方法,该方法包括步骤:用户预先根据物体放置在方桌或者圆桌上,在初始化界面上进行动态/静态识别模式的选择;摄像机拍摄图片并绘制出桌面坐标系;得到相对于空间坐标系的变换矩阵;然后运行YOLO6D神经网络,识别到桌面上放置的物品,并得到物品的边框,进而求出静态识别模式的角度或动态识别模式下与圆桌中心的距离,再实现识别结果的可视化,然后将物品坐标数据缓存,求出缓存的各个坐标的加权平均值,作为最终的识别结果,并将数据缓存;将缓存的数据写入文本文件中,保存结果,结束识别。该方法能够通过单张照片识别出桌面上的物品并估计物品的位置和朝向。
-
公开(公告)号:CN108734733B
公开(公告)日:2022-04-26
申请号:CN201810473571.5
申请日:2018-05-17
Applicant: 东南大学
Abstract: 本发明公开了一种基于麦克风阵列与双目摄像头的说话人定位与识别方法,主要依托麦克风阵列和占用资源较少的TDOA方法进行说话人粗定位,之后再结合精度更高但是视野狭小的双目摄像头进行准确定位,在实现了精准的360°全方位声源定位的基础上大幅减少了软件开销,使得系统能够获得更高的刷新率,或者在空闲时间内执行其他任务;同时,本发明还利用了动态调整的加权平均方法来权衡声音和图像的识别结果使得最终系统输出的识别结果更为准确可靠。
-
公开(公告)号:CN112463908A
公开(公告)日:2021-03-09
申请号:CN202011477934.6
申请日:2020-12-15
Applicant: 东南大学
Abstract: 本发明提供了一种基于电子界址点与无人机的地籍快速调查系统与方法,其中调查系统包括电子界址点、无人机和土地调查服务器。电子界址点提前写入居民的地籍信息,并安装于每户居民地籍图顶点上。无人机上安装有高精度卫星定位系统,用于无人机的精准定位;无人机上安装有射频识别阅读器,用于读取电子界址点中的地籍信息,同时对电子界址点进行距离测量与精准定位;无人机上安装的移动通信系统将数据传输至土地调查服务器。土地调查服务器将无人机获取的电子界址点数据,进行信息处理与存储。每户居民所有界址点的连线可确定完整的地籍图。本发明可用于全国土地资源调查,可有效简化地籍调查实施方案,准确无误地完成土地确权。
-
公开(公告)号:CN112085804A
公开(公告)日:2020-12-15
申请号:CN202010847309.X
申请日:2020-08-21
Applicant: 东南大学
Abstract: 本发明公开了一种基于神经网络的物体位姿识别方法,该方法包括步骤:用户预先根据物体放置在方桌或者圆桌上,在初始化界面上进行动态/静态识别模式的选择;摄像机拍摄图片并绘制出桌面坐标系;得到相对于空间坐标系的变换矩阵;然后运行YOLO6D神经网络,识别到桌面上放置的物品,并得到物品的边框,进而求出静态识别模式的角度或动态识别模式下与圆桌中心的距离,再实现识别结果的可视化,然后将物品坐标数据缓存,求出缓存的各个坐标的加权平均值,作为最终的识别结果,并将数据缓存;将缓存的数据写入文本文件中,保存结果,结束识别。该方法能够通过单张照片识别出桌面上的物品并估计物品的位置和朝向。
-
公开(公告)号:CN107657237B
公开(公告)日:2020-03-31
申请号:CN201710904968.0
申请日:2017-09-28
Applicant: 东南大学
Abstract: 一种基于深度学习的汽车碰撞检测方法及系统,主要由视频录制装置和部署在服务器端的图像检测系统构成。视频录制装置采集汽车周围图像后,由部署在服务器上的图像检测系统对图像中出现的汽车进行定位和类别分类,根据分类结果以及汽车边界框之间的最小距离,当所述汽车边界框之间的最小距离低于安全间距时发出警告或进行记录。由于本发明基于深度神经网络进行特征提取、定位和分类,图像检测的准确率和召回率都比传统的计算机视觉方法高很多,因此,本发明能够对驾驶员的驾驶行为,尤其对其驾驶车辆发生危险驾驶或碰撞的场景进行有效评估。本发明在车辆间距小于安全间距时记录相关图像,有较高的效率、准确度和实用性。
-
公开(公告)号:CN105825214B
公开(公告)日:2019-02-05
申请号:CN201610143955.1
申请日:2016-03-14
Applicant: 东南大学
Abstract: 本发明公开了一种基于tesseract引擎的文字识别方法及其对应的装置,利用云端服务器对本地文字库进行升级来修正tesseract引擎的识别结果,提高了tesseract引擎识别图像中文字的精度。本发明所述的文字识别装置包括服务器、tesseract引擎模块、云端服务器和本地文字库。升级本地文字库时,服务器采用云端服务器识别出的文字对tesseract引擎模块的识别结果进行修正,将tesseract引擎模块无法正确识别的文字补充进本地文字库。这样,进行文字识别时则可以通过查询本地文字库来提升识别精度。本发明利用升级后的本地文字库修正tesseract引擎模块的识别结果,可以达到与直接利用云端服务器进行文字识别相同的精度同时也可缩短文字识别运算的时间,适合将日常学习与工作中的图片识别成文字。
-
公开(公告)号:CN106603445A
公开(公告)日:2017-04-26
申请号:CN201611126468.0
申请日:2016-12-09
Applicant: 东南大学
IPC: H04L12/947 , H04L29/06 , H04L12/24
CPC classification number: H04L49/252 , H04L41/044 , H04L69/06
Abstract: 本发明公开了一种多级网络系统的数据交换方法,属于网络信息技术领域。本发明多级网络系统通过一个消息交换节点进行指令消息交互:各级系统首先通过web socket与消息交换节点进行长连接;然后指令原发送方将消息指令首先发送至消息交换节点;消息交换节点根据接收到的消息内容的信息标志码来分发相应的消息到指定接收端;各级系统收到相应的信息后,解析相应的指令,并按照相应指令上传或下载数据。本发明还公开了一种多级网络系统,使用上述方法进行数据交换。本发明可大幅提高多级网络系统之间的数据交换效率。
-
-
-
-
-
-
-
-
-