一种医药检测的高光谱双模成像系统及方法

    公开(公告)号:CN114004960B

    公开(公告)日:2024-06-18

    申请号:CN202111360605.8

    申请日:2021-11-17

    Applicant: 湖南大学

    Abstract: 本发明公开了一种医药检测的高光谱双模成像系统及方法,包括第一光源、第二光源、高光谱相机、样品台、滑行组件、平面反射镜、匀光面板和控制装置,第一光源、匀光面板和高光谱相机从左至右依次设置,且三者的中心点在一条直线上,第一光源、匀光面板均位于样品台的左侧,高光谱相机位于样品台的右侧,第一光源、匀光面板和高光谱相机组成透射成像装置,平面反射镜和第二光源均按预设角度设置于样品台的上方,第二光源、平面反射镜和高光谱相机组成反射成像装置,高光谱相机可滑行地安装于滑行组件上,高光谱相机与控制装置连接,高光谱相机上设置有压缩感知模块,压缩感知模块采用预设的正则化正交匹配追踪重构算法。其结构简单且检测精准。

    一种基于迭代注意力融合网络的6D位姿估计方法

    公开(公告)号:CN117593368A

    公开(公告)日:2024-02-23

    申请号:CN202311541108.7

    申请日:2023-11-17

    Applicant: 湖南大学

    Abstract: 针对现阶段6D位姿估计方法在一些在场景杂乱等情况下性能表现不佳的问题,本发明目的在于提供一种基于迭代注意力机制的6D位姿估计方法,该方法搭建迭代注意力融合网络,包括语义分割网络、卷积神经网络、点云网络、迭代注意力模块、位姿预测模块和位姿迭代优化模块;以RGB图像和深度图像作为网络的输入,并通过卷积神经网络、点云网络从图像中提取出来语义特征、外观特征和几何特征,将这些特征进行密集融合,然后经过迭代注意力模块处理后输入到位姿预测模块中输出预测6D位姿,预测6D位姿信息进一步输入到位姿迭代优化模块,得到最终的6D位姿。有效提高了场景杂乱情况下目标物体的识别效率和准确性。

    一种语义感知的跨模态行人重识别方法

    公开(公告)号:CN117542084A

    公开(公告)日:2024-02-09

    申请号:CN202311659687.5

    申请日:2023-12-06

    Applicant: 湖南大学

    Abstract: 本申请涉及一种语义感知的跨模态行人重识别方法,该方法包括:获取若干身份的行人图像及其对应的身份标签;对可见光图像进行数据增强得到辅助图像;构建跨模态语义感知网络模型,基于可见光图像、红外图像以及辅助图像训练跨模态语义感知网络模型;将测试可见光图像、测试红外图像分别输入至训练好的跨模态语义感知网络模型,得到可见光模态的行人特征和红外模态的行人特征;将其中一个模态的行人特征作为查询集,另一模态的行人特征作为图库集,计算查询集中各行人特征分别与图库集中各行人特征之间的相似度并排序,基于排序结果得到跨模态行人重识别结果。该方法可以强调与身份相关的语义特征并增强模态不变的细粒度表示。

    基于图稀疏性维护的机器人长周期SLAM方法和系统

    公开(公告)号:CN117518195A

    公开(公告)日:2024-02-06

    申请号:CN202311601611.7

    申请日:2023-11-28

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于图稀疏性维护的机器人长周期SLAM方法和系统,包括如下步骤:S1、进行SLAM建图,根据机器人移动时不断测量得到的环境信息生成子地图,所有子地图拼接起来构成初始的元地图;S2、将元地图当中包含的所有子地图栅格化,基于子地图栅格被占用的概率,生成元地图中每一个子地图具有的栅格值质心;S3、检测每次更新的子地图的质心位置,并获得更新子地图与元地图所包含的所有子地图之间的质心距离,对质心距离小于阈值的更新子地图进行合并或删除;S4、在机器人移动测量过程中重复步骤S3至导航任务结束。本发明解决了SLAM在建立地图和定位的过程中图片数据更新冗余的问题,降低了硬件内存占用率,具有良好的鲁棒性。

    一种融合RGB-D视觉特征的目标位姿估计方法

    公开(公告)号:CN112270249B

    公开(公告)日:2024-01-23

    申请号:CN202011152483.9

    申请日:2020-10-26

    Applicant: 湖南大学

    Abstract: 本发明提供了一种融合RGB‑D视觉特征的目标位姿估计方法。所述融合RGB‑D视觉特征的目标位姿估计方法包括如下步骤:获取包含目标物体的RGB图像和深度图像;将RGB图像输入至主干网络进行RGB特征提取和实例分割,获得多通道卷积特征图像和目标物体分割掩码;利用目标分割掩码裁剪多通道卷积特征图像和深度图像,得到每个目标物体的图像卷积特征块和深度图像块;对目标物体任意尺寸的图像卷积特征块进行空间金字塔池化,得到规范大小的目标RGB特征向量;从深度图像块获取目标物体点云,并提取点云特征,获得点云特征向量;融合目标的RGB特征和点云特征,进行目标位置估计和姿态估计,输出每个对应目标的类别和位姿P。本发明目标位姿估计精度高、过程简便。

    一种智能网联V2X场景验证系统和方法

    公开(公告)号:CN117255325B

    公开(公告)日:2024-01-16

    申请号:CN202311521994.7

    申请日:2023-11-15

    Applicant: 湖南大学

    Abstract: 车载计算单元的压力,又合理借用外部算力完成本发明公开了一种智能网联V2X场景验证系 验证,对现有的智能网联设备和环境进行充分合统和方法,车载V2X场景协调及分析系统接收场 理的使用,产生了经济价值。景原始信息并进行整合、分析和协调,根据整合后的数据对车载V2X场景进行判断,得到预警信息,将场景原始信息发送至PC端分析验证系统,将预警信息发送至移动端显示系统;PC端分析验证系统接收场景原始信息进行存储、分析和验证,实现场景原始信息的验证功能;移动端显示系统接收预警信息,接收OBU设备传输的实时V2X

    基于自适应特征融合网络的三维医学图像分割方法及系统

    公开(公告)号:CN117058160B

    公开(公告)日:2024-01-16

    申请号:CN202311313587.7

    申请日:2023-10-11

    Applicant: 湖南大学

    Abstract: 本发明公开了基于自适应特征融合网络的三维医学图像分割方法及系统,首先构建自适应特征融合网络,包括编码器、解码器和长跳跃链接,长跳跃链接上设置了DAM模块,将三维医学图像输入至编码器中的若干个编码块进行逐级下采样,相应输出若干个不同尺寸的下采样特征图;将下采样特征图输入至各自对应的DAM模块处理,输出对应的融合后的长跳跃链接信息;解码器中的若干个解码块分别接收与各自相邻的下一层解码块输出的聚合后特征图以及对应的融合后的长跳跃链接信息并聚合,将最上层解码块输出的聚合后特征图作为从三维医学图像中分割出来的目标图像。该方法可提高编码器收集(56)对比文件Yue Zhang et al..Multi-Modal TumorSegmentation With Deformable Aggregationand Uncertain Region Inpainting《.IEEETransactions on Medical Imaging》.2023,第42卷第3091-3103页.Narinder Singh Punn et al..RCA-IUnet:a residual cross-spatial attention-guidedinception U-Net model for tumorsegmentation in breast ultrasoundimaging《.Machine Vision andApplications》.2022,第1-10页.Hao Sun et al..Deformable AttentionU-Shaped Network with ProgressivelySupervised Learning for SubarachnoidHemorrhage Image Segmentation《.2022 IEEEInternational Conference onBioinformatics and Biomedicine (BIBM)》.2023,第1734-1739页.李富豪.基于卷积神经网络的鼻腔鼻窦肿瘤图像分割《.中国优秀硕士学位论文全文数据库医药卫生科技》.2023,全文.

Patent Agency Ranking