一种光源颜色计算和图像校正方法

    公开(公告)号:CN101146233A

    公开(公告)日:2008-03-19

    申请号:CN200710133272.9

    申请日:2007-09-26

    Applicant: 东南大学

    Abstract: 光源颜色计算和图像校正方法涉及彩色图像的识别和分析中的光源的计算和校正方法,该方法包括以下步骤:对彩色图像中每个像素的色度进行归一化;利用纯漫反射或少量镜面反射的像素点与周围像素点的变化平缓,即像素的相似度大的性质,通过投票方法快速提取出高光区域;从简化的双向反射函数光照模型出发,推导出逆强度和色度的线性关系以及光源颜色的表示和校正方法,将高光区域中的像素的三个通道的色度值分别投射到由逆强度和色度张成的空间中,将三维空间转化为二维空间;采用参数逼近法对逆强度空间中的点进行直线拟合,求得色度轴截距,即是光源颜色值;根据光源颜色值,在归一化的图像上进行颜色校正,然后恢复成标准白光下的图像。

    一种利用深度神经网络进行论文多标签分类的方法

    公开(公告)号:CN112434159B

    公开(公告)日:2024-08-02

    申请号:CN202011286949.4

    申请日:2020-11-17

    Applicant: 东南大学

    Abstract: 本发明公开了一种利用深度神经网络进行论文多标签分类的方法,该方法将多标签分类视为标签序列生成过程;方法分为输入序列特征学习阶段和标签序列生成(预测)阶段;该方法将多标签分类视为标签序列生成过程;方法分为输入序列特征学习阶段和标签序列生成(预测)阶段;其中在所述输入序列特征学习阶段,本发明根据论文文本序列,利用双向长短时记忆网络生成特征向量序列;在所述标签序列生成阶段,将由特征向量序列构成的上下文向量和上一时刻的标签嵌入向量输入单向长短时记忆网络,来预测该论文可能所属的下一个标签。模型通过优化后的梯度下降算法进行迭代训练,最终使用训练好的模型,结合Beam Search算法对论文所属类别进行多标签分类。

    一种基于边缘注意力的单目深度估计方法

    公开(公告)号:CN118334097A

    公开(公告)日:2024-07-12

    申请号:CN202410424359.5

    申请日:2024-04-10

    Applicant: 东南大学

    Inventor: 姚莉 戴彧

    Abstract: 本发明提出了一种基于边缘注意力的单目深度估计方法,本方法通过canny边缘检测算法获取原始图像的边缘信息,使用一对孪生卷积编码器分别获取原始图像与边缘图像的多尺度特征信息,通过一个引入交叉注意力机制的编码器网络,将两种特征进行跨模态融合,得到多尺度混合特征,并通过逐层上采样方式融合,获取多分辨率的预测深度图。最后,一种混合损失被用于反向传播,优化网络参数。

    一种基于多分割图融合的图像像素级分类方法

    公开(公告)号:CN111695569B

    公开(公告)日:2023-04-18

    申请号:CN202010397565.3

    申请日:2020-05-12

    Applicant: 东南大学

    Inventor: 姚莉 乔昂

    Abstract: 本发明公开了一种基于多分割图融合的图像像素级分类方法。该方法有三个主要步骤,首先在多个分割图间引入指导机制,使用较高精度分割图指导较低精度分割图提高精度。接着引入一种共识机制,在各个图中可能产生分类冲突的边缘区域像素点间,通过协商策略达成分类共识。最后使用一种基于全卷积神经网络的融合策略,有效结合前述两种机制,得到最终输出。本发明能够有效地解决边缘区域的像素分类冲突问题,将多个分割图进行融合得到粒度更细的像素级分类结果。可与多种技术结合使用,包括但不限于深度神经网络、随机森林与支持向量机等有监督学习方法。该方法的使用,可以有效弥补现有方法对冲突像素点重视的不足,得到质量更高的融合分割结果。

    一种结合环境映射和全局光照渲染的单镜头混合现实实现方法

    公开(公告)号:CN108986195B

    公开(公告)日:2023-02-28

    申请号:CN201810668844.1

    申请日:2018-06-26

    Applicant: 东南大学

    Abstract: 本发明公开了一种结合环境映射和全局光照渲染的单镜头混合现实实现方法,包括对虚拟物体进行定位,并生成现实场景模型;对现实场景模型和虚拟物体进行体素化及过滤;环境贴图生成,将现实场景图像采用均匀分配方式切分,再进行翻转映射为环境贴图;锥追踪渲染,采用加入环境映射的锥追踪方式渲染输出成为合成图像。本发明能够利用GPU的强大图形计算能力,增强一般的混合现实系统的输出效果,能够在单镜头的条件下模拟光亮物体对周围环境的反映效果。

    一种基于深度学习的单目场景深度预测方法

    公开(公告)号:CN111899295B

    公开(公告)日:2022-11-15

    申请号:CN202010508803.3

    申请日:2020-06-06

    Applicant: 东南大学

    Inventor: 姚莉 缪静

    Abstract: 一种基于深度学习的单目场景深度预测方法,适用于单目图片或视频,利用已校准的双目彩色图像对训练深度预测模型,在网络架构中使用了DenseNet卷积模块提取特征空间,使用其中的稠密块和过渡层,使网络中的每一层都直接与其前面层相连,实现特征的重复利用;改进了双目匹配损失,将深度预测问题视为图像重建问题,对输入的左视点彩色图和视差图采样生成虚拟彩色图和视差图,利用双目图像对的立体匹配算法,在RGB层面和视差层面,约束生成的虚拟视图和对应输入的右视点图像的一致性,从而获得更好的深度;改进了深度平滑损失,本发明能够生成高质量的密集深度图,有效改善单目场景深度预测中遮挡产生的伪影问题,可满足室内外多个现实场景的2D转3D需求。

    一种基于单目RGB-D图像的类别级6D姿态估计方法

    公开(公告)号:CN114863573A

    公开(公告)日:2022-08-05

    申请号:CN202210801201.6

    申请日:2022-07-08

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于单目RGB‑D图像的类别级6D姿态估计方法,本方法引入RGB‑D图像特征融合机制,通过自注意力机制融合RGB‑D图像中目标实例的像素颜色特征和点云几何特征,获取目标实例更好的特征表达;并且引入类别形状隐式编码先验来克服同一类别下不同实例物体之间的形状差异。本方法首先对单幅RGB‑D图片进行目标检测与实例分割,结合深度信息计算出目标实例采样点的三维坐标;根据目标实例的类别输入对应的类别形状编码先验,基于一种多分支的网络结构,分别预测目标实例的点云模型和采样点的对应关系矩阵,进而运算出采样点对应的三维点云坐标;最后解算出目标物体的6D姿态。

    一种基于改良区域回归的行人检测方法

    公开(公告)号:CN109063559B

    公开(公告)日:2021-05-11

    申请号:CN201810685848.0

    申请日:2018-06-28

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于改良区域回归的行人检测方法,包括标记训练样本;构建包括卷积特征提取、语义分割层、分类层和区域回归层的区域生成网络,利用训练样本迭代更新其参数;构建包括卷积特征提取、语义分割层和分类层的深度卷积神经网络,利用前一步获取到的多个候选区域迭代更新其参数;获取待检测行人的图像;将待检测图像输入训练好的区域生成网络,得到多个候选区域及每个候选区域p被预测为行人和背景的置信度评分;将前一步得到的多个候选区域,选择前Ntop个输入训练好的深度卷积神经网络,得到每个候选区域q被预测为行人和背景的置信度评分;融合前两步的结果,得到候选区域q被预测为行人的概率。该方法通过融合多网络输出,能够提供端到端的行人检测方案。

    一种利用深度神经网络进行论文多标签分类的方法

    公开(公告)号:CN112434159A

    公开(公告)日:2021-03-02

    申请号:CN202011286949.4

    申请日:2020-11-17

    Applicant: 东南大学

    Abstract: 本发明公开了一种利用深度神经网络进行论文多标签分类的方法,该方法将多标签分类视为标签序列生成过程;方法分为输入序列特征学习阶段和标签序列生成(预测)阶段;该方法将多标签分类视为标签序列生成过程;方法分为输入序列特征学习阶段和标签序列生成(预测)阶段;其中在所述输入序列特征学习阶段,本发明根据论文文本序列,利用双向长短时记忆网络生成特征向量序列;在所述标签序列生成阶段,将由特征向量序列构成的上下文向量和上一时刻的标签嵌入向量输入单向长短时记忆网络,来预测该论文可能所属的下一个标签。模型通过优化后的梯度下降算法进行迭代训练,最终使用训练好的模型,结合Beam Search算法对论文所属类别进行多标签分类。

    一种移动平台上基于视觉和惯导融合SLAM的标定外参和时序的方法

    公开(公告)号:CN109029433A

    公开(公告)日:2018-12-18

    申请号:CN201810686888.7

    申请日:2018-06-28

    Applicant: 东南大学

    Abstract: 本发明公开了一种移动平台上基于视觉和惯导融合SLAM的标定外参和时序的方法,包括初始化阶段:使用松耦合的方法对齐通过相机和IMU估计的两帧之间的相对旋转参数,估计得到相机和IMU的相对旋转参数;前端阶段:前端完成视觉里程计功能,即根据前几帧估计的相机在世界坐标系中的位姿大致估计当前帧相机在世界坐标系中的位姿,估计的值作为后端优化的初始值;后端阶段:在所有帧中挑选一些关键帧,设置待优化变量,建立一个统一的目标函数,根据对应的约束条件进行优化,从而得到精确的外参。本发明方法所估计的外参误差较低,时序标定轨迹精度高。

Patent Agency Ranking