-
公开(公告)号:CN115496909A
公开(公告)日:2022-12-20
申请号:CN202211302977.X
申请日:2022-10-24
Applicant: 桂林电子科技大学
IPC: G06V10/26 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/04
Abstract: 本发明公开一种三分支自适应权重特征融合的语义分割方法,其语义分割网络先采用二分支全卷积网络进行特征提取,再采用三分支自适应权重融合对特征图进行融合。二分支特征提取网络对不同类型的图像进行特征提取,右分支可对输入的原始图像进行特征提取,左分支通过深度转换模块把输入原始图像变为深度图像再进行特征提取,不同类型图像可以提供不同感受野实现效果更好的特征提取。三分支自适应权重融合方式把不同图像的空间信息和语义信息按照像素级自适应权重的办法进行融合可以得到较好地定位和分割效果,并且对于物体的边界和对小物体的分割有不错的效果。
-
公开(公告)号:CN115761238B
公开(公告)日:2024-09-17
申请号:CN202211654339.4
申请日:2022-12-19
Applicant: 桂林电子科技大学
Abstract: 本发明公开一种基于多分支深度可分离空洞卷积的实时语义分割方法,其语义分割网络采用多分支全卷积网络能高效进行上下文信息与细节信息的融合,并补全在下采样中损失的信息,其信息提取网络结构先通过卷积模块对信息进行初步提取并下采样;细节分支通过卷积模块不断提取细节信息;上下文分支通过卷积模块提取上下文信息,多级上采样解码模块能够增加感受野进一步提取上下文信息;细节分支与上下文分通过信息融合模块进行高效信息交换;多尺度空洞深度可分离卷积模块为网络提供多种尺度的感受野并保持空间分辨率不变,同时对上下文信息与细节信息进行融合,并补全下采样过程中损失的信息,增强模型分割效果。
-
公开(公告)号:CN117197469A
公开(公告)日:2023-12-08
申请号:CN202311249587.5
申请日:2023-09-26
Applicant: 桂林电子科技大学
IPC: G06V10/26 , G06V10/44 , G06N3/0464 , G06N3/048 , G06V10/774
Abstract: 本发明公开一种基于语义边缘聚焦与引导的双分支图像语义分割方法,首先构建图像语义分割模型;然后将训练图像送入到步骤1所构建的图像分割模型中进行训练,得到训练好的图像分割模型;最后将待分割图像送入到步骤2所得到的训练好的图像分割模型中进行预测,完成待分割图像的图像分割。本发明利用语义边缘信息地聚焦与引导,使得模型在常见数据集中对小目标物体的分割准确性有了显著地提升,在区域边缘处的分割精确度有了明显地提高。此外,利用并行聚合金字塔混合池化模块提供了条状感受野,使得模型对长条状物体的分割效果也显著优于现有方法。
-
公开(公告)号:CN115908812A
公开(公告)日:2023-04-04
申请号:CN202211527335.X
申请日:2022-11-30
Applicant: 桂林电子科技大学
Abstract: 本发明公开一种注意力引导的可变形自注意力的语义分割方法,使用权重分离的通道注意力模块将不同权重的注意力特征通道进行分离。使用可变形自注意力的Transformer对高权重特征图进行特征提取,通过可变形自注意力窗口模块将切分的图像块变成适应目标形状的不规则的形状,然后进行填充成正方形图像块后送入Transformer,可以使自注意力更加聚焦于特征图中更关键的区域并获取更多的特征信息。使用双权重的双注意力模块对低权重特征图进行特征提取,通过获取特征图不同尺度的空间和通道注意力并进行聚合,可以使空间和通道注意力更好地得到特征图的空间和通道信息。本发明能够让语义分割的内存和计算成本更低,提升分割精度。
-
公开(公告)号:CN115761238A
公开(公告)日:2023-03-07
申请号:CN202211654339.4
申请日:2022-12-19
Applicant: 桂林电子科技大学
Abstract: 本发明公开一种基于多分支深度可分离空洞卷积的实时语义分割方法,其语义分割网络采用多分支全卷积网络能高效进行上下文信息与细节信息的融合,并补全在下采样中损失的信息,其信息提取网络结构先通过卷积模块对信息进行初步提取并下采样;细节分支通过卷积模块不断提取细节信息;上下文分支通过卷积模块提取上下文信息,多级上采样解码模块能够增加感受野进一步提取上下文信息;细节分支与上下文分通过信息融合模块进行高效信息交换;多尺度空洞深度可分离卷积模块为网络提供多种尺度的感受野并保持空间分辨率不变,同时对上下文信息与细节信息进行融合,并补全下采样过程中损失的信息,增强模型分割效果。
-
-
-
-