-
公开(公告)号:CN117830741A
公开(公告)日:2024-04-05
申请号:CN202410018971.2
申请日:2024-01-05
Applicant: 桂林电子科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于空间特征聚合网络的射电星系形态识别与分割方法,包括:将星系图像输入到特征提取网络,提取不同层级的星系语义特征;采用极化自注意力模块整合星系特征的通道和空间信息,构建注意力增强特征;自下而上初次拼接不同层级特征得到星系融合特征;自上而下二次拼接不同层级星系特征,同时采用空间金字塔池化‑跨阶段特征连接模块,进行星系特征的感知融合,实现网络多尺度聚合空间特征;对多尺度感受野聚合的空间特征进行星系目标的边框检测、形态分类与形态分割。本发明提出的射电星系形态识别与分割方法能够提升网络对通道和空间特征的整合能力,促进空间结构信息的聚合,提高射电星系的形态识别与分割性能。
-
公开(公告)号:CN117475286A
公开(公告)日:2024-01-30
申请号:CN202311463428.5
申请日:2023-11-06
Applicant: 桂林电子科技大学
IPC: G06V10/86 , G06V10/44 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于U型注意力特征融合网络的射电星系目标检测方法,包括以下步骤:1)对星系图像进行多尺度特征提取;2)设计注意力模块关注星系特征图的关键信息;3)设计U型特征融合网络进行多尺度星系特征融合;4)获取星系特征图中的星系区域;5)对星系区域的星系特征图进行量化;6)对星系区域特征进行分类回归。这种方法能够促进网络中多尺度星系特征的信息融合,并重点关注星系特征图中关键信息的位置,以提升射电星系分类性能。
-
公开(公告)号:CN116416336A
公开(公告)日:2023-07-11
申请号:CN202310509233.3
申请日:2023-05-08
Applicant: 桂林电子科技大学
IPC: G06T11/00 , G06V10/74 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了基于协同感知生成对抗网络的图像压缩感知重建方法,包括如下步骤:1)输入图像块的观测向量;2)为每个图像块的观测向量构造协同重构向量组;3)将协同重构向量组输入生成网络进行图像重建;4)将重建图像和真实图像分别输入判别网络进行真伪辨别;5)构造协同感知优化函数进行生成对抗训练。本发明提出的图像重建方法能够促进图像纹理细节的恢复,提升重建精度。
-
公开(公告)号:CN116362968A
公开(公告)日:2023-06-30
申请号:CN202310167863.7
申请日:2023-02-27
Applicant: 桂林电子科技大学
IPC: G06T3/40 , G06T5/10 , G06V10/82 , G06V10/774 , G06N3/045
Abstract: 本发明公开了基于自适应多层次注意力的帧循环视频超分辨重建技术,其特征在于,包括如下步骤:1)数据集预处理;2)建立重建模型;3)自适应多层次注意力过程;4)重构网络;5)模型训练。本技术方案不仅可以有效的利用初始低分辨的帧间信息和基于循环后的保留下来的时间信息,并可以更好的捕获空间上下文信息,以此获取更多高频信息来丰富图像细节,最终使模型具有更好的重构效果。
-
公开(公告)号:CN114495220A
公开(公告)日:2022-05-13
申请号:CN202210060310.7
申请日:2022-01-19
Applicant: 桂林电子科技大学
IPC: G06V40/16 , G06V20/52 , G06V20/40 , G06K9/62 , G06V10/774
Abstract: 本发明提供一种目标身份识别方法、装置以及存储介质,属于图像识别技术领域,方法包括:S1:导入多个目标行人图片,分别对各个目标行人图片的人脸检测得到目标脸部图片;S2:分别对各个目标行人图片以及各个目标脸部图片的特征提取得到行人特征以及人脸特征;S3:构建训练模型,通过训练模型对多个行人特征以及多个人脸特征的身份识别分析得到目标身份识别结果。相比于现有的单用人脸或行人进行身份识别,本发明的目标身份识别准确率更高,且目标识别结果具有更强的可靠性,并且能够很好的适用于视频监控场景下,解决了不同质量特征对目标身份决策的影响不同的问题。
-
公开(公告)号:CN110263203B
公开(公告)日:2021-09-24
申请号:CN201910345614.6
申请日:2019-04-26
Applicant: 桂林电子科技大学
IPC: G06F16/583 , G06F16/28
Abstract: 本发明公开了一种结合皮尔逊重构的文本到图像生成方法,其特征在于,包括如下步骤:1)数据预处理;2)建立图像生成模型;3)条件融合;4)特征向量生成;5)判别器判别;6)多尺度联合损失;7)网络训练;8)图像生成。该方法能重构判别器的输出,获得与网络的输入线性相关的特征向量,同时限制判别器的判别能力,使得生成器训练时更容易收敛并提高生成样本的质量和多样性。
-
-
公开(公告)号:CN108765296A
公开(公告)日:2018-11-06
申请号:CN201810600397.6
申请日:2018-06-12
Applicant: 桂林电子科技大学
IPC: G06T3/40
CPC classification number: G06T3/4053
Abstract: 本发明公开了一种基于递归残差注意力网络的图像超分辨率重建方法,其特征在于,包括如下步骤:1)数据预处理;2)建立重建模型;3)残差注意力网络支路第一个残差注意力模块特征提取;4)递归网络支路第一个递归模块特征提取;5)特征融合;6)图像重建。这种方法能解决预处理操作带来的噪声,且获得更多高频信息来丰富图像细节,同时能减少网络参数,在增加层数的同时而不增加新的参数,能提高超分辨率重建的精度。
-
公开(公告)号:CN104077762A
公开(公告)日:2014-10-01
申请号:CN201410293208.7
申请日:2014-06-26
Applicant: 桂林电子科技大学
IPC: G06T5/50
Abstract: 本发明公开一种基于NSST和聚焦区域检测的多聚焦图像融合方法,首先对待融合的多聚焦图像分别利用NSST及相应的融合规则,得到初始融合图像;将待融合的源图像分别与初始融合图像进行比较,对于源图像中与初始融合图像相似性较大的像素点,我们认为它是来自源图像中的严格聚焦区域的,根据这一理论我们可以确定源图像中的聚焦区域;最后,在已经确定的聚焦区域上利用改进的脉冲耦合神经网络获得最终的融合图像。本发明可以充分的提取各源图像中的有用信息并注入到融合图像中,有效地克服了基于变换域的融合算法不能选取出所有位于聚焦区域内的系数的缺陷,并且获得的融合图像在视觉效果及客观指标上均优于经典的多尺度融合算法。
-
公开(公告)号:CN114821100B
公开(公告)日:2024-03-26
申请号:CN202210385383.3
申请日:2022-04-13
Applicant: 桂林电子科技大学
IPC: G06V10/44 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于结构组稀疏网络的图像压缩感知重建方法,所述方法为:为图像块构造相似组,将图像块与其相似组输入卷积神经网络;将图像块相似组输入边缘轮廓重构分支,通过其中的局部残差递归网络和亚相素层,获得对图像边缘轮廓的重建;将图像块相似组输入局部细节重构分支,通过其中的密集连接网络和多尺度编解码网络模块,获得对图像细节纹理的重建;将两分支重建图像进行融合,输出得到对原始图像的重建图;训练中,设计并采用结构组稀疏约束损失函数进行训练约束。这种方法能节约计算资源、能提高图像的重建精度。
-
-
-
-
-
-
-
-
-