-
公开(公告)号:CN116737976A
公开(公告)日:2023-09-12
申请号:CN202310704495.5
申请日:2023-06-14
Applicant: 北京科技大学
IPC: G06F16/583 , G06F16/55 , G06F16/35 , G06F16/33 , G06F16/34 , G06N3/0464 , G06N3/0455 , G06N3/09
Abstract: 本发明公开了一种基于话题聚类和转移预测的图像段落释意方法,包括:将句子话题定义为句子嵌入空间中的簇,使用预设的聚类算法对训练数据中的句子进行聚类,根据聚类结果得到每个句子的离散的话题标签;对所有训练数据的话题标签进行统计归纳,构建话题转移概率矩阵;基于话题标签对预设的层次化图像段落释意模型进行监督训练;其中,所述图像段落释意模型通过利用所述话题转移概率矩阵中包含的话题衔接信息来生成语义连贯的段落描述;利用训练好的图像段落释意模型处理待释意图像,得到图像段落释意。本发明的技术方案提升了图像段落释意模型的释意性能,并提高了话题预测的可解释性。
-
公开(公告)号:CN116468977B
公开(公告)日:2023-08-18
申请号:CN202310723878.7
申请日:2023-06-19
Applicant: 北京科技大学
IPC: G06V10/776 , G06V10/44 , G06V10/764 , G06V40/10
Abstract: 本发明公开了一种视觉检测模型的对抗鲁棒性评估方法及装置,涉及计算机视觉技术领域。包括:获取待评估的视觉检测模型;采用双向特征失真攻击BFDA方法,生成增强后的对抗样本数据集;根据对抗样本数据集对视觉检测模型进行评估,得到视觉检测模型的对抗鲁棒性评估结果。本发明通过抑制与检测相关的关键特征元素,借助数据增强方式,放大候选的物体相关的特征元素,产生消失与创造攻击的效果,生成的对抗样本具有较高的对抗迁移性,能够有效的应用到未知模型的对抗鲁棒性评测之中。
-
公开(公告)号:CN120047471A
公开(公告)日:2025-05-27
申请号:CN202510498889.9
申请日:2025-04-21
Applicant: 北京科技大学
Abstract: 本发明提供一种基于提示的脑肿瘤交互式分割方法及系统,涉及图像分割技术领域,方法包括:获取包含多张切片的脑部图像并进行肿瘤标注;筛选肿瘤像素最多的切片作为提示图像;对提示图像中的肿瘤区域进行亮度增强处理,并提取二维特征;使用三维卷积神经网络提取脑部图像的三维特征,将二维和三维特征进行拼接融合,通过上采样层得到切片精细分割特征;提取标注图像特征,并将增强提示图像的提示信息与标注图像特征进行平均掩码池化,构建第一原型特征;计算三维特征与第一原型特征的相似度,并通过池化融合构建第二原型特征;结合第一原型、第二原型和切片精细分割特征进行特征匹配,得到肿瘤和非肿瘤区域的最终分割结果。
-
公开(公告)号:CN116468977A
公开(公告)日:2023-07-21
申请号:CN202310723878.7
申请日:2023-06-19
Applicant: 北京科技大学
IPC: G06V10/776 , G06V10/44 , G06V10/764 , G06V40/10
Abstract: 本发明公开了一种视觉检测模型的对抗鲁棒性评估方法及装置,涉及计算机视觉技术领域。包括:获取待评估的视觉检测模型;采用双向特征失真攻击BFDA方法,生成增强后的对抗样本数据集;根据对抗样本数据集对视觉检测模型进行评估,得到视觉检测模型的对抗鲁棒性评估结果。本发明通过抑制与检测相关的关键特征元素,借助数据增强方式,放大候选的物体相关的特征元素,产生消失与创造攻击的效果,生成的对抗样本具有较高的对抗迁移性,能够有效的应用到未知模型的对抗鲁棒性评测之中。
-
公开(公告)号:CN115879119B
公开(公告)日:2023-05-16
申请号:CN202310190344.2
申请日:2023-03-02
Applicant: 北京科技大学
IPC: G06F21/57 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/08
Abstract: 本发明公开了一种针对对抗通用补丁攻击的鲁棒视觉Transformer视觉感知方法及装置,涉及计算机视觉技术领域。包括:获取待分类的图像数据;将图像数据输入到构建好的视觉Transformer感知模型;其中,视觉Transformer感知模型包括限制令牌注意层;根据图像数据以及视觉Transformer感知模型,得到待分类的图像数据的分类结果。本发明所提出的视觉感知模型,通过对异常注意力的限制,结合高性能的视觉Transformer模型,构造了更鲁棒更高性能的视觉感知模型,在对抗精度方面明显优于以往的补丁防御方法,对干净样本的精度影响较小。
-
公开(公告)号:CN118469831A
公开(公告)日:2024-08-09
申请号:CN202410611048.X
申请日:2024-05-16
Applicant: 北京科技大学
IPC: G06T5/50 , G06N3/0464
Abstract: 本发明涉及数字影像技术领域,特别是指一种基于注意力机制的鲁棒自监督多模态图像融合方法及装置。所述方法包括:使用拍摄设备进行图像采集,获取可见光源图像以及红外源图像;根据可见光源图像以及红外源图像进行焦点融合处理,获得焦点融合图;基于注意力机制以及Transformer网络结构进行模块构建,获得联合学习模块;基于焦点融合图,将可见光源图像以及红外源图像输入联合学习模块进行图像融合,获得第二融合图像;将第二融合图像输入预设的语义模型进行语义添加,获得第三融合图像。本发明是一种基于注意力机制的效率高、鲁棒性强的自监督多模态图像融合方法。
-
公开(公告)号:CN115879119A
公开(公告)日:2023-03-31
申请号:CN202310190344.2
申请日:2023-03-02
Applicant: 北京科技大学
IPC: G06F21/57 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/08
Abstract: 本发明公开了一种针对对抗通用补丁攻击的鲁棒视觉Transformer视觉感知方法及装置,涉及计算机视觉技术领域。包括:获取待分类的图像数据;将图像数据输入到构建好的视觉Transformer感知模型;其中,视觉Transformer感知模型包括限制令牌注意层;根据图像数据以及视觉Transformer感知模型,得到待分类的图像数据的分类结果。本发明所提出的视觉感知模型,通过对异常注意力的限制,结合高性能的视觉Transformer模型,构造了更鲁棒更高性能的视觉感知模型,在对抗精度方面明显优于以往的补丁防御方法,对干净样本的精度影响较小。
-
公开(公告)号:CN118470691B
公开(公告)日:2025-02-14
申请号:CN202410597315.2
申请日:2024-05-14
Applicant: 北京科技大学
IPC: G06V20/59 , G06V20/40 , G06V40/10 , G06V10/82 , G06V10/80 , G06N20/20 , G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于上半身姿态的驾驶员情绪状态检测方法及系统,涉及计算机视觉技术领域,包括:基于预设人体姿态估计模型识别待检测驾驶员的上半身视频片段中的人体关键部位,得到各关节位置的时间序列;对关节位置时间序列进行预处理,转化成关节流数据和骨骼流数据;分别将关节流和骨骼流数据输入到多个经过训练之后的图卷积神经网络模型,得到多个分类结果;基于集成学习方法融合多个分类结果,得到待检测驾驶员的情绪状态识别结果。本发明缓解了现有技术中存在的在驾驶环境下的动作情绪识别准确率较差的技术问题。
-
公开(公告)号:CN118781419B
公开(公告)日:2025-03-21
申请号:CN202410909042.0
申请日:2024-07-08
Applicant: 北京科技大学
IPC: G06V10/764 , G06V20/59 , G06V20/56 , G06V10/82 , G06V40/16 , G06N3/0442 , G06N3/084
Abstract: 本发明提供一种驾驶员个性化驾驶意图预测方法及系统,涉及智能交通技术领域。所述方法包括:输入车辆的内部图像和外部图像,内部图像分为一般组图像和专家组图像;对内部图像进行预处理,得到驾驶员的面部特征,对外部图像进行预处理,得到环境特征;将驾驶员的面部特征和环境特征输入广义驾驶意图预测网络中,生成第一预测结果和置信区间;基于专家组图像的面部特征学习驾驶员意图偏好特征,得到第二预测结果;经过置信区间过滤后,选择一个作为最终预测结果。本发明充分考虑驾驶员个人意图偏好,提高了对不同驾驶员意图预测的准确率,以及在提前几秒意图预测任务上的准确率。
-
公开(公告)号:CN118469831B
公开(公告)日:2025-01-10
申请号:CN202410611048.X
申请日:2024-05-16
Applicant: 北京科技大学
IPC: G06T5/50 , G06N3/0464
Abstract: 本发明涉及数字影像技术领域,特别是指一种基于注意力机制的鲁棒自监督多模态图像融合方法及装置。所述方法包括:使用拍摄设备进行图像采集,获取可见光源图像以及红外源图像;根据可见光源图像以及红外源图像进行焦点融合处理,获得焦点融合图;基于注意力机制以及Transformer网络结构进行模块构建,获得联合学习模块;基于焦点融合图,将可见光源图像以及红外源图像输入联合学习模块进行图像融合,获得第二融合图像;将第二融合图像输入预设的语义模型进行语义添加,获得第三融合图像。本发明是一种基于注意力机制的效率高、鲁棒性强的自监督多模态图像融合方法。
-
-
-
-
-
-
-
-
-