-
公开(公告)号:CN114299328A
公开(公告)日:2022-04-08
申请号:CN202111491774.5
申请日:2021-12-08
Applicant: 重庆邮电大学
IPC: G06V10/764 , G06V10/774 , G06V10/74 , G06V10/82 , G06N3/04 , G06T5/00 , G06T5/50 , G06T7/11
Abstract: 本发明属于生态环境和计算机视觉的结合领域,具体涉及一种环境自适应感知的小样本濒危动物检测方法及系统,该方法包括;分别对普通动物数据集和濒危动物数据集进预处理,通过任务分解,将预处理后的普通动物数据集划分为若干个子任务,并用其进行基础阶段的训练,得到基础的目标检测模型,将预处理后的濒危动物数据集送入环境感知模块得到新样本,使用新样本与原有濒危动物数据集作为输入对已有的基础目标检测模型进行微调训练,得到训练完成的目标模型后,输入图像或视频得到濒危动物的相关检测结果,本发明解决了现有技术中在濒危动物目标检测这样的小样本场景下,不能训练出具有良好泛化能力的检测模型以及检测准确率较低的问题。
-
公开(公告)号:CN111931587A
公开(公告)日:2020-11-13
申请号:CN202010678292.X
申请日:2020-07-15
Applicant: 重庆邮电大学
Abstract: 本发明涉及一种基于可解释时空自编码器的视频异常检测方法,包括对视频进行预处理的步骤;对处理后的数据进行特征学习的步骤,其中,所述特征学习包括基于可解释时空自编码器的深度学习模型,并获取重构视频序列;对重构的视频序列进行规则性分数计算的步骤;将计算的规则性分数与预定义的阈值进行比较,判断是否发生异常的步骤,本发明将深度学习的可解释性方法与异常检测方法相结合,大幅提升了视频异常检测的可信度。
-
公开(公告)号:CN106919920B
公开(公告)日:2020-09-22
申请号:CN201710126371.8
申请日:2017-03-06
Applicant: 重庆邮电大学
Abstract: 本发明公开了一种基于卷积特征和空间视觉词袋模型的场景识别方法。该方法包括:对原始数据库中的数据进行扩增技术,产生大量的、与原数据相似、标签不变的训练数据;对数据库中的图像进行预处理,得到符合的场景图像;利用构建的卷积神经网络模型及其训练后得到的参数设置,训练得到数据库图像的卷积特征;将得到的图像卷积特征用空间视觉词袋模型进行词典生成特征编码并形成直方图矢量;引入并联的思想融合多种特征,发挥其优势并结合SVM分类器实现场景分类性能的提高。
-
公开(公告)号:CN106547880B
公开(公告)日:2020-05-12
申请号:CN201610951093.5
申请日:2016-10-26
Applicant: 重庆邮电大学
IPC: G06F16/29
Abstract: 本发明请求保护一种融合地理区域知识的多维度地理场景识别方法。包括步骤:对数据库中的图像进行预处理,得到符合的地理场景图像;利用一种快速查找图像中物体区域的方法,得到物体区域图像块;将得到的地理图像物体区域图像块用深度卷积神经网络进行预训练,精调过程至场景图像深度卷积神经网络性能不再提升,把特征矩阵融合为输出特征向量;将所得采集地理场景分类中的实体名词数据预先建立地理实体名词关键词词典,对所述目标识别结果数据进行分词,获得所述目标识别结果中的关键性词语,建立文本特征;将文本特征和多个尺度的图像特征融合为特征向量作为输入,实现跨媒体数据的识别分类,进而实现融合地理实体信息的场景分类。
-
公开(公告)号:CN106547880A
公开(公告)日:2017-03-29
申请号:CN201610951093.5
申请日:2016-10-26
Applicant: 重庆邮电大学
IPC: G06F17/30
Abstract: 本发明请求保护一种融合地理区域知识的多维度地理场景识别方法。包括步骤:对数据库中的图像进行预处理,得到符合的地理场景图像;利用一种快速查找图像中物体区域的方法,得到物体区域图像块;将得到的地理图像物体区域图像块用深度卷积神经网络进行预训练,精调过程至场景图像深度卷积神经网络性能不再提升,把特征矩阵融合为输出特征向量;将所得采集地理场景分类中的实体名词数据预先建立地理实体名词关键词词典,对所述目标识别结果数据进行分词,获得所述目标识别结果中的关键性词语,建立文本特征;将文本特征和多个尺度的图像特征融合为特征向量作为输入,实现跨媒体数据的识别分类,进而实现融合地理实体信息的场景分类。
-
公开(公告)号:CN103561261B
公开(公告)日:2016-10-26
申请号:CN201310476150.5
申请日:2013-10-12
Applicant: 重庆邮电大学
IPC: H04N19/00 , H04N19/597 , H04N19/176 , H04N19/625 , H04N19/645
Abstract: 本发明公开了一种基于视觉注意的全景可定位视频编码方法,它涉及视频编码技术领域,包括以下步骤:全景可定位视频拼接与分割;视频帧内运动捕捉;帧内噪声区域标记;帧注意度标记;视频编码优化。它可以实现全景GIS视频在移动终端上的应用,优化后的编码大大降低了全景GIS视频资源对传输资源的占用,同时通用的解码方案也有利于视频GIS应用的推广与普及。
-
公开(公告)号:CN103561261A
公开(公告)日:2014-02-05
申请号:CN201310476150.5
申请日:2013-10-12
Applicant: 重庆邮电大学
IPC: H04N19/00 , H04N19/597 , H04N19/176 , H04N19/625 , H04N19/645
Abstract: 本发明公开了一种基于视觉注意的全景可定位视频编码方法,它涉及视频编码技术领域,包括以下步骤:全景可定位视频拼接与分割;视频帧内运动捕捉;帧内噪声区域标记;帧注意度标记;视频编码优化。它可以实现全景GIS视频在移动终端上的应用,优化后的编码大大降低了全景GIS视频资源对传输资源的占用,同时通用的解码方案也有利于视频GIS应用的推广与普及。
-
-
-
-
-
-