-
公开(公告)号:CN119888177A
公开(公告)日:2025-04-25
申请号:CN202411943729.2
申请日:2024-12-27
Applicant: 重庆大学
IPC: G06V10/25 , G06V10/42 , G06V10/44 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/045 , G06N3/0464 , G06N3/088 , G06N3/084
Abstract: 本发明公开了一种基于全局背景感知与特征增强的小目标检测方法,属于图像目标检测技术领域。该方法中:首先通过预训练的骨干网络提取输入图像的深度特征图,再进行全局平均池化后得到全局背景特征;其次利用区域提议网络提取小目标候选区域特征,并通过反卷积进行上采样,再采用增强卷积块进一步增强小目标特征,得到更丰富的目标特征;然后将小目标增强特征与全局背景特征拼接,形成最终的输出特征,再通过全连接层进行目标定位和分类任务;最后通过设计对比损失函数优化小目标与背景特征之间的差异。该方法通过全局背景感知与特征增强可以提升小目标检测性能,适用于复杂背景下的小目标检测任务。
-
公开(公告)号:CN118586282A
公开(公告)日:2024-09-03
申请号:CN202410729427.9
申请日:2024-06-06
Applicant: 重庆大学
Abstract: 本发明公开了面向稀疏连续控制任务的奖励塑造方法、装置、介质及终端,包括采集智能体与仿真环境交互产生的经验数据,包括智能体执行的动作,仿真环境的当前状态信息和下一个状态信息,以及仿真外部奖励信号;利用全连接神经网络构建势能函数网络模型,获取智能体在当前状态和下一个状态的仿真环境的势能值;根据势能值差,通过奖励塑造函数计算内在奖励信号并和仿真外部奖励信号合并,得到最终的奖励信号;利用损失函数对势能函数网络模型进行更新,调整智能体执行动作的策略,使智能体在与环境的交互中获得最大化累积奖励;本发明利用状态之间的新旧策略的优势值差异作为内在奖励,提高了稀疏连续控制任务中的智能体性能,降低了计算成本。
-
公开(公告)号:CN118585813A
公开(公告)日:2024-09-03
申请号:CN202410730679.3
申请日:2024-06-06
Applicant: 重庆大学
IPC: G06F18/214 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 一种基于世界模型的智能体控制方法,包括以下步骤:获取环境观测数据;利用训练数据集训练世界模型;世界模型包括变分自编码模块、序列建模模块、隐状态预测模块和优化模块;变分自编码模块用于对从重播缓冲区中采样的观测数据添加自适应高斯噪声后进行编码,生成潜在向量;序列建模模块用于根据潜在向量和智能体产生的动作向量生成隐状态;隐状态预测模块根据隐状态生成预测结果;优化模块根据隐状态预测模块的预测结果做损失优化模型参数;利用世界模型生成想象轨迹;智能体根据想象轨迹确认最优策略;本发明能够提高模型的泛化能力和鲁棒性,使智能体与世界模型的交互能够更加贴近真实环境,降低想象数据与真实环境数据的差异。
-
-