-
公开(公告)号:CN119962380A
公开(公告)日:2025-05-09
申请号:CN202510057508.3
申请日:2025-01-14
Applicant: 成都信息工程大学
IPC: G06F30/27 , G06N3/0442 , G06N3/045 , G06N3/0464 , G06N20/00 , G06N3/08 , G06F18/213 , G06F18/25 , G06F111/04 , G06F119/08
Abstract: 本发明提出基于物理约束的自适应神经网络的湿物理参数化方法,构建一个结合物理约束的自适应湿物理参数化模型,参数化模型分为两个阶段,第一阶段通过基于双分支的特征提取网络提取来自适应聚合全局与局部信息,从而获得不同尺度的特征信息;第二阶段,为了保留大气状态、对流和云的历史数据变化,设计卷积长短期记忆模块与注意力机制的结合,学习过去时刻和当前已知的大气状态等动态变化关系,然后通过注意力机制去融合筛选学习到的特征来预测湿物理过程中湿度和温度变化趋势等,最后,在训练过程和网络推理过程中还引入湿静态能量守恒作为物理约束来避免模拟结果产生不稳定性和气候漂移等问题。本发明方法参数化过程效率和精度有明显提升。
-
公开(公告)号:CN119722908B
公开(公告)日:2025-05-06
申请号:CN202510222983.1
申请日:2025-02-27
Applicant: 成都信息工程大学
Abstract: 本发明公开了基于动态采样范围的多视图神经隐式表面重建方法,涉及计算机技术领域,包括S1、构建均匀栅格;S2、选取栅格内体素的位置输入几何网络,计算不透明度值和占用信息,标记对应体素是否被物体占用;S3、生成N条光线;S4、分析核心采样区域;S5、分层体积采样获得采样点;S6、预测符号距离函数值和颜色值;S7、分析像素颜色;S8、联合监督预测信息和像素颜色;S9、是否达到迭代次数,是进S10;反之返回S2;S10、提取几何表面模型;基于占据栅格生成逐步缩小的动态采样范围,减少无效空间内的采样,提高光线与采样点的利用效率。通过在动态采样范围内使用分层体积采样策略,集中采样点于物体表面附近,减少采样偏差。
-
公开(公告)号:CN118864690B
公开(公告)日:2025-04-29
申请号:CN202410867723.5
申请日:2024-07-01
Applicant: 成都信息工程大学
IPC: G06T15/20 , G06T17/00 , G06T11/00 , G06N3/0475 , G06N3/0464 , G06N3/0455 , G06T7/70
Abstract: 本发明涉及一种基于大脑EEG信号的高保真3D重建方法,首先通过面向3D图像信号重建的EEG关联特征来获取大脑活动的精细特征,以实现对参与者视觉感知或想象内容的准确编码;然后采用EEG信号到2D图像映射,利用编码得到的特征对预训练的2D图像生成模块和CLIP模型进行微调,以实现对EEG信号语义的图像化表达,得到预训练的2D图像生成模块;最后将预训练后的2D图像生成模型与3D表示技术相结合,将3D场景参数化通过联合损失函数,以实现从EEG信号编码特征到具体3D图像的直观映射,生成具有高保真度和丰富细节的3D图像。本发明通过参与者对物体所产生的EEG信号而生成其对应的3D图像,为认知科学、心理学和神经科学领域的研究提供新的视角和工具。
-
公开(公告)号:CN119888133A
公开(公告)日:2025-04-25
申请号:CN202510377177.1
申请日:2025-03-28
Applicant: 成都信息工程大学
IPC: G06T17/20 , G06T17/00 , G06T7/90 , G06N3/0455 , G06N3/0475
Abstract: 本发明一种结构感知的三维场景重建方法及装置,包括:根据基于Unet架构的扩散模型构建稀疏点云生成模型;将信息输入稀疏点云生成模型中,生成对应视角下RGB图像帧的相机内外参和稀疏点云数据;根据稀疏点云数据构建粗糙的三维结构网格;对粗糙的三维结构网格进行随机采样,并根据随机采样结果对高斯基元进行高斯场初始化,得到初始化高斯场;计算当前图像帧和RGB彩色图像之间的损失,根据损失依次迭代优化信息中所有RGB图像帧的高斯基元的参数,组合优化后的所有高斯基元,得到重建的三维场景。本发明提升了重建结果的空间一致性、准确性。
-
公开(公告)号:CN119784648A
公开(公告)日:2025-04-08
申请号:CN202510279320.3
申请日:2025-03-11
Applicant: 成都信息工程大学
IPC: G06T5/77 , G06T5/60 , G06T7/194 , G06T7/136 , G06V20/40 , G06V10/774 , G06V10/75 , G06V10/24 , G06T7/269 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/098 , G06T7/33 , G06V10/80
Abstract: 本发明提供了一种基于物理模型的多阶段湍流动态视频恢复方法,涉及图像处理技术领域;本发明引入动态效益指数DEI,结合湍流强度、动态区域占比率和光流图,准确量化不同湍流条件下的视频动态强度,并构建高动态湍流数据集,增强模型训练与评估针对性。此外,本发明提出的多阶段恢复框架PMR,将恢复任务解耦为去倾斜、运动分割增强和去模糊三个阶段,分步恢复,以更精准地应对复杂失真,实现高效泛化和高质量恢复。该框架还结合双阶段配准策略,通过全局运动对齐与像素级光流矫正,减少真实场景中的相机抖动与光学干扰,有效解决湍流动态场景下多帧错位问题,提升恢复的稳定性与鲁棒性。
-
公开(公告)号:CN119722908A
公开(公告)日:2025-03-28
申请号:CN202510222983.1
申请日:2025-02-27
Applicant: 成都信息工程大学
Abstract: 本发明公开了基于动态采样范围的多视图神经隐式表面重建方法,涉及计算机技术领域,包括S1、构建均匀栅格;S2、选取栅格内体素的位置输入几何网络,计算不透明度值和占用信息,标记对应体素是否被物体占用;S3、生成N条光线;S4、分析核心采样区域;S5、分层体积采样获得采样点;S6、预测符号距离函数值和颜色值;S7、分析像素颜色;S8、联合监督预测信息和像素颜色;S9、是否达到迭代次数,是进S10;反之返回S2;S10、提取几何表面模型;基于占据栅格生成逐步缩小的动态采样范围,减少无效空间内的采样,提高光线与采样点的利用效率。通过在动态采样范围内使用分层体积采样策略,集中采样点于物体表面附近,减少采样偏差。
-
公开(公告)号:CN119172828A
公开(公告)日:2024-12-20
申请号:CN202411228169.2
申请日:2024-09-03
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种基于自适应可变信标功率的车联网V2V2I路由方法,为了提高车辆连接RSU的链路稳定性,车辆首先收集邻居信标分析当前车辆所处的信号覆盖状态,自适应调整车辆当前的信标功率,然后通过改进的Q‑学习对可用邻居车辆节点进行分析,寻找最优邻居节点并选择作为下一跳路由,完成V2V2I数据路由。本发明不仅能够根据不同情况自适应调整信标功率,节省车辆能耗,并且信标功率变化范围在标准功率的±30%时,车辆自私性数量、车辆平均连接RSU时间、路由跳数和链路保持时间上均有良好的技术效果。
-
公开(公告)号:CN117853695B
公开(公告)日:2024-05-03
申请号:CN202410261885.4
申请日:2024-03-07
Applicant: 成都信息工程大学
IPC: G06T19/20 , G06T15/00 , G06N3/0475 , G06N3/045 , G06N3/094 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于局部空间自注意力的3D感知图像合成方法和装置,首先结合各对象的位姿信息和预定义的3D边界框将待合成场景进行解耦表示,有效克服了对象间的纠缠表示;然后通过自注意力的局部空间场景表征模块为各对象进行局部隐式表示,实现局部范围内的全局感知和增强对精细细节的表达,同时大大降低计算复杂度;接着定义组合算子得到完整场景表示;最后,渲染模块先将场景体渲染为低分辨率的特征图,再经过同时兼顾空间和通道因素影响的2D神经渲染器渲染得到最终结果。本发明方法具有更精细的合成效果,计算复杂度低,并允许从广泛的相机姿势进行渲染,可以在没有任何额外监督的情况下从原始图像集合中学习特征场表示。
-
公开(公告)号:CN117853695A
公开(公告)日:2024-04-09
申请号:CN202410261885.4
申请日:2024-03-07
Applicant: 成都信息工程大学
IPC: G06T19/20 , G06T15/00 , G06N3/0475 , G06N3/045 , G06N3/094 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于局部空间自注意力的3D感知图像合成方法和装置,首先结合各对象的位姿信息和预定义的3D边界框将待合成场景进行解耦表示,有效克服了对象间的纠缠表示;然后通过自注意力的局部空间场景表征模块为各对象进行局部隐式表示,实现局部范围内的全局感知和增强对精细细节的表达,同时大大降低计算复杂度;接着定义组合算子得到完整场景表示;最后,渲染模块先将场景体渲染为低分辨率的特征图,再经过同时兼顾空间和通道因素影响的2D神经渲染器渲染得到最终结果。本发明方法具有更精细的合成效果,计算复杂度低,并允许从广泛的相机姿势进行渲染,可以在没有任何额外监督的情况下从原始图像集合中学习特征场表示。
-
公开(公告)号:CN113822368B
公开(公告)日:2023-06-20
申请号:CN202111153974.X
申请日:2021-09-29
Applicant: 成都信息工程大学
IPC: G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及图像识别领域,具体公开了一种基于无锚的增量式目标检测方法,包括以下步骤:步骤1、选取目标检测模型;步骤2、基于步骤1的目标检测模型,构建小样本目标检测模型;步骤3、对所述小样本目标检测模型进行元训练;步骤4、对训练后的小样本目标检测模型进行元测试。本发明在大量含丰富标签的基类数据(图像)和少量含标签的小样本(few‑shot)新类的训练下,提升了对新类测试图片的检测效果,即提高mAP和AR分数的提升。
-
-
-
-
-
-
-
-
-