基于动态采样范围的多视图神经隐式表面重建方法

    公开(公告)号:CN119722908B

    公开(公告)日:2025-05-06

    申请号:CN202510222983.1

    申请日:2025-02-27

    Abstract: 本发明公开了基于动态采样范围的多视图神经隐式表面重建方法,涉及计算机技术领域,包括S1、构建均匀栅格;S2、选取栅格内体素的位置输入几何网络,计算不透明度值和占用信息,标记对应体素是否被物体占用;S3、生成N条光线;S4、分析核心采样区域;S5、分层体积采样获得采样点;S6、预测符号距离函数值和颜色值;S7、分析像素颜色;S8、联合监督预测信息和像素颜色;S9、是否达到迭代次数,是进S10;反之返回S2;S10、提取几何表面模型;基于占据栅格生成逐步缩小的动态采样范围,减少无效空间内的采样,提高光线与采样点的利用效率。通过在动态采样范围内使用分层体积采样策略,集中采样点于物体表面附近,减少采样偏差。

    基于大脑EEG信号的高保真3D图像重建方法

    公开(公告)号:CN118864690B

    公开(公告)日:2025-04-29

    申请号:CN202410867723.5

    申请日:2024-07-01

    Abstract: 本发明涉及一种基于大脑EEG信号的高保真3D重建方法,首先通过面向3D图像信号重建的EEG关联特征来获取大脑活动的精细特征,以实现对参与者视觉感知或想象内容的准确编码;然后采用EEG信号到2D图像映射,利用编码得到的特征对预训练的2D图像生成模块和CLIP模型进行微调,以实现对EEG信号语义的图像化表达,得到预训练的2D图像生成模块;最后将预训练后的2D图像生成模型与3D表示技术相结合,将3D场景参数化通过联合损失函数,以实现从EEG信号编码特征到具体3D图像的直观映射,生成具有高保真度和丰富细节的3D图像。本发明通过参与者对物体所产生的EEG信号而生成其对应的3D图像,为认知科学、心理学和神经科学领域的研究提供新的视角和工具。

    一种结构感知的三维场景重建方法及装置

    公开(公告)号:CN119888133A

    公开(公告)日:2025-04-25

    申请号:CN202510377177.1

    申请日:2025-03-28

    Abstract: 本发明一种结构感知的三维场景重建方法及装置,包括:根据基于Unet架构的扩散模型构建稀疏点云生成模型;将信息输入稀疏点云生成模型中,生成对应视角下RGB图像帧的相机内外参和稀疏点云数据;根据稀疏点云数据构建粗糙的三维结构网格;对粗糙的三维结构网格进行随机采样,并根据随机采样结果对高斯基元进行高斯场初始化,得到初始化高斯场;计算当前图像帧和RGB彩色图像之间的损失,根据损失依次迭代优化信息中所有RGB图像帧的高斯基元的参数,组合优化后的所有高斯基元,得到重建的三维场景。本发明提升了重建结果的空间一致性、准确性。

    基于动态采样范围的多视图神经隐式表面重建方法

    公开(公告)号:CN119722908A

    公开(公告)日:2025-03-28

    申请号:CN202510222983.1

    申请日:2025-02-27

    Abstract: 本发明公开了基于动态采样范围的多视图神经隐式表面重建方法,涉及计算机技术领域,包括S1、构建均匀栅格;S2、选取栅格内体素的位置输入几何网络,计算不透明度值和占用信息,标记对应体素是否被物体占用;S3、生成N条光线;S4、分析核心采样区域;S5、分层体积采样获得采样点;S6、预测符号距离函数值和颜色值;S7、分析像素颜色;S8、联合监督预测信息和像素颜色;S9、是否达到迭代次数,是进S10;反之返回S2;S10、提取几何表面模型;基于占据栅格生成逐步缩小的动态采样范围,减少无效空间内的采样,提高光线与采样点的利用效率。通过在动态采样范围内使用分层体积采样策略,集中采样点于物体表面附近,减少采样偏差。

    一种基于自适应可变信标功率的车联网V2V2I路由方法

    公开(公告)号:CN119172828A

    公开(公告)日:2024-12-20

    申请号:CN202411228169.2

    申请日:2024-09-03

    Abstract: 本发明公开了一种基于自适应可变信标功率的车联网V2V2I路由方法,为了提高车辆连接RSU的链路稳定性,车辆首先收集邻居信标分析当前车辆所处的信号覆盖状态,自适应调整车辆当前的信标功率,然后通过改进的Q‑学习对可用邻居车辆节点进行分析,寻找最优邻居节点并选择作为下一跳路由,完成V2V2I数据路由。本发明不仅能够根据不同情况自适应调整信标功率,节省车辆能耗,并且信标功率变化范围在标准功率的±30%时,车辆自私性数量、车辆平均连接RSU时间、路由跳数和链路保持时间上均有良好的技术效果。

    基于局部空间自注意力的3D感知图像合成方法和装置

    公开(公告)号:CN117853695B

    公开(公告)日:2024-05-03

    申请号:CN202410261885.4

    申请日:2024-03-07

    Abstract: 本发明公开了一种基于局部空间自注意力的3D感知图像合成方法和装置,首先结合各对象的位姿信息和预定义的3D边界框将待合成场景进行解耦表示,有效克服了对象间的纠缠表示;然后通过自注意力的局部空间场景表征模块为各对象进行局部隐式表示,实现局部范围内的全局感知和增强对精细细节的表达,同时大大降低计算复杂度;接着定义组合算子得到完整场景表示;最后,渲染模块先将场景体渲染为低分辨率的特征图,再经过同时兼顾空间和通道因素影响的2D神经渲染器渲染得到最终结果。本发明方法具有更精细的合成效果,计算复杂度低,并允许从广泛的相机姿势进行渲染,可以在没有任何额外监督的情况下从原始图像集合中学习特征场表示。

    基于局部空间自注意力的3D感知图像合成方法和装置

    公开(公告)号:CN117853695A

    公开(公告)日:2024-04-09

    申请号:CN202410261885.4

    申请日:2024-03-07

    Abstract: 本发明公开了一种基于局部空间自注意力的3D感知图像合成方法和装置,首先结合各对象的位姿信息和预定义的3D边界框将待合成场景进行解耦表示,有效克服了对象间的纠缠表示;然后通过自注意力的局部空间场景表征模块为各对象进行局部隐式表示,实现局部范围内的全局感知和增强对精细细节的表达,同时大大降低计算复杂度;接着定义组合算子得到完整场景表示;最后,渲染模块先将场景体渲染为低分辨率的特征图,再经过同时兼顾空间和通道因素影响的2D神经渲染器渲染得到最终结果。本发明方法具有更精细的合成效果,计算复杂度低,并允许从广泛的相机姿势进行渲染,可以在没有任何额外监督的情况下从原始图像集合中学习特征场表示。

    一种基于无锚的增量式目标检测方法

    公开(公告)号:CN113822368B

    公开(公告)日:2023-06-20

    申请号:CN202111153974.X

    申请日:2021-09-29

    Abstract: 本发明涉及图像识别领域,具体公开了一种基于无锚的增量式目标检测方法,包括以下步骤:步骤1、选取目标检测模型;步骤2、基于步骤1的目标检测模型,构建小样本目标检测模型;步骤3、对所述小样本目标检测模型进行元训练;步骤4、对训练后的小样本目标检测模型进行元测试。本发明在大量含丰富标签的基类数据(图像)和少量含标签的小样本(few‑shot)新类的训练下,提升了对新类测试图片的检测效果,即提高mAP和AR分数的提升。

Patent Agency Ranking