-
公开(公告)号:CN116030110A
公开(公告)日:2023-04-28
申请号:CN202310105817.4
申请日:2023-02-08
Applicant: 杭州电子科技大学
IPC: G06T7/557 , G06V10/82 , G06V10/80 , G06V10/764 , G06N3/0455 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于Transformer的光场极线几何图像视差估计方法。该方法设计了一种具有空间一致性信息保持的EpiFormer网络结构;该方法从0°、45°、90°、135°四个方向提取EPI图像块,并且每个方向提取三个相邻的EPI图像块,共12个EPI图像块作为EpiFormer网络结构的输入,输出为中心像素的视差值,通过把光场中心子光圈所有像素估计的视差值拼接起来,从而得到对应的光场视差图。本发明基于Transformer的方法,有效的建模EPI图像块中像素与像素之间的关联,同时添加了空间信息,缓解了遮挡带来的影响,同时也能得到更精确的像素匹配。
-
公开(公告)号:CN114299588A
公开(公告)日:2022-04-08
申请号:CN202111654265.X
申请日:2021-12-30
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/764 , G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于局部空间转换网络的实时目标编辑方法,首先获取高分辨率图像并制作训练数据集和测试数据集,然后通过掩码转换网络获取目标掩码的仿射变换矩阵,并实现目标图像的采样再使用空洞修复网络修复图像空洞,最后通过获得的数据集训练并测试掩码转换网络和空洞修复网络。本发明MTN专注于掩码学习,可使用与业务无关的数据集训练网络模型,降低了构建数据集的成本和模型的训练成本,完成目标编辑任务的同时解决了传统深度学习方法中图像空洞的出现问题。
-
公开(公告)号:CN108415955B
公开(公告)日:2021-12-28
申请号:CN201810116386.0
申请日:2018-02-06
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法。本方法将三维模型利用投影技术投影成二维图片,并将图片做成视频,放置于眼动仪让志愿者观看,进而收集眼动注视点的数据,然后将视频按帧分割,提取图片中的眼动注视点,借助二维到三维的映射技术得到眼动注视点点在三维模型上的坐标点。最后使用建立Ground Truth的算法将得到的眼动注视点数据建立成感兴趣点数据库。本发明更加适用于对模型的重建,因为利用眼动仪可以将模型上人眼最关注区域的部分和不关注区域的部分进行划分。通过感兴趣点标准库对人类感兴趣的地方可以加强重建的精度,相反对于不感兴趣的区域相对减少重建精度,从而减少模型重建的工作量和存储量。
-
公开(公告)号:CN113436254A
公开(公告)日:2021-09-24
申请号:CN202110725433.3
申请日:2021-06-29
Applicant: 杭州电子科技大学 , 浙江华立智能装备股份有限公司
Abstract: 本发明公开了一种级联解耦的位姿估计方法。首先基于位姿解耦公式,设计级联解耦位姿估计网络;然后设计基于级联解耦位姿估计的迭代网络;最后定义级联解耦位姿估计网络和基于级联解耦位姿估计的迭代网络的损失函数。本发明从相机位姿估计的级联解耦结构设计开始,首先提出了一种位姿级联解耦估计网络和位姿级联解耦优化网络,之后又提出了一种基于级联解耦位姿估计的迭代网络,以实现更高精度的位姿估计;最后将其扩展到无监督单目视觉里程计,实现相邻帧间相机位姿的旋转矩阵和平移矩阵解耦估计,得到更高精度的结果。
-
公开(公告)号:CN112308918A
公开(公告)日:2021-02-02
申请号:CN202011151965.2
申请日:2020-10-26
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于位姿解耦估计的无监督单目视觉里程计方法。本发明包括如下步骤:S1:准备KITTI数据集并进行预处理;S2:基于位姿解耦估计公式,设计位姿解耦估计网络;S3:设计基于位姿解耦估计的无监督单目视觉里程计;S4:定义基于位姿解耦估计的无监督单目视觉里程计的损失函数;S5:使用KITTI数据集中的训练集训练基于位姿解耦估计的无监督单目视觉里程计。本发明从相机位姿估计的级联解耦结构设计开始,以实现精确的位姿估计;并将其扩展到无监督单目视觉里程计,实现相邻帧间相机位姿的旋转矩阵和平移矩阵解耦估计;为提高旋转矩阵估计的鲁棒性,旋转矩阵采用单位四元数表示;最终在KITTI数据库上完成训练和测评。
-
公开(公告)号:CN109887023A
公开(公告)日:2019-06-14
申请号:CN201910030015.5
申请日:2019-01-11
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于加权梯度幅度的双目融合立体图像质量评价方法。客观图像质量评价算法根据是否利用原图像参与图像质量评价,可分为全参考、半参考和无参考图像质量评价算法三种。本发明采用的是半参考立体图像客观质量评价算法。与传统的融合左右眼图像生成独眼图算法不同,本发明将经过局部加权后的梯度幅度因子加入双目融合算法中,从而对传统的独眼图构造过程中丢失的结构信息进行一定补偿。本发明在消除对比度变化的同时增强局部图像结构。采用经典的自适应稀疏字典和OMP迭代算法,捕获随着迭代次数增加而增强的边缘和纹理信息,能更好的体现图像的结构信息。
-
公开(公告)号:CN106652048A
公开(公告)日:2017-05-10
申请号:CN201611260181.7
申请日:2016-12-30
Applicant: 杭州电子科技大学
IPC: G06T19/20
CPC classification number: G06T19/20
Abstract: 本发明提出一种基于3D‑SUSAN角点算子的三维模型感兴趣点提取方法。本发明首先读取三维模型顶点,并简化模型顶点以及模型网格化,计算每个顶点的曲率。再通过高斯滤波处理每个顶点的曲率,进行去噪处理。接着确定一个中心点并取中心点周围的36个邻居点,若中心顶点与邻居顶点的曲率差小于曲率相似度阈值,则进入下一步;若每个顶点的USAN值小于几何阈值,则该中心顶点就是兴趣点。最后对本发明所提出的基于3D‑SUSAN角点算子提取的三维模型感兴趣点从错误率、缺失率、误差率进行评估。本发明不仅可以提取三维模型兴趣点而且仍保留了SUSAN的抗噪能力强、计算量小效率高、性能稳定的优点。
-
公开(公告)号:CN103065298B
公开(公告)日:2015-07-29
申请号:CN201210560879.6
申请日:2012-12-20
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种模拟视网膜滤波的视觉显著性检测方法。本发明通过在CIELAB对色通道上建立高斯尺度空间,提取多尺度显著基元,然后在每个尺度层上计算具有对数响应特性的显著基元颜色独特性值和空间紧凑性,并采用一种基于显著基元按颜色独特性值重组的简化中央-周围算子进行优化滤波。最后经多尺度合成后生成最终显著图。本发明整合了生物视网膜中的多尺度、对数响应和中央-周围环绕特性,以及纯计算方法中的局部对比度和全局对比度特性。可获得更完整且更均匀高亮的显著性目标区域。
-
公开(公告)号:CN102920459B
公开(公告)日:2014-09-17
申请号:CN201210363866.X
申请日:2012-09-26
Applicant: 杭州电子科技大学
IPC: A61B5/107
Abstract: 本发明公开了一种基于三维点云的人体围度参数测量方法,现有的方法由于人体自身遮挡、采集信息不完备及扫描死角等原因使得一些位于人体两侧的点云数据缺失。本发明首先将所有人体三维点云数据拼合至同一个三维坐标系下,将指定高度的三维人体剖面点云数据转化为二维平面点集,通过对二维平面点集上的剖面点云数据进行水平投影分析,自动完成剖面点云数据的分类。其次分析各类数据缺失部分点所在位置,获取待拟合点云数据。然后选择二次曲线参数方程,并采用最小二乘法拟合点云数据,利用获得的拟合曲线完成缺口补点的工作。最后计算各个分类数据所对应身体部位的围度。本发明能够使人体身体围度的测量结果更加接近真实值。
-
公开(公告)号:CN102510512B
公开(公告)日:2014-03-05
申请号:CN201110364395.X
申请日:2011-11-17
Applicant: 杭州电子科技大学
IPC: H04N13/00
Abstract: 本发明涉及一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。目前的方法通常都是基于单目视觉节点。本发明方法各节点独立提取基于SIFT特征描述符的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。该优势在大规模动态多媒体传感网络中尤为重要。
-
-
-
-
-
-
-
-
-