-
公开(公告)号:CN119624767B
公开(公告)日:2025-05-13
申请号:CN202510151782.7
申请日:2025-02-12
Applicant: 大连理工大学
IPC: G06T3/4038 , G06T7/33 , G06T3/4007 , G06V10/46 , G06V10/75
Abstract: 本发明属于计算机视觉领域,涉及到一种交替迭代的直线匹配与图像拼接方法。在使用已有算法进行基于匹配特征点的预配准之后,首先,进行全局线引导网格变形得到初步拼接结果;其次,通过一种新的不依赖于描述符的直线匹配方法得到线匹配对;然后,线匹配对根据不变特征数得到点匹配对,线匹配对和点匹配对再次返回前面步骤共同指导全局线引导网格变形。全局线引导网格变形和线点匹配不断交替迭代。最后得到最优的线点匹配和最好的拼接结果,结果能够生成更准确的匹配特征对,展现更清晰的纹理,并保留拼接图像中的显著自然结构,效果超越传统的图像拼接方法和最新的基于深度学习的方法。
-
公开(公告)号:CN118379562B
公开(公告)日:2024-10-15
申请号:CN202410804377.6
申请日:2024-06-21
Applicant: 大连理工大学
IPC: G06V10/764 , G06V10/80 , G06V10/774 , G06V10/82
Abstract: 本发明涉及计算机视觉图像零样本分类领域,提供一种基于渐进式互指导的组合零样本图像分类方法,包括:将训练图像输入到预训练好的视觉特征提取器中提取到多尺度的基元特征(属性特征和对象特征);将多尺度的基元特征输入深度神经分类网络中进行渐进式互学习,得到训练好的模型,迭代此过程,逐步得到精确的网络模型;将图像对应的标签通过词嵌入转换为文本特征,与视觉特征进行对齐;对预测的模型和文本计算松弛交叉熵损失,优化网络模型;将测试集输入到优化后的模型中,通过三个不同分支的平衡得到预测结果。本发明能够大幅度提高对于看不见组合的分类精度,同时缓解了组合零样本任务存在的泛化性和情境性问题,使图像分类更加准确。
-
公开(公告)号:CN114494293B
公开(公告)日:2024-09-06
申请号:CN202210070125.6
申请日:2022-01-21
Applicant: 大连理工大学
Abstract: 本发明涉及计算机视觉图像分割领域,提供一种基于放大采样的伪装目标分割方法,包括:步骤100,将数据集划分为训练集和测试集;步骤200,将训练数据集输入深度神经分割网络中,得到训练好的模型,迭代此过程,逐步得到精确的网络模型;步骤300,将测试集输入到训练好的模型中,得到预测结果,迭代此过程,逐步得到更精确的预测结果;步骤400,将预测结果与测试集的真值对齐,得到最终的预测结果。相较于单阶段伪装物体检测方法,本发明检测分割物体更为准确,能够大幅度提高小物体的分割精度,使图像分割更加精细。
-
公开(公告)号:CN118110208A
公开(公告)日:2024-05-31
申请号:CN202410338323.5
申请日:2024-03-25
Applicant: 大连理工大学
IPC: E02D31/08
Abstract: 本发明属于被动控制领域,公开了一种用于软弱地基的新型隔震组合结构,包括筏板基础、屏蔽厂房、隔震支座、安全壳和封闭式地下隔震墙,安全壳底板与筏板基础通过隔震支座连接,封闭式地下隔震墙布置在筏板基础下部,可以有效提高基础隔震结构的抗震性能和软土地基的承载能力。本发明借助成熟的水工帷幕技术构筑封闭式地下隔震墙,其特色在于同时解决了强震作用下结构的抗震需求与软土地基承载力不足的问题。适用于软土地基条件下对抗震具有较高要求的建筑结构,尤其适用于三代核电站的隔减震设计,显著地提高了使用结构的体系式抗震安全。
-
公开(公告)号:CN118096719A
公开(公告)日:2024-05-28
申请号:CN202410350654.0
申请日:2024-03-26
IPC: G06T7/00 , G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明属于医学图像处理技术领域,涉及一种人机协同的病灶可彻底切除程度智能评估方法。本发明利用多级残差卷积神经网络训练模型,对CT图像进行分类,分类的准确性已经比肩资深临床医生。训练模型前先根据医生事先打好的标记点提取患者CT影像中疑似病灶的区域,减少冗余计算,避免无效信息干扰,且具有更快的学习收敛速度。
-
公开(公告)号:CN114037048B
公开(公告)日:2024-05-28
申请号:CN202111200399.4
申请日:2021-10-15
Applicant: 大连理工大学
IPC: G06N3/0442 , G06N3/092 , G06N3/008 , G06N5/04 , G06N20/00 , G06F30/27 , G06Q10/101
Abstract: 本发明提供一种基于变分循环网络模型的信念一致多智能体强化学习方法,该方法启发于人类团队之间的可以产生默契合作的现象,即通过共同的信念在任务上达成一致性共识。与人类社会群体类似,分布式学习系统中的智能体也可以受益于一致的信念,在有限的通信条件下实现协作。在本文中,我们展示了在分散式协作任务中智能体之间的一致性信念的作用。我们提出了一种新的基于值的方法——一致性信念多智能体强化学习方法,它使用变分模型来学习智能体之间的信念。我们还利用与变分模型结合的循环网络模型(RNN)充分利用智能体历史行为轨迹。我们的算法使智能体能够学习一致的信念,以优化完全分散的策略。我们在两个网格世界游戏以及星际争霸II微观管理基准上验证了该方法。我们的实验结果表明,该方法学习到的共同信念可以有效提高离散和连续状态下的智能体的协作效果。
-
公开(公告)号:CN117974938A
公开(公告)日:2024-05-03
申请号:CN202410104097.4
申请日:2024-01-25
Applicant: 大连理工大学
Abstract: 本发明涉及一种基于稀疏点云的网格重建方法,旨在通过预测边缘连接性和距离回归来实现准确的网格重建。本发明通过引入神经网络和边缘特征提取,以及距离回归和过滤技术,实现了更精确和连续的网格重建。本发明的方法包括以下关键步骤:首先,从输入的稀疏点云中生成候选边缘,并提取候选边缘的特征。候选边缘的特征由与其相邻的局部邻域点的特征表示。接下来,通过距离回归,将候选边缘回归到物体表面的距离。这样可以过滤掉出来位于表面上的边缘。最后,通过对过滤后的边缘进行连接,能够生成一个准确且连续的三角网格表示。这种网格重建方法在计算机图形学、计算机辅助设计和虚拟现实等领域具有广泛应用的潜力。
-
公开(公告)号:CN116673878A
公开(公告)日:2023-09-01
申请号:CN202310752813.5
申请日:2023-06-26
Abstract: 本发明提供一种可进行丸粒质量筛选的喷丸机,包括加工单元、分料单元、料仓单元、除尘单元和电气控制单元,加工单元、分料单元和料仓单元自上而下依次设置在机架中,除尘单元设置在机架一侧,并分别与加工单元、分料单元连通,电气控制单元分别与加工单元和分料单元的开关通讯连接;分料单元包括上下开口的分料室,分料室内水平设置有筛网,筛网的一端在电机的驱动下能向下90°转动。本发明采用筛网结构,通过气缸往复伸缩、筛网振动、电气控制等有效手段实现丸粒质量筛选;通过更换不同孔径的筛网实现不同粒径丸粒的质量筛选;通过电气控制实现喷丸强化与丸粒质量筛选两种功能切换。本发明能实现丸粒质量筛选与喷丸强化两种功能。
-
公开(公告)号:CN114494293A
公开(公告)日:2022-05-13
申请号:CN202210070125.6
申请日:2022-01-21
Applicant: 大连理工大学
Abstract: 本发明涉及计算机视觉图像分割领域,提供一种基于放大采样的伪装目标分割方法,包括:步骤100,将数据集划分为训练集和测试集;步骤200,将训练数据集输入深度神经分割网络中,得到训练好的模型,迭代此过程,逐步得到精确的网络模型;步骤300,将测试集输入到训练好的模型中,得到预测结果,迭代此过程,逐步得到更精确的预测结果;步骤400,将预测结果与测试集的真值对齐,得到最终的预测结果。相较于单阶段伪装物体检测方法,本发明检测分割物体更为准确,能够大幅度提高小物体的分割精度,使图像分割更加精细。
-
公开(公告)号:CN111737497A
公开(公告)日:2020-10-02
申请号:CN202010607265.3
申请日:2020-06-30
Applicant: 大连理工大学
IPC: G06F16/36 , G06F16/35 , G06F40/211 , G06F40/253 , G06F40/30 , G06N5/00 , G06N3/04
Abstract: 本发明提供一种基于多源语义表示融合的弱监督关系抽取方法。首先,采用分布式词向量初始化文本语句的上下文语义特征,运用自然语言处理工具解析出描述文本特性的海量离散化符号特性,并设计关系抽取任务中语句实例与特性间通用的一阶逻辑规则。之后,将逻辑规则与因子图相结合以建立文本特性与语句实例间的联系,并通过联合统计推理从人类感知的角度建模,学习描述文本特性的低维关系语义向量;并使用双向门控循环单元编码语句内容本身的语义信息作为上下文内容语义向量。最后,在神经网络中微调文本特性语义向量,融合两种不同特征源的向量表示得到更具鲁棒性的文本语义特征表示,与实体对嵌入表征一同指导弱监督关系抽取工作。
-
-
-
-
-
-
-
-
-