基于监测数据的动态OD矩阵估计方法

    公开(公告)号:CN108320504A

    公开(公告)日:2018-07-24

    申请号:CN201810057716.3

    申请日:2018-01-22

    Abstract: 基于监测数据的动态OD矩阵估计方法属于智能交通领域,传统的方法没有考虑到部分实际路网OD矩阵的稀疏性,计算出的OD矩阵及分配在路网上的流量与实际有较大偏差;而且在求解过程中,将OD矩阵分配到路网上往往需要一定时间,尤其是当路段陷入拥堵时,传统的OD矩阵分配算法需要较长时间,难以满足实时性要求。本发明构建了稀疏约束下的动态OD矩阵估计模型,并提出了一种稀疏约束下的动态OD矩阵估计快速算法,基于径向基神经网络对OD矩阵分配函数进行拟合。基于此,需要解决的关键问题包括:稀疏约束下的动态OD矩阵估计模型;稀疏约束下的动态OD矩阵估计实时算法。理论上,本发明提出的方案可以更准确地估计动态OD矩阵,并满足实时性要求。

    一种动态手势识别方法
    32.
    发明公开

    公开(公告)号:CN105205475A

    公开(公告)日:2015-12-30

    申请号:CN201510684375.9

    申请日:2015-10-20

    CPC classification number: G06K9/00375 G06K9/00355 G06N3/088

    Abstract: 本发明公开了一种动态手势识别方法,其能够提高动态手势识别的准确率。该方法包括步骤:(1)对动态手势数据进行预处理,基于间隔取样方法扩展动态手势数据,基于canny边缘检测算子计算扩展后扩展动态手势数据的RGB三个通道的边缘,生成彩色边缘图像;(2)基于卷积神经网络模型提取手势特征序列;(3)通过步骤(2)提取的手势特征序列和手部方向特征,进行隐马尔科夫模型HMM训练,得到最接近手势样本的HMM。

    基于运动偏移映射的有韵律头部运动合成方法

    公开(公告)号:CN102737397B

    公开(公告)日:2015-10-07

    申请号:CN201210167193.0

    申请日:2012-05-25

    Abstract: 本发明公开了一种基于运动偏移映射的有韵律头部运动合成方法,包括:将需要被处理的自然文本输入到手语标记语言系统中,该手语标记语言系统解析产生被处理的自然文本的内容信息、韵律标记和韵律结构;设置一个参数和相对应的取值,读取手语标记语言系统中数据库里面该自然文本的内容信息相对应的词的手势数据并进行对头部关节自由度的动态时间规整,读取参数的取值,运用运动偏移映射方法对被处理的自然文本的内容信息相对应的词的手势数据进行处理,得到改变幅度后的运动信息;对改变幅度后的运动信息配合所述被处理的自然文本的韵律结构,得到该自然文本的手语动画演示信息。本发明不仅能增强手语动画的真实感,还会提高手语动画的可懂度。

    基于运动偏移映射的有韵律头部运动合成方法

    公开(公告)号:CN102737397A

    公开(公告)日:2012-10-17

    申请号:CN201210167193.0

    申请日:2012-05-25

    Abstract: 本发明公开了一种基于运动偏移映射的有韵律头部运动合成方法,包括:将需要被处理的自然文本输入到手语标记语言系统中,该手语标记语言系统解析产生被处理的自然文本的内容信息、韵律标记和韵律结构;设置一个参数和相对应的取值,读取手语标记语言系统中数据库里面该自然文本的内容信息相对应的词的手势数据并进行对头部关节自由度的动态时间规整,读取参数的取值,运用运动偏移映射方法对被处理的自然文本的内容信息相对应的词的手势数据进行处理,得到改变幅度后的运动信息;对改变幅度后的运动信息配合所述被处理的自然文本的韵律结构,得到该自然文本的手语动画演示信息。本发明不仅能增强手语动画的真实感,还会提高手语动画的可懂度。

    帧内预测模式选择方法
    35.
    发明公开

    公开(公告)号:CN101309421A

    公开(公告)日:2008-11-19

    申请号:CN200810115414.3

    申请日:2008-06-23

    Abstract: 本发明公开了一种帧内预测模式选择方法,包括:计算当前编码块的边方向强度值;根据最小所述边方向强度值所对应的预测模式和直流模式进行帧内预测处理。所述计算当前编码块的边方向强度值具体为:采用4×4像素块、8×8像素块或16×16像素块计算所述当前编码块的边方向强度值。本发明帧内预测模式选择方法通过采用边方向强度值这一边缘特征对预测模式进行选择,只保留具有最小边方向强度值的一个或多个预测模式以及DC模式,在编码性能没有改变的基础上能够有效地降低RDO运算量,缩短运算时间,提高帧内预测效率,从而达到实时编码的效果。

    一种基于基尼指数的领域自适应语义分割方法

    公开(公告)号:CN112116593B

    公开(公告)日:2024-06-21

    申请号:CN202010781502.8

    申请日:2020-08-06

    Abstract: 本发明公开了一种基于基尼指数的领域自适应语义分割方法,利用基尼指数度量输出预测的不确定性,在输出层对目标域输出预测进行不确定性度量及约束,减小源域和目标域在类别分布上的差异,进行域间自适应;依据基尼指数对目标域预测的不确定性度量结果将目标域样本集划分为两个子集,对域内高置信度预测对应的样本利用伪标签作为弱监督信息训练域内自适应分割网络,对域内自适应分割网络两个子集的输出预测计算基尼指数图,对低置信度样本计算的基尼指数图进行约束,并利用判别器Dt判别基尼指数图属于哪个子集,基于对抗思想减小目标域域内的差异,提高语义标注精度。与现有技术相比较,本发明显著提高了目标域的语义标注准确率。

    一种基于RGB数据的多视图三维物体重建方法及装置

    公开(公告)号:CN117710430A

    公开(公告)日:2024-03-15

    申请号:CN202311576097.6

    申请日:2023-11-23

    Abstract: 一种基于RGB数据的多视图三维物体重建方法及装置,能够提高基于图像的三维物体重建,增强语义信息和视觉信息之间的信息交互,得到一个更加可靠和可信的带有精细细节的三维形状。方法包括:(1)通过一个文本生成方法构建文本描述,然后进行特征提取,通过对齐文本和形状特征空间探索更广阔的语义空间,提取语义和几何一致的潜在特征;(2)使用transformer去获取视图之间的相关性,并且使用交叉注意力去增强文本和图像两个模态之间的信息提取;(3)得到增强特征后,将其分别送入到图像解码器和文本解码器生成对应的三维体素,这两个不同模态生成的三维体素有不同的焦点,融合这两种体素来进行三维重建。

    一种基于深度学习的多视角立体视觉三维场景重建方法

    公开(公告)号:CN112734915A

    公开(公告)日:2021-04-30

    申请号:CN202110072362.1

    申请日:2021-01-19

    Abstract: 本发明涉及一种基于深度学习的多视角立体视觉三维场景重建方法,现有的基于深度学习的重建方法,通过提取图像最后一层的特征以生成3D代价体,没有很好地利用浅层特征,这将丢失不同尺度的信息。而且,这些方法在深度图细化时,只考虑了参考图像本身对深度细化的效果,忽略了相邻图像的深度对深度图预测的贡献。为了解决上述问题,我们提出了多尺度特征提取与融合网络以及基于帧间相关性的深度图细化网络,来提升场景的预测精度和完整性。与现有的基于深度学习的方法相比,我们的方法能够更好地学习输入图像的上下文特征,重建出目标场景被遮挡和缺失的区域,能够更完整地恢复场景的三维信息,实现高精度的三维场景重建。

    一种无监督领域自适应语义分割方法

    公开(公告)号:CN112699892A

    公开(公告)日:2021-04-23

    申请号:CN202110026447.6

    申请日:2021-01-08

    Abstract: 本发明公开了一种无监督领域自适应语义分割方法,基于源域图像训练神经网络;利用已训练网络计算目标域图像伪标签;利用源域图像和有伪标签的目标域图像重训练网络,进一步提高伪标签准确性,优化网络的泛化能力。本方法通过利用自训练方法,利用已训练网络提取高置信度的目标域伪标签,弥补了目标域缺少监督信息的缺点,与其他方法相比,丰富了目标域数据的信息,提升网络对目标域数据的学习能力;本方法着重考虑了基于类别的域间差异,针对源域和目标域的预测进行类相关性度量,约束两个域的类相关性一致,减小了两个域类级别的域间差异,提高了网络的泛化能力,本发明的性能优于其他无监督领域自适应语义分割方法。

Patent Agency Ranking