小样本命名实体识别方法
    1.
    发明公开

    公开(公告)号:CN116894435A

    公开(公告)日:2023-10-17

    申请号:CN202310937538.4

    申请日:2023-07-27

    Applicant: 武汉大学

    Abstract: 本发明公开了一种小样本命名实体识别方法,包括:建立T5模型,并且重新构造T5模型的输入,并将T5模型输出构造为给定模板形式;采用T5模型进行预测时对其多个输出进行多数投票,筛选出最可能的预测结果;将上述筛选的预测结果进行拆分重构,并将其转换为NER问题的标准三元组形式,作为对应输入文本的最终输出;获取样本数据集,将样本数据集划分为训练集和验证集,采用训练集训练T5模型,并采用验证集进行验证获得优化后的T5模型;对优化后的T5模型进行测试评价,采用测试评价后的T5模型预测命名实体识别。本发明提高了模型对相似实体类型标签的分辨能力以及模型对于单一样本的预测准确度。

    一种基于压缩域融合的Meanshift核窗宽动态更新方法

    公开(公告)号:CN103440669A

    公开(公告)日:2013-12-11

    申请号:CN201310409854.0

    申请日:2013-09-10

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于压缩域融合的Meanshift核窗宽动态更新方法,该方法将压缩域分析与Meanshift跟踪算法相结合,即首先对视频编码过程中产生的运动矢量进行概率统计分析,以获取目标运动的尺寸大小,据此动态更新目标的颜色概率模型及核窗宽大小,使得目标模型更加真实。本发明的技术方案不仅提高了目标尺寸明显变化下的运动跟踪精度,而且提高了运算效率。该方案尤其适用于智能视频监控设备中的视频编码与目标跟踪同时进行的情况。

    一种基于双目深度感知的车辆可行驶区域计算方法

    公开(公告)号:CN105809130B

    公开(公告)日:2020-03-10

    申请号:CN201610129671.7

    申请日:2016-03-08

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于双目深度感知的车辆可行驶区域计算方法,通过检测出关键目标的类别以及其运动行为,再结合一些车辆驾驶规则中的先验知识,定义相关目标与自身车辆的行驶之间的相互影响规则,再根据这些影响规则计算出场景中的每个占用网格对于自身车辆的行驶代价,最终计算出车辆的可行驶区域用以表述以自身车辆为中心的交通场景;本发明实现了在交通场景中对于行人,车辆这类关键目标的精确识别并预估其运动轨迹作行为分析,具有较高的可行性与准确性,可应用于智能交通领域中的无人驾驶,驾驶辅助系统等方向。

    一种基于双目深度感知的车辆可行驶区域计算方法

    公开(公告)号:CN105809130A

    公开(公告)日:2016-07-27

    申请号:CN201610129671.7

    申请日:2016-03-08

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于双目深度感知的车辆可行驶区域计算方法,通过检测出关键目标的类别以及其运动行为,再结合一些车辆驾驶规则中的先验知识,定义相关目标与自身车辆的行驶之间的相互影响规则,再根据这些影响规则计算出场景中的每个占用网格对于自身车辆的行驶代价,最终计算出车辆的可行驶区域用以表述以自身车辆为中心的交通场景;本发明实现了在交通场景中对于行人,车辆这类关键目标的精确识别并预估其运动轨迹作行为分析,具有较高的可行性与准确性,可应用于智能交通领域中的无人驾驶,驾驶辅助系统等方向。

    基于压缩域分析的Meanshift运动目标跟踪方法

    公开(公告)号:CN101867798A

    公开(公告)日:2010-10-20

    申请号:CN201010181393.2

    申请日:2010-05-18

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于视频压缩域分析的Mean shift运动目标跟踪方法。该方法将压缩域分析与Mean shift跟踪算法相结合,即首先对视频编码过程中产生的运动矢量进行概率统计分析,以获取目标运动方向与运动速度的估计值,再以此修正Mean shift运动候选区域的中心位置,使每次搜索开始时,候选中心位置更接近实际目标中心位置。本发明的技术方案不仅提高了快速运动目标跟踪的精度,而且减少了算法的搜索迭代次数,提高了运算效率。该方案尤其适用于智能视频监控设备中的视频编码与目标跟踪同时进行的情况。

Patent Agency Ranking