一种基于图嵌入的社交网络中异常用户检测方法

    公开(公告)号:CN109949176B

    公开(公告)日:2022-07-15

    申请号:CN201910245861.9

    申请日:2019-03-28

    Abstract: 本发明公开了一种基于图嵌入的社交网络中异常用户检测方法,根据社交网络图中的用户节点和社区的归属关系值构建初始的用户节点嵌入模型,然后根据某个用户节点和其他用户节点建立目标函数,进而得到最终的用户节点嵌入模型,选取某个用户节点最终嵌入模型和其他用户节点之间的连接关系得到嵌入加权向量公式,根据嵌入加权向量公式采用数据归一化方法得到用户节点的异常水平公式,当用户节点异常水平大于最大阈值或者小于最小阈值定义为异常用户节点。本发明方法能够有效提升社交网络中异常用户节点检测的有效性和准确性。

    一种基于动静特征的视频分类方法

    公开(公告)号:CN108399435B

    公开(公告)日:2020-09-25

    申请号:CN201810237226.1

    申请日:2018-03-21

    Abstract: 本发明公开一种基于动静特征的视频分类方法,解决视频分类准确度不够高的问题。本发明首先对视频中的动态特征和静态特征进行处理,利用Cholesky变换对这些信息融合后,使用GRU神经网络完成视频的分类;接着通过DT算法捕获每个视频帧的动态特征,再通过DBSCAN聚类算法将每个视频帧隔离,在每个视频片段的每个帧里构建运动框并连接每个视频片段相邻帧之间的运动框,完成动态特征的捕获和跟踪;然后通过HoG和BoW方法将动态特征生成动态信息直方图与通过CNN神经网络生成的静态信息直方图利用Cholesky变换相融合;最后利用GRU神经网络实现视频的分类。本发明通过对动态和静态信息的分开处理,能够提升视频分类的准确性,具有良好的实施性和鲁棒性。

    一种基于新型高分辨率网络模型的单人姿态估计方法

    公开(公告)号:CN110175575A

    公开(公告)日:2019-08-27

    申请号:CN201910454096.1

    申请日:2019-05-29

    Abstract: 本发明公开一种基于新型高分辨率网络架构进行单人姿态估计的方法。该发明首先用检测器对输入的包含单个行人的图像进行检测,去除不精确的检测框,其次通过数据增强来扩充数据集;然后在实例化网络结构中通过并行多分辨率子网保持高分辨率特征图,而不需要恢复分辨率,在并行子网中引入交换单元,使每个子网重复地从其他并行子网接收信息,提高对单人姿态估计的准确率;由于在大多数的复杂场景中,会出现关键点被遮挡的现象,所以提出使用一个关键点掩蔽的数据增强方案,通过这个方案可以很有效地微调训好的卷积神经网络,通过相邻的匹配强大地定位被遮挡的关键点,提升对遮挡问题的准确率,从而得到更优的模型。

    一种基于多维融合特征的视频群体人物定位检测方法

    公开(公告)号:CN109903339A

    公开(公告)日:2019-06-18

    申请号:CN201910235608.5

    申请日:2019-03-26

    Abstract: 本发明公开一种多维融合特征的视频群体人物定位检测方法。该发明首先抽取多层级视频特征图,建立自顶向下和自底向上的双向特征处理通道充分挖掘视频的语义信息,接着融合多层级视频特征图获取多维融合特征,抓取视频候选目标,最后并行处理候选目标位置回归和类别分类,完成视频群体人物定位检测。本发明通过融合多层级特征获得丰富的视频语义信息,同时进行多任务预测操作,有效提升群体人物定位检测的速度,具有良好的准确率和实施性。

    一种利用多目摄像头检测运动目标的装置及方法

    公开(公告)号:CN109934854B

    公开(公告)日:2022-09-02

    申请号:CN201910245857.2

    申请日:2019-03-28

    Abstract: 本发明公开了一种利用多目摄像头检测运动目标的装置及方法,包括4个摄像头,分别为中心摄像头C0,摄像头C1~C3以及控制系统,通过摄像头C1~C3以检测目标是否存在;检测到目标后,输出脉冲至摄像头C0,C0将对目标成像;摄像头通过球坐标系成像,将空间信息映射至球坐标系,并计算穿过平面上一点的切平面的方程;之后在空间球坐标系里形成目标物体到小眼的圆锥投影,然后计算得到椭圆投影面积S,得出目标椭圆成像结果;本发明降低了检测难度和复杂度。

    基于子群组划分与动量特征融合的人群运动行为识别方法

    公开(公告)号:CN109064484B

    公开(公告)日:2022-02-08

    申请号:CN201810236397.2

    申请日:2018-03-21

    Abstract: 本发明公开了一种基于子群组划分与动量特征融合的人群运动行为识别方法,该方法首先利用角点跟踪和背景建模的方法,获取视频图像帧中运动目标的时空信息,利用前景中群体分布的空间区域信息,将空间上相邻近的人群划分为若干子群体,子群体通过一段时间内的运动相关性进行进一步的分割,得到具有运动一致性的子群体;其次在子群体分割的基础上,提取出人群运动三个动量特征进行融合;最后将融合的特征以及视频帧的像素特征作为微分循环卷积神经网络的输入进行训练,采用人工标记的方法将训练视频片段标记成不同的描述词汇,用带标记的数据调整微分循环卷积神经网络的结果,得到了良好的训练成果,能够有效识别人群的运动行为,达到较好的效果。

    一种基于神经网络的人体行为识别方法及系统

    公开(公告)号:CN108764059B

    公开(公告)日:2021-01-01

    申请号:CN201810422265.9

    申请日:2018-05-04

    Abstract: 本发明公开一种基于神经网络的人体行为识别方法,解决穿戴式传感器数据的人体行为识别准确度不够高的问题。本发明首先通过穿戴式图像传感器采集的图像信息采用了灰度化处理,再对图像数据进行直方图均衡化处理,使用LSTM‑RNN神经网络算法对处理后的传感器的图像信息进行场景识别。对于穿戴式运动传感器的运动数据输入,使用LSTM‑RNN神经网络算法运动传感器的加速度信息进行动作识别。并将使用场景标记的运动序列在行为数据库中进行匹配,得到具体的行为信息。使用警报模块通知用户紧急信息。本发明通过这些方法的应用与系统中配套模块的支持对人体穿戴传感器数据完成行为识别,能够提高人体行为识别的准确性与稳定性,具有良好的实施性与实效性。

    一种基于卷积自编码模型的唇部特征提取方法

    公开(公告)号:CN110163156A

    公开(公告)日:2019-08-23

    申请号:CN201910437384.6

    申请日:2019-05-24

    Abstract: 本发明公开一种基于卷积自编码模型的唇部特征提取方法,该发明首先通过对用户输入的视频逐帧提取唇部区域;然后对每帧唇部区域图像进行处理;处理完成后利用卷积自编码模型来提取唇部区域图像特征,最后将特征输入到LSTM进行训练,LSTM根据输入的特征对单词进行分类,从而完成对唇部的读取。本发明通过对唇部图像的压缩与重构,有助于帮助我们从唇部图像中提取视觉特征,从而得到更准确的潜在表示空间,能够有效提升唇读的准确性与可靠性。

    一种基于动静特征的视频分类方法

    公开(公告)号:CN108399435A

    公开(公告)日:2018-08-14

    申请号:CN201810237226.1

    申请日:2018-03-21

    Abstract: 本发明公开一种基于动静特征的视频分类方法,解决视频分类准确度不够高的问题。本发明首先对视频中的动态特征和静态特征进行处理,利用Cholesky变换对这些信息融合后,使用GRU神经网络完成视频的分类;接着通过DT算法捕获每个视频帧的动态特征,再通过DBSCAN聚类算法将每个视频帧隔离,在每个视频片段的每个帧里构建运动框并连接每个视频片段相邻帧之间的运动框,完成动态特征的捕获和跟踪;然后通过HoG和BoW方法将动态特征生成动态信息直方图与通过CNN神经网络生成的静态信息直方图利用Cholesky变换相融合;最后利用GRU神经网络实现视频的分类。本发明通过对动态和静态信息的分开处理,能够提升视频分类的准确性,具有良好的实施性和鲁棒性。

Patent Agency Ranking