-
公开(公告)号:CN118115924B
公开(公告)日:2024-07-05
申请号:CN202410508296.1
申请日:2024-04-26
Applicant: 南京航空航天大学
IPC: G06V20/40 , G06V20/52 , G06V10/82 , G06N3/0464 , G06N3/0442 , G06N3/08
Abstract: 本发明属于计算机视觉与人工智能技术领域,具体公开了一种基于多帧关键特征融合的电梯轿厢异常事件检测方法。本发明方法针对老旧小区电梯监控中的异常事件检测问题,充分考虑了监控视频中的目标的时空特性以及视觉特征,提出了一种基于目标检测模型的电梯异常事件检测方法,该电梯异常事件检测方法一方面通过电梯轿厢监控视频,能够直接检测电梯内部的人的异常行为活动以及电梯本身的异常状态;另一方面通过基于多帧特征融合的检测算法大大降低了检测误差,从而降低了错报漏报的发生。本发明实现了电梯轿厢内的异常事件检测,解决了单帧目标不明显的问题,能够结合上下文实现异常事件的识别。
-
公开(公告)号:CN117649028B
公开(公告)日:2024-04-02
申请号:CN202410107445.3
申请日:2024-01-26
Applicant: 南京航空航天大学
IPC: G06Q10/04 , G06Q50/26 , G06N3/0442 , G06N3/0464
Abstract: 本发明属于人群流量趋势预测技术领域,公开了一种基于城市功能区域匹配的跨城市人群流量趋势预测方法,其包括如下步骤:获取源城市人群流动轨迹;将源城市人群流动轨迹进行网格时序化处理;构建源城市人群流量趋势预测任务训练数据集;以多分类形式训练ConvLSTM神经网络;将目标城市人群流动轨迹进行网格时序化处理;匹配源城市相似功能区域,重建目标城市人群流动轨迹;预测目标城市人群流动趋势,得到目标城市人群下一时间段流向的预测结果。本发明通过跨城市功能区域匹配,将数据丰富的源城市人群流动模式迁移到数据稀疏的目标城市,最终以概率分布的形式预测未来时间段城市人群的流向分布。
-
公开(公告)号:CN117649028A
公开(公告)日:2024-03-05
申请号:CN202410107445.3
申请日:2024-01-26
Applicant: 南京航空航天大学
IPC: G06Q10/04 , G06Q50/26 , G06N3/0442 , G06N3/0464
Abstract: 本发明属于人群流量趋势预测技术领域,公开了一种基于城市功能区域匹配的跨城市人群流量趋势预测方法,其包括如下步骤:获取源城市人群流动轨迹;将源城市人群流动轨迹进行网格时序化处理;构建源城市人群流量趋势预测任务训练数据集;以多分类形式训练ConvLSTM神经网络;将目标城市人群流动轨迹进行网格时序化处理;匹配源城市相似功能区域,重建目标城市人群流动轨迹;预测目标城市人群流动趋势,得到目标城市人群下一时间段流向的预测结果。本发明通过跨城市功能区域匹配,将数据丰富的源城市人群流动模式迁移到数据稀疏的目标城市,最终以概率分布的形式预测未来时间段城市人群的流向分布。
-
公开(公告)号:CN118115924A
公开(公告)日:2024-05-31
申请号:CN202410508296.1
申请日:2024-04-26
Applicant: 南京航空航天大学
IPC: G06V20/40 , G06V20/52 , G06V10/82 , G06N3/0464 , G06N3/0442 , G06N3/08
Abstract: 本发明属于计算机视觉与人工智能技术领域,具体公开了一种基于多帧关键特征融合的电梯轿厢异常事件检测方法。本发明方法针对老旧小区电梯监控中的异常事件检测问题,充分考虑了监控视频中的目标的时空特性以及视觉特征,提出了一种基于目标检测模型的电梯异常事件检测方法,该电梯异常事件检测方法一方面通过电梯轿厢监控视频,能够直接检测电梯内部的人的异常行为活动以及电梯本身的异常状态;另一方面通过基于多帧特征融合的检测算法大大降低了检测误差,从而降低了错报漏报的发生。本发明实现了电梯轿厢内的异常事件检测,解决了单帧目标不明显的问题,能够结合上下文实现异常事件的识别。
-
公开(公告)号:CN117131162A
公开(公告)日:2023-11-28
申请号:CN202311384469.5
申请日:2023-10-25
Applicant: 南京航空航天大学
IPC: G06F16/33 , G06F16/35 , G06F16/583 , G06F16/55 , G06F18/25 , G06F18/24 , G06N3/0499 , G06N3/08
Abstract: 本发明公开了一种基于跨模态特征交互建模的用户情感识别方法,其包括如下步骤:抓取用户发表的文本‑图片对并标注每个文本‑图片对的情感极性,形成训练数据集;抽取文本单词与图片局部区域的交互特征;抽取文本短语与图片局部区域的交互特征;抽取文本整体与图片整体区域的交互特征;基于匹配卷积神经网络抽取文本与图片之间不同粒度的跨模态交互特征;利用多层感知机融合跨模态交互特征构建用户情感二分类模型;基于有监督学习方法训练用户情感二分类模型;基于训练完成的模型识别用户发布文本‑图片对的情感极性。本发明实现了跨文本与图片的联合情感分析,能够捕捉文本内容与图片区域之间不同粒度的语义匹配关系,有效识别用户的情感极性。
-
-
-
-