图像精细化阴影区域分割系统、方法、装置

    公开(公告)号:CN109919949B

    公开(公告)日:2020-04-28

    申请号:CN201910168656.7

    申请日:2019-03-06

    Abstract: 本发明属于图像处理领域,具体涉及一种图像精细化阴影区域分割系统、方法、装置,旨在为了解决解决图像中阴影区域分割精细化程度不高的问题,本发明系统包括特征提取网络、反向融合网络、加权融合网络;特征提取网络包括顺次设置的多个采样层,通过各采样层依次获取多个输入图像阴影区域分割特征;反向融合网络包括分层设置的多个反向融合分支,所述反向融合分支包括顺次设置的多个特征融合层,通过各特征融合层依次对输入的两个特征进行融合;加权融合网络,配置为对多个反向融合分支的输出进行加权融合,获得最终的输入图像的阴影区域分割结果。本发明可以获得精细化程度较高的阴影区域分割结果。

    基于智能分析的心理评估方法及系统

    公开(公告)号:CN110279425A

    公开(公告)日:2019-09-27

    申请号:CN201910384732.8

    申请日:2019-05-09

    Abstract: 本发明涉及一种基于智能分析的心理评估方法及系统,所述方法包括:获取利用心理沙盘对受试者进行心理测评得到的第一沙盘数据;在受试者完成心理沙盘的制作后,获取受试者针对心理测评的测评过程输入的第一沙盘描述;获取在受试者进行心理测评时采集的第一表情信息、第一行为信息及第一生理参数信息;将第一沙盘数据、第一沙盘描述、第一表情信息、第一行为信息及第一生理参数信息输入至预设心理分析模型中,得到心理评估结果。本发明能够自动得到受试者的心理评估结果,节省心理评估时间,提高心理测评效率,减轻心理咨询师的负担,适用于大批量人群的心理筛查。

    智能算法模型自主生成及进化方法、系统、装置

    公开(公告)号:CN110222824A

    公开(公告)日:2019-09-10

    申请号:CN201910484484.4

    申请日:2019-06-05

    Abstract: 本发明属于人工智能领域,具体涉及一种智能算法模型自主生成及进化方法、系统、装置,旨在为了解决高效低功耗智能分析算法模型的便捷生成及进化问题。本发明通过LSTM网络模型和优化评测结果综合得分的方法,逐步生成智能算法模型的子结构信息以构建中间结构信息,每一个子结构信息完成后都会组合成一个当前状态的网络模型,通过对网络模型的训练与评测得到当前动作的评测得分用以指导下一个子结构信息的生成,直到在模型的评测结果达到预设条件得到自主进化的最优的智能算法模型。本发发明方法可以有效、简便的进行高速低功耗的智能算法模型的构建。

    基于Spark的分布式海量视频解析系统

    公开(公告)号:CN108683877A

    公开(公告)日:2018-10-19

    申请号:CN201810296322.3

    申请日:2018-03-30

    Abstract: 本发明涉及视频数据的处理领域,提出一种基于Spark的分布式海量视频解析系统,旨在解决海量视频数据追踪、识别行人的问题。该系统中:分布式文件子系统,配置为提供非结构化数据的交互接口;资源管理模块,为上层应用提供统一的资源管理和调度服务;分布式订阅子系统,作为系统的消息中间件,进行消息和数据的传递;数据处理模块,包括多个相互协作视觉处理算法子模块,将获取的视频数据解压缩为多帧图片,并对多帧图片进行行人检测、跟踪、行人属性识别、行人身份再识别等处理任务;前台展示模块,显示视频数据的处理结果并与用户进行交互。本发明实现了在海量的视频数据中高效准确的追踪行人踪迹,识别行人身份信息。

    基于视频的群体属性识别方法和装置

    公开(公告)号:CN108537128A

    公开(公告)日:2018-09-14

    申请号:CN201810209595.X

    申请日:2018-03-14

    Abstract: 本发明涉及视频图像处理技术领域,具体提供了一种基于视频的群体属性识别方法和装置,旨在解决如何提高群体属性识别的准确率的技术问题。为此目的,本发明中的基于视频的群体属性识别方法,包括下述步骤:利用预设深度神经网络获取目标视频的连续单帧图像的图像特征;利用预设卷积递归网络依次对所获取的连续单帧图像的图像特征进行序列化的编码,得到目标视频的视频特征;根据所获取的视频特征,利用预设注意力模型预测不同时刻的注意特征;根据所获取的注意特征,利用预设双向长短时记忆网络预测群体属性。通过本发明可以提高群体属性识别的准确率。

    基于跨时重叠率的视觉跟踪算法稳定性评估方法及装置

    公开(公告)号:CN108364301A

    公开(公告)日:2018-08-03

    申请号:CN201810144033.1

    申请日:2018-02-12

    Abstract: 本发明涉及计算机视觉领域,具体涉及基于跨时重叠率的视觉跟踪算法稳定性评估方法及装置,旨在解决评估视觉跟踪算法稳定性评估不准确的问题。具体是:将视频中同一物体在所有帧中的位置对齐为相同的位置;根据相同的对齐参数将某视觉跟踪算法的跟踪结果进行归一化;在一段时间跨度内,计算所有归一化的跟踪结果与归一化的物体标注框之间的重叠率;将该跨时重叠率在整段视频的所有帧上求平均,得到该视频下的跨时重叠率得分;将跨时重叠率在某类物体的所有视频和所有物体类别上求取平均值,再基于时间跨度进行平均,得到视觉跟踪算法在完整视觉跟踪数据集下的稳定性评估结果。本发明能有效反映视觉跟踪算法跟踪的稳定性及准确性。

    交互式智能家庭服务系统及方法

    公开(公告)号:CN107065586A

    公开(公告)日:2017-08-18

    申请号:CN201710367540.7

    申请日:2017-05-23

    Abstract: 本发明涉及一种交互式智能家庭服务系统及方法,所述系统包括:视频监控单元、语音单元、交互终端和分析服务器。通过对传统的智能家居系统进行改造,使其具备自动感知、自我学习的能力,从而提升设备智能化的交互体验。分析服务器通过根据视觉、听觉、通信数据,对用户场景、身份和行为进行智能分析、进行模式类别切换,主动探知不同情景下用户的需求,智能化地实现交互和服务,并通过分布式的语音交互系统整合不同智能设备的功能,从而实现信息的主动交互,降低结构连接的复杂程度。

    一种基于数据与任务驱动的图像分类方法

    公开(公告)号:CN103984959B

    公开(公告)日:2017-07-21

    申请号:CN201410224860.3

    申请日:2014-05-26

    Abstract: 本发明公开了一种基于数据与任务驱动的图像分类方法,该方法包括:根据数据集规模与图像内容设计卷积神经网络结构;使用给定分类数据集对卷积神经网络模型进行训练;使用训练后的卷积神经网络对训练集图像提取特征表达;将测试图像输入训练后的卷积神经网络,并进行分类。本发明方法基于非线性卷积特征学习,可以以数据驱动的方式实现模型对数据集的自适应,从而更好的描述特定的数据集,通过任务驱动的方式直接对K近邻的误差进行优化,使其能够在K近邻任务上取得更好的性能;并且在训练阶段可以采用GPU进行高效训练,在测试阶段只需使用CPU就可以实现高效的K近邻图像分类,非常适用于大规模的图像分类、检索等任务。

    基于多任务深度学习的自然图像美感质量评估方法

    公开(公告)号:CN105894025A

    公开(公告)日:2016-08-24

    申请号:CN201610195565.9

    申请日:2016-03-30

    CPC classification number: G06K9/6267 G06K9/6256

    Abstract: 本发明公开了一种基于多任务深度学习的自然图像美感质量评估方法。其中,该方法包括步骤1:对所述自然图像进行基于多任务深度学习的美感和语义特征的自动学习;步骤2:针对自动学习的结果,进行基于多任务深度学习的美感分类和语义识别,从而实现对自然图像的美感质量评估。本发明利用语义信息来辅助美感特征的表达学习,从而更加有效地进行美感质量评估,并且设计多种多任务深度学习网络结构来有效地利用美感和语义信息来获得高准确率的图像美感分类。本发明能应用于涉及图像美感质量评估的众多领域,包括图像检索、摄影学及相册管理等。

    基于成对约束的在线词典再加权对图像进行分类的方法

    公开(公告)号:CN102509110B

    公开(公告)日:2014-04-23

    申请号:CN201110325938.7

    申请日:2011-10-24

    Abstract: 本发明公开了一种基于成对约束的在线词典再加权对图像进行分类的方法,包括:对所有训练集图像进行底层特征提取,构建初始视觉词典;采用稀疏编码对提取的底层特征进行特征变换,得到编码后的特征;对编码后的特征进行最大值汇聚,得到一个用向量表达的特征,以利用分类器进行分类;以及利用成对约束对所述用向量表达的特征进行在线词典再加权,并送入分类器进行训练和分类。本发明利用成对约束,可以有效地编码成对图像之间的关系,基于保守-激进训练策略提出的在线学习算法,大大减少了训练时间,并可以实现增量更新,尤其适用于海量数据集。

Patent Agency Ranking