一种基于无线Mesh网络的区块链节点信任值计算方法

    公开(公告)号:CN116506884A

    公开(公告)日:2023-07-28

    申请号:CN202310485182.5

    申请日:2023-04-28

    Inventor: 刘晨阳 张姿

    Abstract: 本发明是一种基于无线Mesh网络的区块链节点信任值计算方法。节点的信任值主要从两方面计算。任务信任值,根据节点的交互记录计算节点的社交信誉,以社交信誉值作为激励因素,结合节点的任务表现获得评价节点区块链任务能力的任务信任值;中继信任值,将节点的路径安全性结合数据转发表现计算得节点直接中继信任值,通过邻居节点的推荐获得间接中继信任值,整合两种信任值得节点中继信任值。最终的节点信任值便是将任务信任值与中继信任值按一定的权值比例进行结合,使其能兼顾区块链与无线Mesh网络两种节点属性,评判更加合理、全面。

    头盔佩戴检测方法、计算机可读存储介质和电子设备

    公开(公告)号:CN112598055B

    公开(公告)日:2022-06-17

    申请号:CN202011519641.X

    申请日:2020-12-21

    Abstract: 本发明公开了头盔佩戴检测方法、计算机可读存储介质和电子设备,方法包括以下步骤:将待检测数据输入第四模型,将第四模型的输出进行头盔佩戴检测;其中,第四模型由以下方式得到:利用人头数据对第一模型进行训练,训练完成得到第二模型;利用人头数据和头盔数据的第一混合数据对第二模型进行训练,训练完成得到第三模型;利用人头数据、头盔数据和现场数据的第二混合数据对第三模型进行训练,训练完成得到第四模型。本发明首先采用人头数据集进行训练,再采用头盔+人头的数据集训练,最后在现场数据集上进行训练,让神经网络在能够正确区分头盔和人头的前提下,在超复杂、高密度、小尺度的条件下训练,最终实现高准确率的定位。

    一种基于场景图的图像理解与表达方法、系统与存储介质

    公开(公告)号:CN114612767A

    公开(公告)日:2022-06-10

    申请号:CN202210243982.1

    申请日:2022-03-11

    Inventor: 匡平 刘晨阳

    Abstract: 本发明公开一种基于视觉场景图生成的图像内容理解与表达方法、系统与存储介质,应用于图像理解与表达领域,针对现有技术存在的图像表达准确率和效率均较低的问题;本发明提出了基于关键中心点估计的视觉场景图生成方法,不使用大量目标检测锚框和后处理手段,提升了场景图生成的准确率和效率,并充分理解了图像内容本身里目标实体和实体之间、实体和属性、实体和背景之间的关系,使得图像内容表达语句更准确、更贴近图像内容本身;本发明还引入先验语料知识,补足场景图生成过程中关系谓词等词汇输出的缺失,提升了图像内容理解与表达的表达语句准确率和拟人化水平;相比于现有技术,本发明的图像表达准确率和效率均有显著的提升。

    一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质

    公开(公告)号:CN112633174A

    公开(公告)日:2021-04-09

    申请号:CN202011547351.6

    申请日:2020-12-23

    Abstract: 本发明属于图像信息处理技术领域,具体公开了一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质,方法包括对YOLOv4模型进行改进,在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项;运用预先采集的训练数据集,并利用微调后的模型参数对改进后的YOLOv4模型进行训练,得到训练好的模型;将待检测视频逐帧输入训练好的模型,通过输出结果的置信度是否达到设定的阈值,来判断当前视频帧中有无火灾。本方法是一种新的应用于高穹顶场景下的火灾检测方法,并且在普通场景下具有适用性,大大提高了检测精度。

    头盔佩戴检测方法、计算机可读存储介质和电子设备

    公开(公告)号:CN112598055A

    公开(公告)日:2021-04-02

    申请号:CN202011519641.X

    申请日:2020-12-21

    Abstract: 本发明公开了头盔佩戴检测方法、计算机可读存储介质和电子设备,方法包括以下步骤:将待检测数据输入第四模型,将第四模型的输出进行头盔佩戴检测;其中,第四模型由以下方式得到:利用人头数据对第一模型进行训练,训练完成得到第二模型;利用人头数据和头盔数据的第一混合数据对第二模型进行训练,训练完成得到第三模型;利用人头数据、头盔数据和现场数据的第二混合数据对第三模型进行训练,训练完成得到第四模型。本发明首先采用人头数据集进行训练,再采用头盔+人头的数据集训练,最后在现场数据集上进行训练,让神经网络在能够正确区分头盔和人头的前提下,在超复杂、高密度、小尺度的条件下训练,最终实现高准确率的定位。

    室内密集场景的人流密度检测方法、系统存储介质及终端

    公开(公告)号:CN112733624B

    公开(公告)日:2023-02-03

    申请号:CN202011570465.2

    申请日:2020-12-26

    Abstract: 本发明公开了一种室内密集场景的人流密度检测方法、系统存储介质及终端,方法包括采用随机组合方式对图像进行预处理;预测输入图像的目标中心点;对目标中心点真值进行下采样处理;采用高斯核函数分散有效真值,形成目标中心点热力图;确立热力图局部峰值点,并以热力图作为置信度,对目标尺寸进行回归处理,输出目标边缘框。本发明对图像进行预处理,大大增加了图像的可变性,使整个检测方法具有更强的鲁棒性;基于目标中心点预测方法回归出目标边缘框,直接将关键点直接分配与待测目标上,无需使用锚点框,不存在多个预选框相互重叠的情况,减少了在人头密集的场景中因为后处理而造成的待检测的真实目标丢失的情况,检测精确度高。

    一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质

    公开(公告)号:CN112633174B

    公开(公告)日:2022-08-02

    申请号:CN202011547351.6

    申请日:2020-12-23

    Abstract: 本发明属于图像信息处理技术领域,具体公开了一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质,方法包括对YOLOv4模型进行改进,在YOLOv3损失函数的基础上添加原有YOLOv4损失函数的CIOU loss分支得到新的损失函数,并引入新的参数作为惩罚项;运用预先采集的训练数据集,并利用微调后的模型参数对改进后的YOLOv4模型进行训练,得到训练好的模型;将待检测视频逐帧输入训练好的模型,通过输出结果的置信度是否达到设定的阈值,来判断当前视频帧中有无火灾。本方法是一种新的应用于高穹顶场景下的火灾检测方法,并且在普通场景下具有适用性,大大提高了检测精度。

Patent Agency Ranking