一种基于视觉的作业人员危险行为检测方法及系统与流程

专利查询2023-3-4  151



1.本发明涉及行为检测识别领域,特别是涉及一种基于视觉的作业人员危险行为检测方法及系统。


背景技术:

2.近年来,生产线上的作业人员的安全问题越来越受到社会的关注,当前生产车间对于作业人员的管控大多通过人力来进行人员的异常行为监控,对于一些设备多、生产工艺复杂的车间,还采用人工巡视的方式巡查视频监控盲区,不仅效率低下,还无法分析和预警作业人员的危险行为。在生产线上,当有作业人员因打盹、看手机、闲聊等行为发生摔倒或晕倒甚至失去意识等意外时,可能会因为无人及时发现而延误治疗,以致生命受到威胁。这不仅使监控人员处于繁重的监控巡查任务中,生产线上作业人员的生命安全也无法得到保障。因此,自动、有效地检测出作业人员的危险行为,并及时对危险行为进行预警,就显得尤为重要。
3.目前的智能视频监控方法通常使用基于深度学习的目标检测方法,但这种检测方法只能检测出作业人员的整体位置,无法对作业人员的姿态行为进行识别分析,也就无法识别出作业人员的危险行为,更无法对危险行为及时做出预警。因此,目前亟需一种能够自动检测作业人员危险行为并及时进行预警的方法及系统,以解决现有技术中无法有效检测作业人员危险行为,无法对危险行为进行及时预警的问题。


技术实现要素:

4.本发明的目的是提供一种基于视觉的作业人员危险行为检测方法及系统,以能够有效检测出作业人员的危险行为,并能够及时对危险行为做出预警,解决现有技术中无法有效检测作业人员危险行为,无法对危险行为进行及时预警的问题。
5.为实现上述目的,本发明提供了如下方案:
6.一方面,本发明提出了一种基于视觉的作业人员危险行为检测方法,包括:
7.对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息;
8.对人体目标检测后的监控图片进行人体姿态关键点定位;所述人体姿态关键点定位通过对多个人体关键点进行定位的方式以确定人体当前的行为姿态;
9.根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果;
10.根据所述危险行为分析结果,判断是否激活报警器。
11.可选的,所述人体姿态关键点包括左眼、右眼、鼻子、左耳、右耳、脖子、左肩、右肩、左手肘、右手肘、左手腕、右手腕、左腰、右腰、左膝盖、右膝盖、左脚和右脚。
12.可选的,所述根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果,具体包括:
13.设置危险行为样本库;所述危险行为样本库包括多个危险行为样本,所述危险行
为样本包括摔倒或晕倒、玩手机、违规倚靠、攀爬和人员聚集的危险行为类别的样本数据;
14.根据所述位置信息和所述人体姿态关键点定位信息,识别作业人员的当前动作姿态和周围环境信息;所述周围环境信息用于判断作业人员周围是否存在倚靠物或攀爬物;
15.将作业人员的当前动作姿态和周围环境信息与所述样本库中危险行为样本进行对比,以确定作业人员的当前动作姿态与危险行为样本库中的各个危险行为类别是否一致,得到危险行为分析结果。
16.可选的,所述对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息,具体包括:
17.采用yolov5深度网络模型对监控图片中的作业人员进行人体目标检测,得到各个作业人员的位置信息。
18.可选的,所述yolov5深度网络模型包括backbone层、neck层和head层;
19.其中,所述backbone层为主干网络,用于在不同图像细粒度上聚合并形成图像特征;所述backbone层包括focus结构和cspnet结构,所述cspnet结构用于将梯度变化集成到图像特征图中;
20.所述neck层用于对图像特征进行混合和组合,并将图像特征传递到head层;所述neck层包括fpn结构和pan结构;
21.所述head层用于对图像特征进行预测,并生成边界框及预测类别,得到作业人员的预测框,所述预测框为作业人员的目标检测结果。
22.可选的,所述对人体目标检测后的监控图片进行人体姿态关键点定位,具体包括:
23.采用openpose对人体目标检测后的监控图片进行人体姿态关键点定位;
24.所述openpose包括第一分支结构和第二分支结构;
25.所述第一分支结构用于对提取到的人体姿态关键点的置信度进行预测;
26.所述第二分支结构用于对作业人员的各个关节之间的关联程度进行编码分析得到亲和度向量,通过对人体姿态关键点的置信度和亲和度向量进行推测解析,以实现对人体姿态关键点的定位。
27.可选的,在步骤“对监控图片中的作业人员进行人体目标检测,得到各个作业人员的位置信息”之前,还包括:
28.采集生产区域的实时视频监控数据,得到视频流;
29.从所述视频流中以预设频次截取监控图片,并对所述监控图片进行预处理。
30.可选的,所述对所述监控图片进行预处理,具体包括:
31.对所述监控图片进行裁剪处理,以符合模型对输入图片尺寸的要求,得到裁剪后的监控图片;
32.对所述裁剪后的监控图片进行降噪滤波处理,得到预处理后的监控图片。
33.可选的,所述根据所述危险行为分析结果,判断是否激活报警器,具体包括:
34.当发生危险行为时,则立即激活报警器,并将该作业人员的危险行为类别和位置信息发送至处理器,以对危险行为进行及时处理。
35.另一方面,本发明还提出了一种基于视觉的作业人员危险行为检测系统,包括:
36.人体目标检测模块,用于对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息;
37.人体姿态关键点定位模块,用于对人体目标检测后的监控图片进行人体姿态关键点定位;所述人体姿态关键点定位通过对多个人体关键点进行定位的方式以确定人体当前的行为姿态;
38.危险行为分析模块,用于根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果;
39.危险行为报警模块,用于根据所述危险行为分析结果,判断是否激活报警器。
40.根据本发明提供的具体实施例,本发明公开了以下技术效果:
41.本发明提供一种基于视觉的作业人员危险行为检测方法,对监控图片中的作业人员进行人体目标检测和人体姿态关键点定位,从而判断出监控图片中是否有作业人员,并确定作业人员在图像中的具体位置信息和姿态关键点定位信息,并根据作业人员的位置信息和姿态关键点定位信息进行危险行为分析,从而识别出作业人员的当前动作姿态是否为危险行为,从而实现了对作业人员的危险行为的准确、高效地检测识别。并且,当作业人员发生危险行为时,还能够针对危险行为及时做出报警,从而能够有效预防恶性事故的发生,不仅能够解决现有技术无法自动、准确地检测危险行为动作,无法对危险行为做出报警的问题,还能够有效保障作业人员的人身安全,且还能够将厂区监控人员从繁重的监控巡查工作中解放出来,提升了生产厂区安全管理的效率。
附图说明
42.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
43.图1为本发明实施例1提供的基于视觉的作业人员危险行为检测方法的流程图;
44.图2为本发明实施例1提供的openpose网络结构图;
45.图3为本发明实施例1提供的人体姿态关键点的分布示意图;
46.图4为本发明实施例2提供的基于视觉的作业人员危险行为检测系统的结构框图。
47.标号说明:
48.0-鼻子;1-脖子;2-左肩;3-左手肘;4-左手腕;5-右肩;6-右手肘;7-右手腕;8-左腰;9-左膝盖;10-左脚;11-右腰;12-右膝盖;13-右脚;14-左眼;15-右眼;16-左耳;17-右耳。
具体实施方式
49.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
50.本发明的目的是提供一种基于视觉的作业人员危险行为检测方法及系统,以能够有效检测出作业人员的危险行为,并能够及时对危险行为做出预警,解决现有技术中无法有效检测作业人员危险行为,无法对危险行为进行及时预警的问题。
51.为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
52.实施例1
53.如图1所示,本实施例提出了一种基于视觉的作业人员危险行为检测方法,该方法具体包括以下步骤:
54.步骤s1、采集生产区域的实时视频监控数据,得到视频流。
55.本实施例采用安装于生产厂区的各个角落的双目摄像头,实时采集生产区域的视频监控数据,得到视频流。
56.步骤s2、从所述视频流中以预设频次截取监控图片,并对所述监控图片进行预处理。具体包括:
57.步骤s2.1、对所述监控图片进行裁剪处理,以符合模型对输入图片尺寸的要求,得到裁剪后的监控图片。
58.本实施例采用yolov5深度网络模型对监控图片中的作业人员进行人体目标检测,因此,在对监控图片进行裁剪时,按照yolov5深度网络模型的输入图片的尺寸要求对监控图片进行裁剪,使得裁剪后的监控图片很容易地输入到yolov5深度网络模型,从而提升了yolov5深度网络模型进行人体目标检测的速度,进而提升了检测识别危险行为的整体速度和效率。
59.步骤s2.2、对所述裁剪后的监控图片进行降噪滤波处理,得到预处理后的监控图片。
60.本实施例中,通过对裁剪后的监控图片进行降噪、滤波等处理,能够有效消除监控图片上的杂波等干扰,得到更加清晰、品质更高的图像,从而提高了人体目标检测和人体姿态关键点定位的精度,进而提升了危险行为检测结果的准确性、可靠性。
61.本实施例中,可以从视频流中每隔一预设帧从所述视频流中截取一次监控图片,或者,还可以按照间隔固定时间的方式截取监控图片,例如每隔两分钟截取一次监控图片,或者,每隔30秒截取一次监控图片。容易理解的是,截取监控图片的具体频次不是唯一的、固定的,可根据实际人流量情况自行确定。
62.步骤s3、对监控图片中的作业人员进行人体目标检测,得到各个作业人员的位置信息。
63.本实施例采用yolov5深度网络模型对监控图片中的作业人员进行人体目标检测,判断出当前监控图片中是否存在作业人员,如果当前监控图片中有作业人员,则会得到该作业人员的位置信息;如果当前监控图片中没有作业人员,则无需对当前监控图片进行危险行为检测,此时会返回到步骤s2,继续截取下一张监控图片。
64.所述yolov5深度网络模型包括backbone层、neck层和head层。
65.其中,所述backbone层为主干网络,用于在不同图像细粒度上聚合并形成图像特征;所述backbone层包括focus结构和cspnet结构,所述cspnet结构用于将梯度变化集成到图像特征图中。
66.所述neck层用于对图像特征进行混合和组合,并将图像特征传递到head层;所述neck层包括fpn结构和pan结构。
67.所述head层用于对图像特征进行预测,并生成边界框及预测类别,得到作业人员
的预测框,所述预测框为作业人员的目标检测结果。
68.所述yolov5深度网络模型输出目标检测结果的格式为(x,y,w,h,c);其中,x和y分别表示作业人员的预测框在监控图片坐标系x轴和y轴的坐标;w和h分别表示监控图片的宽度和高度,c表示置信度。
69.所述yolov5深度网络模型的输入为监控图片,输出为可视化的目标检测,所述可视化的目标检测结果是在监控图片中各个作业人员位置处标注出与作业人员对应的预测框和置信度。在实际应用时,生产区域各个双目摄像头采集不同角度的监控图像,每一个固定角度的双目摄像头采集的图像中各个物体的坐标信息是已知的,是已经事先通过建模方式确定出来的,通过yolov5深度网络模型在监控图片中标注出作业人员对应的预测框,从而确定作业人员的具体位置坐标信息,并可以判断出该作业人员与其他物体之间的相对位置关系。
70.本实施例中yolov5深度网络模型的训练过程包括:
71.首先,采集工厂内的大量行人图片来制作数据集;然后使用labelimge标注工具对数据集进行标定,将标记好的数据集放到一个文件夹中;再将labelimge标注工具生成的xml文件也放到该文件夹中;然后构建数据集并标注自己数据集中的类别名称;最后基于开源网络框架,网络层数及迭代次数等参数配置好后开始训练,达到最大迭代次数后停止训练,得到训练好的权重,此时完成训练。
72.步骤s4、对人体目标检测后的监控图片进行人体姿态关键点定位;所述人体姿态关键点定位通过对多个人体关键点进行定位的方式以确定人体当前的行为姿态。
73.本实施例采用openpose对人体目标检测后的监控图片进行人体姿态关键点定位。openpose的结构如图2所示,所述openpose包括第一分支结构和第二分支结构。所述第一分支结构用于对提取到的人体姿态关键点的置信度进行预测;所述第二分支结构用于对作业人员的各个关节之间的关联程度进行编码分析得到亲和度向量,通过对人体姿态关键点的置信度和亲和度向量进行推测解析,以实现对人体姿态关键点的定位。
74.本发明在进行进行人体姿态关键点定位时,输入的预处理后的图片由vgg19的前10层网络生成一组特征f作为每个分支结构的第一阶段的输入;所述第一分支结构用于预测每个提取到的人体姿态关键点的置信度s;所述第二分支结构用于对关节之间的关联程度进行编码分析得到亲和度向量l,然后通过对置信度映射亲和域进行推测解析,实现对人体姿态关键点的聚类,从而实现骨架的组装;其中,s表示人体姿态关键点的置信度,s=(s1,s2,sj),sj∈rw×h,j∈{1,

,j},对每个人体姿态关键点的位置进行j次预测,共计j个置信图;l=(l1,l2,

,lc),lc∈rw×h×2,c∈{1,

,c},c表示待检测的关节对数,每个肢体关节都会得到c个向量场。
75.如图3所示,本实施例中的人体姿态关键点包括鼻子0、脖子1、左肩2、左手肘3、左手腕4、右肩5、右手肘6、右手腕7、左腰8、左膝盖9、左脚10、右腰11、右膝盖12、右脚13、左眼14、右眼15、左耳16、右耳17等共计18个关节点。
76.本实施例选取的18个关节点仅仅是从人体众多关节中选取的具有代表性、较为重要的关节点,将这些比较重要的关节作为人体姿态关键点以实现对人体姿态行为的检测,使得检测结果更加准确、可靠。
77.应说明的是,上述18个关节点仅仅是优选出来的一组关节点,在实际应用中,还可
以选取其他关节位置作为人体姿态关键点,可根据实际情况自行设置。
78.本发明通过将yolov5深度网络模型和openpose开源结构结合,即将行人人体目标检测和人体姿态关键点估计算法结合起来,检测厂区作业人员的当前姿态是否处于安全状态并进行危险行为警报,以预防恶性事故的发生,将厂区监控人员从繁重的监控巡查工作中解放出来,大大提升了生产厂区安全管理的效率。
79.步骤s5、根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果。具体包括:
80.步骤s5.1、设置危险行为样本库;所述危险行为样本库包括多个危险行为样本,所述危险行为样本包括摔倒或晕倒、玩手机、违规倚靠、攀爬和人员聚集等危险行为类别的样本数据。
81.容易理解的是,本实施例中危险行为类别不仅包括摔倒或晕倒、玩手机、违规倚靠、攀爬和人员聚集等几种,还可以包括机械碰撞、重物砸落等其它的危险行为类别,可根据实际厂区情况自行设定。
82.步骤s5.2、根据所述位置信息和所述人体姿态关键点定位信息,识别作业人员的当前动作姿态和周围环境信息;所述周围环境信息用于判断作业人员周围是否存在倚靠物或攀爬物等,用于辅助判断危险行为的具体类别。
83.步骤s5.3、将作业人员的当前动作姿态和周围环境信息与所述样本库中危险行为样本进行对比,以确定作业人员的当前动作姿态与危险行为样本库中的各个危险行为类别是否一致,得到危险行为分析结果。
84.本发明在设置危险行为样本库时,可以大量采集工厂内的危险行为图片来制作数据集,包括人员摔倒或晕倒、人员玩手机、人员违规倚靠、人员攀爬、人员聚集等多种不同类别的危险行为样本;然后采用支持向量机算法对数据集中不同类别的危险行为样本进行分类,形成厂区特定的危险行为样本库。将检测得到的作业人员的当前动作姿态和周围环境信息与危险行为样本库中的样本库中危险行为样本进行对比,以确定作业人员的当前动作姿态属于危险行为样本库中的哪一种危险行为类别,从而得到危险行为分析结果。
85.步骤s6、根据所述危险行为分析结果,判断是否激活报警器。具体包括:
86.当发生危险行为时,则立即激活报警器,并将该作业人员的危险行为类别和位置信息发送至处理器,或者直接发送到生产区域负责人或车间安全管理员的手机等移动终端上,使其了解作业人员的危险行为的具体类别和具体位置,通知其对危险行为进行及时处理。
87.当未发生危险行为时,则不激活报警器,并执行步骤s7,继续截取下一张图片并对其进行危险行为检测。
88.步骤s7、跳转返回步骤s2,继续截取下一张图片,并重复步骤s2-s6,对其进行危险行为检测。
89.本发明通过安装于生产厂区的各个角落的双目摄像头实时获取视频流,间隔性抓取图像,并进行图像预处理;基于深度学习服务器,加载训练好的yolov5深度网络模型,完成对视野范围内的所有作业人员的检测、定位及深度距离测量;再将检测到的所有作业人员的监控图片输入到openpose网络,并完成对所有人的人体姿态关键点定位,通过与危险行为样本库中的危险行为样本进行比对,分类出正常行为及人员摔倒或晕倒、人员玩手机、
人员违规倚靠、人员攀爬、人员聚集等危险行为。若发现危险行为时,则及时响起报警器,并将作业人员的危险动作类别及具体位置等信息发送给处理器或相应的管理人员,通知其及时做出应对措施;若未发现危险事件,则继续对下一帧图片进行危险行为分析,从而能够有效预防恶性事故的发生,不仅能够解决现有技术无法自动、准确地检测危险行为动作,无法对危险行为做出报警的问题,还能够有效保障作业人员的人身安全,且还能够将厂区监控人员从繁重的监控巡查工作中解放出来,提升了生产厂区安全管理的效率。
90.实施例2
91.如图4所示,本实施例提出了一种基于视觉的作业人员危险行为检测系统,该系统各个模块的功能与实施例1方法各个步骤相同且一一对应,该系统具体包括:
92.视频流获取模块m1,用于采集生产区域的实时视频监控数据,得到视频流。
93.监控图片截取和预处理模块m2,用于从所述视频流中以预设频次截取监控图片,并对所述监控图片进行预处理。
94.人体目标检测模块m3,用于对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息。
95.人体姿态关键点定位模块m4,用于对人体目标检测后的监控图片进行人体姿态关键点定位;所述人体姿态关键点定位通过对多个人体关键点进行定位的方式以确定人体当前的行为姿态。
96.危险行为分析模块m5,用于根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果。
97.危险行为报警模块m6,用于根据所述危险行为分析结果,判断是否激活报警器。
98.危险行为持续检测模块m7,用于返回步骤“从所述视频流中以预设频次截取监控图片,并对所述监控图片进行预处理”,继续截取下一张图片并对其进行危险行为检测。
99.本说明书中各个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。本说明书中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

技术特征:
1.一种基于视觉的作业人员危险行为检测方法,其特征在于,包括:对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息;对人体目标检测后的监控图片进行人体姿态关键点定位;所述人体姿态关键点定位通过对多个人体关键点进行定位的方式以确定人体当前的行为姿态;根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果;根据所述危险行为分析结果,判断是否激活报警器。2.根据权利要求1所述的基于视觉的作业人员危险行为检测方法,其特征在于,所述人体姿态关键点包括左眼、右眼、鼻子、左耳、右耳、脖子、左肩、右肩、左手肘、右手肘、左手腕、右手腕、左腰、右腰、左膝盖、右膝盖、左脚和右脚。3.根据权利要求1所述的基于视觉的作业人员危险行为检测方法,其特征在于,所述根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果,具体包括:设置危险行为样本库;所述危险行为样本库包括多个危险行为样本,所述危险行为样本包括摔倒或晕倒、玩手机、违规倚靠、攀爬和人员聚集的危险行为类别的样本数据;根据所述位置信息和所述人体姿态关键点定位信息,识别作业人员的当前动作姿态和周围环境信息;所述周围环境信息用于判断作业人员周围是否存在倚靠物或攀爬物;将作业人员的当前动作姿态和周围环境信息与所述样本库中危险行为样本进行对比,以确定作业人员的当前动作姿态与危险行为样本库中的各个危险行为类别是否一致,得到危险行为分析结果。4.根据权利要求1所述的基于视觉的作业人员危险行为检测方法,其特征在于,所述对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息,具体包括:采用yolov5深度网络模型对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息。5.根据权利要求4所述的基于视觉的作业人员危险行为检测方法,其特征在于,所述yolov5深度网络模型包括backbone层、neck层和head层;其中,所述backbone层为主干网络,用于在不同图像细粒度上聚合并形成图像特征;所述backbone层包括focus结构和cspnet结构,所述cspnet结构用于将梯度变化集成到图像特征图中;所述neck层用于对图像特征进行混合和组合,并将图像特征传递到head层;所述neck层包括fpn结构和pan结构;所述head层用于对图像特征进行预测,并生成边界框及预测类别,得到作业人员的预测框,所述预测框为作业人员的目标检测结果。6.根据权利要求1所述的基于视觉的作业人员危险行为检测方法,其特征在于,所述对人体目标检测后的监控图片进行人体姿态关键点定位,具体包括:采用openpose对人体目标检测后的监控图片进行人体姿态关键点定位;所述openpose包括第一分支结构和第二分支结构;所述第一分支结构用于对提取到的人体姿态关键点的置信度进行预测;所述第二分支结构用于对作业人员的各个关节之间的关联程度进行编码分析得到亲
和度向量,通过对人体姿态关键点的置信度和亲和度向量进行推测解析,以实现对人体姿态关键点的定位。7.根据权利要求1所述的基于视觉的作业人员危险行为检测方法,其特征在于,在步骤“对监控图片中的作业人员进行人体目标检测,得到各个作业人员的位置信息”之前,还包括:采集生产区域的实时视频监控数据,得到视频流;从所述视频流中以预设频次截取监控图片,并对所述监控图片进行预处理。8.根据权利要求7所述的基于视觉的作业人员危险行为检测方法,其特征在于,所述对所述监控图片进行预处理,具体包括:对所述监控图片进行裁剪处理,以符合模型对输入图片尺寸的要求,得到裁剪后的监控图片;对所述裁剪后的监控图片进行降噪滤波处理。9.根据权利要求1所述的基于视觉的作业人员危险行为检测方法,其特征在于,所述根据所述危险行为分析结果,判断是否激活报警器,具体包括:当发生危险行为时,则立即激活报警器,并将该作业人员的危险行为类别和位置信息发送至处理器,以对危险行为进行及时处理。10.一种基于视觉的作业人员危险行为检测系统,其特征在于,包括:人体目标检测模块,用于对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息;人体姿态关键点定位模块,用于对人体目标检测后的监控图片进行人体姿态关键点定位;所述人体姿态关键点定位通过对多个人体关键点进行定位的方式以确定人体当前的行为姿态;危险行为分析模块,用于根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果;危险行为报警模块,用于根据所述危险行为分析结果,判断是否激活报警器。

技术总结
本发明涉及一种基于视觉的作业人员危险行为检测方法及系统,属于行为检测识别领域,首先对监控图片中的作业人员进行人体目标检测,得到作业人员的位置信息;对人体目标检测后的监控图片进行人体姿态关键点定位;所述人体姿态关键点定位通过对多个人体关键点进行定位的方式以确定人体当前的行为姿态;根据所述位置信息和所述人体姿态关键点定位信息,对监控图片中的各个作业人员进行危险行为分析,得到危险行为分析结果;根据所述危险行为分析结果,判断是否激活报警器。该方法能够有效检测出各个作业人员是否有危险行为的情况,并能够及时对危险行为做出报警。够及时对危险行为做出报警。够及时对危险行为做出报警。


技术研发人员:杨彤 李丽娟 纪翔镜 徐升 沈国栋 王强 胡佳 李慧迎
受保护的技术使用者:山东中科先进技术研究院有限公司
技术研发日:2021.12.02
技术公布日:2022/3/8

最新回复(0)