本次设计中,火灾监控、吸烟监控、行为安全监控、人群密度监控、口罩率监控、人员定位监控六大功能。系统采用智能视觉交互技术,用户可以通过手势操作系统,用户操作方便简单。多角度、多方位辅助景区安全管理,减少景区安全隐患,促进景区智能化建设。该系统实现了各功能之间的实时数据传输和反馈,保证了信息的有效性,并且可以在手机、电脑、物联网平台等多个平台上运行,也实现了真正意义上的“多平台”。应用”。结合多种算法设计的多功能智能安防系统,主要应用于消防监控、疫情防控、景区游客安全定位等,对景区安全防护和景区景区具有重要的应用价值。景点智能化建设基本介绍该系统基于计算机多媒体技术、智能图像分析技术、数据挖掘技术等,构建旅游景区综合安全管理系统。针对人身安全、森林防火等需要景区公共活动区管理、疫情防控管理,需要构建全方位、全天候、高清、智能的视频监控系统,满足现代旅游景区安全管理的需要实现大场景全景监控,检测突发事件,如景区火灾及游客危险行为。实现人员实时定位和轨迹查询,发生紧急情况时,联动地图闪烁警示,方便应急指挥。同时,为满足人员管理和客流分析系统,需要对出入口客流进行统计分析。当景区超过一定的客流量时,能及时警告和制止游客进入,并进行适当的游客分流。结合智慧景区实际需求和系统架构规划,旅游景区综合安防系统由智能监控系统、智能视觉交互、多角度多方位、多平台应用四大模块组成,集火灾监测、吸烟监测、行为安全监测、人群监测于一体。密度监控、遮罩率监控、人员定位监控是异构的安全子系统。系统总体设计架构如下图所示:基本功能展示1.系统概述本智能监控系统的开发平台为Pycharm,采用python语言,分为六大系统。2.火灾监控系统该模块通过实时视频监控分析视频中是否发生火灾。如图所示,如果景区内发生火灾,系统会及时发出预警信息,并反馈给调度室,从而有效控制火情,提高火灾处置效率。大大改善。3.吸烟监控系统为防止景区发生火灾,景区大部分区域为禁烟区。该模块通过实时视频监控,分析视频中是否存在吸烟行为。如图所示,如果有游客吸烟,系统会及时发出预警信息并反馈给调度室,第一时间发现游客吸烟的安全隐患,预防防火,确保景区安全。4、行为安全监控系统景区游览过程中,必须保障游客的人身安全。该模块通过实时视频监控分析视频中人物的肢体动作。如果出现如图所示“跌倒”等异常行为,可及时发出预警信息。可以大大缩短救援时间,减少突发事件造成的损失,保护游客的生命财产安全。5、人群密度监测系统受新冠疫情影响,景区需合理控制景区内人口密度。通过该模块,可以实现对景区旅游人口密度的动态监测。通过智能分析,将人群密度实时显示在系统页面,帮助用户管理景区,有效保障游客和从业人员的身体健康和生命安全,维护景区和社会大局稳定。6.口罩率监测系统为防止新冠病毒传播,根据景区相关规定,旅客进入景区前需进行身份识别。该模块通过实时视频监控,分析视频中游客是否佩戴口罩,标记每位游客是否佩戴口罩,并将结果显示在系统上,并实时显示口罩佩戴率。用于景区防疫,保护游客和景区。7.人员跟踪定位监控本模块对景区进行实时视频监控,对视频中的游客进行分析识别,自动生成识别标签,实时记录游客标签在场景中的位置,并显示在系统页面,并且可以在系统页面左侧监控并动态显示场景中的人数。协助用户管理景区。8、智能视觉交互本系统可替代传统的鼠标点击模块应用方式,用户无需使用鼠标等输入设备即可完成与系统的信息交互。用户可以通过肢体动作完成模块选择工作,系统操作更加简洁,用户使用更加方便。(这里只设计了火灾探测功能,其他功能可以根据代码参考编写。)算法1.目标检测算法本项目使用的目标检测算法主要是YOLO算法,用于火灾监控,吸烟行为监测,人员分别。位置跟踪和掩码率监控。YOLO目标检测算法考虑到两阶段目标检测算法的检测效率比较低,因此有学者提出了单阶段目标检测。由JosephRedmon等人提出。in2016.2.目标跟踪算法本项目在人员定位跟踪系统中采用deepsort目标跟踪算法。本系统的跟踪过程如下:(1)利用卷积神经网络对视频中的行人进行检测和跟踪。(2)视频帧输入后,首先进入YOLOv3目标检测网络,通过Darknet-53提取特征;(3)其次,进行上采样和特征融合,然后进行回归分析;(4)再次,将得到的预测框信息输入SORT算法进行目标特征建模、匹配和跟踪;(5)最后输出结果。下图为定位跟踪算法的流程图:3.人群密度估计算法人群密度统计是指估计图像或视频中人群的数量、密度或分布。它是智能视频监控分析领域的关键问题和研究热点,也是后续进行行为分析、拥塞分析、异常检测、事件检测等高级视频处理任务的基础。本项目采用深度学习的方法获取人群密度图进行人数估算,并使用python语言搭建MSCNN网络实时生成人群密度图,达到人数估算的目的。4.姿态估计算法本项目在人体行为安全监控系统上采用了Openpose的人体姿态识别算法。通过Openpose的手势识别技术构建不同肢体之间的协调关系的分类算法,通过比较不同的分类算法选择最优模型构建多目标分类方法,可以实现多目标的手势显示和目标检测以及真实的目标检测。类别的时间显示。部分界面操作代码如下:cap=cv2.VideoCapture(0)cap.set(3,1280)cap.set(4,720)detector=HandDetector(detectionCon=0.8)keys=[["FireDetection","吸烟检测","行为安全监测","人群密度监测","遮罩率检测","行人定位追踪"]]finalText=""whileTrue:success,img=cap.read()img=detector.findHands(img)lmList,bboxInfo=detector.findPosition(img)img=drawAll(img,buttonList)iflmList:forbuttoninbuttonList:x,y=button.posw,h=button.size如果x
