基于边缘计算的客流检测跟踪系统研究

发布时间:2021-08-17 06:22
  近年来,随着人工智能领域的迅猛发展及目标检测技术的成熟,以行人检测为技术基础的各类系统已被广泛应用到了无人驾驶、智慧交通、智能监控等领域。利用计算机代替人眼,可在大量降低人力物力消耗的基础上,提升目标检测效率,这使得客流检测系统在安防监控领域处于人们研究的重点与热点。但目前已有的客流检测系统常依托于服务器进行开发与应用,这使得后台运行压力增大、计算量增加、带宽成本增高。基于以上问题,本文引用边缘计算思想,将目标检测、跟踪、客流数据统计等工作移植至前端边缘设备中进行开发与应用,研究适用于边缘计算的轻量级检测网络并选用嵌入式GPU平台完成整体系统搭建。主要研究成果如下:针对行人检测模块,本文提出了基于YOLOv3-tiny网络轻量化的行人检测算法,利用深度可分离卷积重新构建Yolov3-tiny主干网络,在保证算法检测速度的前提下,提高网络提取行人特征的能力,并增加一层预测层,确保各个尺寸的目标被准确检测,保证网络检测的准确率。针对行人跟踪模块,本文提出了基于深度学习与多特征融合的目标跟踪算法,利用行人检测模块得到的行人目标位置信息,可对待检测视频中每帧出现的行人目标进行多特征提取,并根据... 

【文章来源】:北方工业大学北京市

【文章页数】:62 页

【学位级别】:硕士

【部分图文】:

基于边缘计算的客流检测跟踪系统研究


h-swish函数与swish函数对比图

过程图,行人,过程


第三章基于Yolov3-tiny的轻量化行人检测跟踪算法研究29这给行人目标检测带来了不小的挑战。为此,本文采用截取行人头肩部分来训练目标检测模型的方法。相比对整个行人目标进行识别,头肩区域不易受到遮挡情况的干扰、且像素比例相似,只需考虑头肩角度的差异。相对于整个行人检测跟踪系统来说,提取头肩特征的计算量远小于提取整个行人特征的计算量。因此在降低计算量的同时,也为系统减小了内存开销。为了保证行人检测模型[40]的检测精度,本文选用地铁真实监控场景作为训练和测试的固定场景,通过选取不同角度、不同场景的各地方地铁车站内的监控视频素材来增加样本的数据量。为了保证提取到的头肩信息精确、不丢失,将行人目标小的视频图像截取后进行放大处理,最终将训练样本同一压缩至640×480像素大校样本标注选用LabelImg可视化的轻量图像标定工具,该标注工具可用于不同操作性,且标注生成的XML文件遵循PASCALVOC格式,便于后续训练时使用。标注时,需将目标头肩用矩形框严格框出,并设置头肩标签为headshoulder,标注过程如下所示。图3-17行人头肩标注过程本文共标记12000张图片作为训练样本,其中80%的样本用作模型的训练,20%的样本用作模型的测试。为了使模型检测更加准确,样本在选取时包含了不同性别、不同年龄、不同身高、不同配饰的行人目标,数据集部分样例如下图所示:

数据集,框架,聚类数


第三章基于Yolov3-tiny的轻量化行人检测跟踪算法研究30图3-18数据集部分样例3.3.2实验平台本文采用Ubuntu16.04操作系统,运用Darknet深度学习框架及CUDA9.0进行加速,在GPUNvidiaGTX1080Ti平台上进行算法的实现与测试,并记录测试数据运用Python画出数据曲线。Darknet深度学习框架是由JosephRedmon提出的用C语言及CUDA编写而成的一个开源神经网络框架,该网络框架易安装、且无需任何依赖项。且由于Darknet框架同时支持CPU和GPU计算,因此更加易于算法和框架的移植。此外,该框架中代码结构清晰,方便源代码查看及修改且预留Python接口,提供Python、C语言调用方式,使其在算法研究和应用开发等方面有着明显的优势。3.3.3NYolov3-tiny网络性能对比优化后的NYolov3-tiny网络从原网络的两个尺度的预测层改为三个尺度的预测层,为了更好的确定anchor的数目与尺寸,采用与原网络相同的k-means聚类方法进行参数的确定,通过计算不同聚类数目下的平均重叠度进而得到最佳的聚类数目,两者变化关系如下图所示。1234567891000.30.40.50.60.70.8AverageintersectionoverunionNumberofclusters图3-19聚类数目与平均重叠度关系图


本文编号:3347242

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3347242.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户7bb3d***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com