当前位置:主页 > 理工论文 > 轻工业论文 >

基于改进YOLO深度卷积神经网络的缝纫手势检测

发布时间:2021-06-10 15:18
  在人机协作领域,针对动作手势相似度大,环境复杂背景下手势识别率低的问题,提出一种基于YOLO深度卷积神经网络检测识别缝纫手势的方法。以4种复杂缝纫手势作为检测对象并构建缝纫手势数据集,通过在YOLOv3低分辨率的深层网络处增加密集连接层,加强图像特征传递与重用提高网络性能,实现端到端的缝纫手势检测。实验结果表明,在缝纫手势测试集中,训练后的模型平均精度均值为94. 45%,交并比为0. 87,调和平均值为0. 885。通过对比区域卷积神经网络、YOLOv2以及原始YOLOv3算法,提出的改进方法检测精度有显著提升;同时在GPU加速情况下,平均检测速度为43. 0帧/s,可完全满足缝纫手势的实时检测。 

【文章来源】:纺织学报. 2020,41(04)北大核心EICSCD

【文章页数】:7 页

【部分图文】:

基于改进YOLO深度卷积神经网络的缝纫手势检测


YOLO检测过程

网络结构图,网络结构,像素


在64像素×64像素分辨率和32像素×32像素分辨率的层中:由输入x0和输出x1拼接的特征图[x0,x1]作为H2输入;x2和[x0,x1]被拼接成[x0,x1,x2]用作H3的输入;x3和[x0,x1,x2]被拼接成[x0,x1,x2,x3]作为H4的输入;最后,拼接成64像素×64像素×256像素和32像素×32像素×512像素尺寸特征图向前传播。在训练期间,当图像特征被转移到较低分辨率层时,深层特征层可在密集结构中接收其前面的所有特征层的特征,从而减少特征损失,增强特征复用,提高检测效果。本文输出采用3种不同尺度的边界框(64像素×64像素、32像素×32像素和16像素×16像素)对缝纫手势进行检测。3 模型训练与调整

损失曲线,损失曲线,模型,边界框


最终模型共训练5 000次,耗时6 h,共训练使用了4 000幅图像(在4 000幅图像中随机抽取并重复使用)。在训练过程中,通过绘制模型损失曲线观察训练动态过程,其对应的损失值变化曲线如图3所示。可看出:模型在前期迭代中损失值快速缩减,模型快速拟合;当迭代训练2 000次后,损失值下降放缓;当迭代至5 000次时,损失值收敛至0.002 5,结束训练。通过计算预测边界框和真实边界框之间的平均交并比(IOU)来进一步评估模型的检测性能,结果如图4所示。可知,随着模型迭代次数的增加,真实框与预测框的模型平均交并比在不断提升,在迭代次数为5 000时,模型交并比趋于0.9。

【参考文献】:
期刊论文
[1]基于计算机视觉的牛仔服装色差检测评级系统[J]. 黄嘉俊,柯薇,王静,邓中民.  纺织学报. 2019(05)
[2]基于机器视觉的玻璃纤维管纱毛羽检测[J]. 景军锋,张星星.  纺织学报. 2019(05)
[3]多尺度卷积特征融合的SSD目标检测算法[J]. 陈幻杰,王琦琦,杨国威,韩佳林,尹成娟,陈隽,王以忠.  计算机科学与探索. 2019(06)
[4]基于Faster R-CNN的手势识别算法[J]. 吴晓凤,张江鑫,徐欣晨.  计算机辅助设计与图形学学报. 2018(03)
[5]机器人视觉手势交互技术研究进展[J]. 齐静,徐坤,丁希仑.  机器人. 2017(04)



本文编号:3222619

资料下载
论文发表

本文链接:https://www.wllwen.com/projectlw/qgylw/3222619.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户85185***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com