
基于YOLOv3算法,对施工安全帽的图像进行检测。
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
近年来,由于工人未正确佩戴安全帽而导致的施工事故时有发生,为切实降低事故的发生频率,开展了对工人安全帽佩戴情况进行图像描述的研究工作。现有的基于神经网络的图像描述技术往往存在缺乏可解释性的问题,并且在细节描述方面显得不够完善,尤其是在复杂施工场景下的图像描述研究相对不足。为了解决这一挑战,本文提出了一种创新的方法,它结合了YOLOv3检测算法以及基于语义规则和模板相结合的逐步生成策略,以生成关于工人安全帽佩戴的精确描述语句。具体而言,首先需要收集数据并构建包含安全帽佩戴检测数据集和图像字幕数据库;其次,利用K-means算法确定适用于该数据集的最佳锚框参数值,用于YOLOv3网络模型的训练和检测;再次,预先定义一套语义规则,并结合目标检测结果提取关键视觉概念;最后,将提取出的视觉概念填充到由图像字幕标注生成的语句模板中,从而生成关于施工场景中工人安全帽佩戴的详细图像描述语句。为了搭建实验环境并进行验证,本文使用Ubuntu 16.04系统和Keras深度学习框架。在自制的安全帽佩戴数据集上进行了不同算法的对比实验。实验结果表明,所提出的方法不仅能够准确地界定安全帽佩戴者和未佩戴者的数量统计数据,而且在BLEU-I和CIEr评价指标上分别取得了0.722和0.957的分数,相较于其他方法分别提升了6.9%和14.8%,充分证明了该方法的有效性和卓越性能。
全部评论 (0)
还没有任何评论哟~


