基于yolo模型的缺陷识别算法

2025-03-10 09:38
52

于YOLO模型的

缺陷识别算法原理


在工业生产中,缺陷检测的效率与准确性直接影响产品质量。传统人工目检或规则算法已难以满足高精度、高速度的需求。 YOLO(You Only Look Once)模型,通过深度学习技术实现缺陷的快速识别与分类。本文将从技术原理、实际应用及相关优势三方面,解析 YOLO 如何成为工业质检的 “AI 大脑”。

一、YOLO 模型

核心原理:

YOLO(You Only Look Once)是首个将目标检测转化为回归问题的深度学习模型。在工业缺陷检测中,YOLO 通过以下技术突破实现高精度与高速度的平衡:

(1)分层特征提取与多尺度预测

YOLO 的网络架构由骨干网络颈部和头部组成。骨干网络(如CSPDarknet53)通过跨阶段局部连接减少计算量,同时提取图像深层语义信息(如缺陷边缘、纹理)。颈部的空间金字塔池化(SPP)和路径聚合网络(PAN)融合不同层级特征,浅层细节与深层语义结合,提升小缺陷检测能力。头部输出三个不同尺度的预测层(如 32×32、16×16、8×8 网格),分别负责检测小大缺陷,适配工业场景中多样化的缺陷尺寸需求。

图1 1x02 空间金字塔池层

(2)网格划分与多任务预测

YOLO 将输入图像划分为
S×S 网格(如 64×64),每个网格负责预测其覆盖区域内的缺陷。每个网格输出缺陷的中心点坐标(x, y)
宽高(w, h)、类别概率(如划痕、脏污)及置信度。为提升定位精度,YOLO 采用CIoU 损失函数,在计算预测框与真实框的交并比(IoU)时,加入中心点距离和宽高比例惩罚项。对于复杂缺陷场景,YOLO 支持单个网格预测多个缺陷框,例如同一区域同时存在划痕和凹坑。

(3)损失函数优化与端到端特性

YOLO 的损失函数由坐标损失、置信度损失和分类损失组成。坐标损失对小缺陷的宽高平方根项赋予更高权重,增强小目标定位能力;置信度损失通过调整无缺陷网格惩罚系数,避免模型过度关注背景区域;分类损失采用交叉熵函数,确保类别预测准确性。YOLO 的端到端架构使其从图像输入到缺陷结果输出仅需一次前向计算,无需传统算法的多步骤处理(如边缘检测、特征匹配),消除人工设计特征的局限性,自动学习缺陷特征。

L=λcoordLcoord+Lconf+λclassLclass


损失类型
计算方式
作用
坐标损失(Lcoord
采用平方误差计算边界框偏移
增强小目标定位能力
置信度损失(Lconf
有缺陷和无缺陷网格的置信度误差
避免模型过度关注背景区域
分类损失(Lclass
采用交叉熵损失计算类别预测误差
确保类别预测准确性


表1 损失函数

(4)工业场景适应性优势

相比传统算法(如基于规则的视觉检测),YOLO 在工业检测中表现出显著优势:检测速度较快,支持 10 余种缺陷同时检测,通过迁移学习适配新材料(如蓝膜电池),并能识别微小缺陷。其多尺度预测和动态阈值策略,有效应对反光金属、复杂曲面等场景,极大降低误检率(结合结构光)


对比项
YOLOv5
传统算法(如基于规则的视觉检测)
检测速度
缺陷类型
支持 10+ 种缺陷同时检测
通常单任务设计,需定制化开发
泛化能力
迁移学习适配新材料(如蓝膜电池)
需重新设计特征提取规则
小目标检测
误检漏检率低
易漏检微小缺陷


表2 与传统算法的对比优势

二、缺陷识别

YOLO 模型在工业检测中的实际应用可分为三个关键步骤:

1.数据标注:构建数据集(2D)

(1)多模态样本采集:    通过结构光、光度立体视觉设备等多模态传感器,同步采集二维灰度图、反射率图及调制度图等,覆盖轴承、齿轮等金属部件的划痕、凹陷、擦伤、异物等缺陷类型,以及电子元件(如蓝膜电池)的坏点、焊点偏移等场景。

(2)半自动标注工具:    开发基于预训练模型的标注辅助工具,自动生成缺陷框初始位置,质检员仅需修正细节,标注效率提升 40%。工具集成主动学习策略,优先标注模型分歧较大的样本,减少冗余标注。

图2 数据标注工具labeling

2.数据集训练:模型学习--精度指标

准确率(Accuracy):

准确率表示模型正确预测的样本数占总样本数的比例。在目标检测中,准确率反映了模型对目标和非目标区域判断的准确性。


精确率(Precision):

精确率是真正例(TP)与真正例和假正例(FP)之和的比值,即Precision = TP / (TP + FP)。它反映了模型预测为正类(目标)的样本中实际为正类的比例。


召回率(Recall):

召回率是真正例(TP)与真正例和假负例(FN)之和的比值,即Recall = TP / (TP + FN)。它表示所有实际为正类(目标)的样本中被模型正确预测为正类的比例。



F1分数(F1 Score):

F1分数是精确率和召回率的调和平均数,即F1 = 2 * (Precision * Recall) / (Precision + Recall)。F1分数综合考虑了精确率和召回率,能够较为全面地反映模型的性能。


mAP:

是目标检测任务中常用的性能评估指标。它首先计算每个类别的平均精度(AP),然后对所有类别的AP求平均。mAP值越高,说明模型在不同类别上的检测性能越好。


AP(Average Precision,平均精度)

是目标检测任务中用于评估模型性能的一个重要指标。它衡量的是模型在不同召回率(Recall)水平下的平均精确率(Precision)。具体来说,AP通过计算精确率-召回率曲线(Precision-Recall Curve)下的面积来得到。定义:精确率-召回率曲线是一个二维曲线,横轴是召回率,纵轴是精确率。通过改变模型的置信度阈值,可以得到不同召回率下的精确率值,从而绘制出这条曲线。

mAP:多个类别的AP值的平均值,

示例:假设有一个目标检测模型,通过改变置信度阈值,可以得到以下精确率和召回率的值:根据这些值,可以绘制出精确率-召回率曲线:


置信度阈值
精确率(Precision)
召回率(Recall)
0.9
0.95
0.60
0.8
0.90
0.70
0.7
0.85
0.80
0.6
0.80
0.85
0.5
0.75
0.90


    表3 不同置信度阈值下的精确率和召回率

平均精度(AP)平均精度(AP)是精确率-召回率曲线下的面积。具体计算方法是将曲线下的面积进行积分,通常通过数值积分的方法来近似计算。

计算方法:插值法:为了使AP的计算更加稳定,通常会对精确率进行插值处理。

对召回率进行等间隔采样,通常采样点为0, 0.1, 0.2, ..., 1.0。对每个采样点,找到召回率大于或等于该采样点的最大精确率值。计算这些最大精确率值的平均值,即为AP。


实验室训练实例

东北大学表面缺陷数据库-轧带钢表面缺陷数据集NEU-DET


缺陷类型Class
Precision
Recall
mAP
crazing-开裂
0.539
0.265
0.367
inclusion-夹杂物
0.703
0.814
0.785
patches-斑点
0.819
0.916
0.925
pitted_surface-凹坑
0.864
0.705
0.792
rolled-in_scale-轧制鳞片
0.614
0.467
0.685
scratches-划痕
0.739
0.886
0.872
all
0.713
0.706
0.738


表4   NEU-DET部分训练指标

图3 NEU-DET部分训练指标

3.实时检测与分类:

多模态数据:    反射率图、漫反射图、调制度图、光泽比图、平均图、深度图等多模态图像选择性输入 YOLO 模型,增强缺陷特征表达。对反光金属表面,通过反射率图抑制镜面高光,突出划痕细节,使模型对浅划痕的识别率

根据产品表面性质、缺陷类型、大小和方向的不同,操作人员可以灵活选择对应的图像进行检测分析,进一步提高了检测的准确性和效率。

图4 图像适配用途

三、YOLO 在工业检测中的独特价值

1.多缺陷类型适应性

复杂缺陷识别:可同时检测凹坑、划痕、脏污、尺寸偏差等 10 余种缺陷,突破传统算法 “单一任务” 限制。

跨材料泛化:通过迁移学习,无需重新训练即可适配电子元件(如蓝膜电池)、光学玻璃等新材料。实验室计划通过东北大学表面缺陷数据库-轧带钢表面缺陷数据集NEU-DET进行预训练做迁移学习至定位销滚动面。

图5 轧带钢表面图像


图6 实验室定位销滚动面

2.多技术融合协同

与结构光结合:通过主动投影条纹结构光,利用三维形貌数据验证二维检测结果,将误检率极大降低,当 YOLO 检测到疑似缺陷时,结构光系统自动对该区域进行高精度三维扫描,确认缺陷深度。

与光度立体视觉结合:利用分区光源,生成深度图,反射率图等图像,增强缺陷对比度,提升模型对低对比度缺陷(如浅划痕)和高反光缺陷(金属表面)的识别能力。

总结:

YOLO 模型凭借高速、精准、灵活的特性,已成为工业缺陷检测的核心技术之一。实验室团队通过多模态数据融合、硬件协同优化使其在反光金属、复杂曲面等场景中表现卓越。未来,随着 AI 技术的迭代与工业大数据的积累,缺陷检测将向“智能化” “自动化” “零误判”“全场景覆盖” 的目标迈进,为中国智造提供坚实的质量保障。

参考来源

https://blog.csdn.net/qinglingye/article/details/143893798

https://blog.csdn.net/XISHI_TIANLAN/article/details/137395534

https://blog.csdn.net/wangbo_angel/article/details/138699585

https://blog.51cto.com/u_15910936/12846470

卷积神经网络(CNN)详细介绍及其原理详解-CSDN博客

红外/可见光多模态目标检测_yolo多模态目标检测-CSDN博客

CSPDarkNet53学习-CSDN博客

空间金字塔池化网络SPP-Net_空间金字塔池化图-CSDN博客

https://blog.csdn.net/X_Jun005/article/details/107228906

https://blog.csdn.net/rglkt/article/details/122454947