论文精读:Towards Total Recall in Industrial Anomaly Detection

工业异常检测

Patchcore是截至2022年在AD数据集上表现最好的缺陷检测模型

  • 本文深入浅出的让你看懂原理,解析顶会论文挺耗费时间的给个赞呗~

背景:

在工业图像的异常检测中,最大的问题就是冷启动的问题。

  • 首先,在训练集中都是正常的图片,模型很容易捕获到正常图像的特征,但是很难捕获到异常缺陷的样本(这类样本很少,获取也难)

  • 其次,分布漂移。正常图像和异常图像分布是不一样的,模型学习的是正常图像的数据分布,而异常图像的数据分布和正常图像不一样

AD数据集上的偏差:
在这里插入图片描述


AD数据集介绍一下:

在这里插入图片描述



在这里插入图片描述


尝试解决:

  1. 如果基于分类的思想进行缺陷检测,很难,因为发生错误的地方不易察觉,小到一条划痕、大到一个组件直接消失

在这里插入图片描述

  1. 最近,采样预训练的模型是个好方法,但是不可避免ImageNet上训练的分类模型不适应目标分布
  2. 核心点:特征匹配。在训练集和测试集提取不同大小的深度特征表示。但是ImageNet的高层抽象的特征匹配有限

本篇文章采取的方法是基于密度的异常检测方法:


GAP:全局平均。

会定义一个anomaly score

就是你训练正常的数据,捕获正常图像的特征,然后有一个异常的数据进来,就会和正常数据产生一个差异,通过整个差异来判断是否是异常。


其实这篇文章也是站着巨人的肩膀上:

SPADE:


在这里插入图片描述

PaDim:


在这里插入图片描述

这篇文章提出3个方法:

  1. 在测试时,最大化提取正常数据的信息
  2. 减少ImageNet上的类别偏差
  3. 保持高的推理速度

总体流程:


在这里插入图片描述

Locally patch features 局部块特征


在这里插入图片描述

patchcore采用ImageNet的预训练模型

fi代表网络 ; 论文精读:Towards Total Recall in Industrial Anomaly Detection代表样本 ; 论文精读:Towards Total Recall in Industrial Anomaly Detection代表网络层级

局部特征提取


采用ResNet-50 / WideResNet-50 进行特征提取,由4个残差块组成。

一般来说,获取提取的特征是在ResNet最后一层获取,但是存在两个问题

  1. 损失太多的信息
  2. 深度抽象的特征对当前的分类任务存在较大的偏差,因为冷启动带来的问题,缺陷特征很少,很难推测出来

解决:

  1. 创建一个存储块:memory bank,存储patch features(可理解为块特征)
  2. 不从Resnet最后一层获取特征,而是从中间获取

什么是中间特征:


在这里插入图片描述

  1. 为了不损失空间的分辨率和有用的特征,采用局部邻居聚合的方法来增加感受野,然后合并特征


    h是高度,w是宽度,c是通道 , patchsize是块大小

在这里插入图片描述

  • 针对位置(h,w)的特征处理:

先放图片理解:

特征提取:
在这里插入图片描述
扫描所有的:


在这里插入图片描述

  • 再提取下一层,再合并,形成一个local patch:


    在这里插入图片描述
  • 多个local patch合并:


    在这里插入图片描述
  1. 提取邻居的特征集合
    在这里插入图片描述
  2. 合并邻居的特征集合,组成单个feature map

在这里插入图片描述

  1. 局部特征集合

在这里插入图片描述

  1. 最后遍历完整个数据集,取并集,得到特征存储块

在这里插入图片描述


Coreset Subsampling


基于贪心策略的子采样方法
在这里插入图片描述


流程解释:

  1. M是我们需要的特征集,整个特征集不能太大(放在内存里面的),尽可能小弟coreset能代表绝大多数的数据特征
  2. 遍历所有的图像,获得经过ResNet提取后的特征,还是太多,得优化
  3. l是设定的coreset的特征子集个数,是个超参数
  4. 关键:如果选才能满足1中的要求? 就是,每次选一个coresset(论文精读:Towards Total Recall in Industrial Anomaly Detection)中的点,在M中找一个最近又最远(贪心策略)的点,抽出来
  5. 解释一下什么是最近又最远:在最近的范围内找到最远的点,也就是在局部找到一个最远的点,即最优解。如果不这样,搜索计算量巨大NP难的问题

在这里插入图片描述

  • 这波很妙,也很关键!

对比一波传说中的随机采样:
在这里插入图片描述

  • 兄弟,吊打啊!

Detection and Localization

测试集的数据进来

在这里插入图片描述

  • 按照patch feature的思想,一个一个patch到coreset里面去找对比anomaly score,看是不是异常的,是异常的,ok,红色标出来; 不是,也ok,平平淡淡才是真!

最近邻

每个query进来都要找最近的邻居,又是一波骚操作

  • 假设领域内邻居数为3
    在这里插入图片描述
    公式如下:
    论文精读:Towards Total Recall in Industrial Anomaly Detection
    又是一波最小又最大,解释一下:
  1. 每个query进来,首先找最近距离最近的领域质心(蓝色标记,非数据点)
    在这里插入图片描述
  2. 找到距离query最近的质心后,锁定该领域

在这里插入图片描述

  1. 然后在该领域内计算距离最远的数据点,用该距离计算anomaly score,判断是否异常,得到结果

在这里插入图片描述

效果

在这里插入图片描述

  • 目前为止最好的异常检测模型!
    在这里插入图片描述

超参数调整

在这里插入图片描述

都是DL秃头人,解析顶会论文写到博客挺耗费时间的给个赞呗~~

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
社会演员多的头像社会演员多普通用户
上一篇 2023年2月23日 上午8:57
下一篇 2023年2月23日 上午8:58

相关推荐