人工智能详细笔记:深度学习解决图像分割问题(FCN Unet Deeplab)

文章目录

图像分割问题

图像分割问题概述:图像分割是指将一幅数字图像分成若干个部分或者对象的过程。该任务的目标是将图像中的每个像素分配给其所属的对象或者部分,因此它通常被视为一种像素级别的图像分析。

图像分割的应用场景:图像分割有很多应用,比如医学图像处理、自动驾驶、机器人技术、人机交互、视频监控、无人机技术等等。其中,医学图像处理领域是图像分割的重要应用之一,可以通过分割出感兴趣的部位来进行医学诊断,比如肿瘤分割、血管分割等。

传统的图像分割方法

  • 基于阈值的分割方法:将像素灰度值与一个预设的阈值进行比较,大于该阈值的像素被分为一类,小于该阈值的像素被分为另一类。这种方法简单易懂,但只适用于图像中对象与背景灰度值差别明显的情况。
  • 边缘检测分割方法:通过检测图像中的边缘来分割图像。识别亮度的急剧变化或不连续的地方,将不连续点排列成曲线边缘。主要方法包括Sobel算子、Laplacian算子和Canny算子等。
  • 基于直方图的图像分割:利用图像的直方图信息进行分割。直方图是指将图像中每个像素的灰度值按照一定的间隔划分为若干个区间,统计每个区间中像素的个数,然后绘制出的灰度值-像素个数的分布图。直方图反映了图像的灰度分布情况,可以用来分析图像中不同灰度区域的分布情况。基于直方图的图像分割方法简单易懂,计算速度快,适用于一些简单的图像分割任务,但对于复杂的图像分割任务可能效果不太好,需要使用更加高级的分割方法。
  • 基于K均值聚类的图像分割:将图像分为多个不同的聚类。它将图像看作是由若干个像素点组成的向量集合,然后通过对这些向量进行聚类,将图像分为不同的区域。基于K均值聚类的图像分割方法在实现简单、计算速度快的同时,也存在一些缺陷,如对噪声和异常值比较敏感,对于复杂的图像分割任务可能效果不太好。

传统图像分割方法与深度学习图像分割方法的比较

  • 精度:深度学习图像分割方法在精度上有很大的优势,由于神经网络可以自动学习图像特征和分类规则,因此深度学习方法可以得到更加精确的分割结果。而传统的方法通常需要手动调整参数和特征提取方式,精度受限于人工设计的算法和特征。
  • 数据需求:深度学习图像分割方法需要大量的标注数据来训练模型,而传统方法不需要大量的标注数据,通常只需要少量的标注数据或无需标注数据。
  • 计算速度:传统的图像分割方法通常计算速度快,因为这些方法通常是基于数学或统计学方法,计算较为简单。而深度学习方法通常需要大量的计算资源和时间,特别是对于大型数据集和复杂模型,计算速度相对较慢。
  • 应用范围:传统的图像分割方法在简单场景下效果较好,比如基于阈值的方法和基于边缘的方法可以用于简单物体的分割。而深度学习图像分割方法在复杂场景下效果更好,例如在遥感图像、医学图像等复杂场景下,深度学习方法可以有效地提取和分割目标。

图像数据集和图像标注工具

常用的图像数据集

  • PASCAL VOC数据集:一个经典的计算机视觉数据集,用于图像分类、目标检测和语义分割等任务。该数据集最初由英国牛津大学的研究者在2005年创建,现已经更新到第二十版(VOC 2012)。该数据集包含了来自20个不同类别的物体的图片和对应的标注信息,如人、车、猫、狗等,同时还包含了大量的难以识别的背景图片。每张图像都包含一个 XML 格式的标注文件,记录了图像中的目标类别、位置、大小等信息。同时,每个目标都有一个唯一的ID标识,可以方便地在多个图像中进行跟踪。
  • COCO数据集:一个广泛应用于计算机视觉领域的大型数据集,主要用于目标检测、图像分割和关键点检测等任务。该数据集由微软公司于2014年发布,现已更新到第三个版本(COCO 2017)。COCO 数据集包含超过33万张图像,其中大约20万张用于训练,5万张用于验证,以及8万张用于测试。图像的来源多样,包括网上的图片、社交媒体、电影和电视剧等。数据集中涵盖了80个不同类别的物体,如人、动物、交通工具、家具等,并且包含复杂场景中的多个目标实例,同时每张图像都提供了高质量的像素级别的标注信息。
  • BDD 100K数据集:一个用于自动驾驶场景理解的大规模开放数据集。该数据集由加州大学伯克利分校的研究者于2018年发布,旨在提供更加丰富和真实的自动驾驶场景图像和视频数据。
  • CamVid数据集:一个广泛用于图像分割领域的数据集,主要用于交通场景中的语义分割任务。该数据集由剑桥大学的研究者于2007年发布,包含了由一辆车行驶拍摄的一组视频序列和对应的像素级别的标注信息。
  • Cityscapes数据集:一个用于城市场景理解的大规模数据集,由德国慕尼黑计算机视觉中心(Technical University of Munich)发布。该数据集主要用于场景分析、车辆自主驾驶等方向的研究。
  • ApolloScape Scene Parsing数据集:一个专门用于自动驾驶场景理解的数据集,由百度公司的 Apollo 自动驾驶团队发布。该数据集主要用于训练深度学习模型,实现自动驾驶中的路面和交通标识物识别、车辆和行人检测、车道线和路障检测等任务。

常用的图像标注工具

  • Labelme:Labelme是一个基于Web的开源图像标注工具,由麻省理工学院计算机科学和人工智能实验室(MIT CSAIL)开发。它可以让用户轻松地标注2D和3D图像,并且支持各种类型的标注,如矩形、多边形、点、线条等。Labelme也提供了一些高级的功能,如语义分割、实例分割、关键点检测等。
  • LabelImg:LabelImg是一个开源的图像标注工具,用于创建图像分类和目标检测数据集。它支持常见的标注类型,如矩形框、多边形、点等,并提供了一些高级功能,如标注分组、标注多个类别、标注困难样本等。
  • RectLabel:RectLabel是一款图像标注工具,适用于Mac和iOS平台。它支持目标检测、语义分割和图像分类等任务的标注,并提供了各种标注工具,如矩形、椭圆形、多边形、标签、线条等。此外,RectLabel还提供了自动标注、批量标注、图像预览等高级功能,使标注更加高效和便捷。

全卷积网络(FCN)

全卷积网络的导入背景

  • 传统CNN模型会丢失空间信息:传统的CNN模型适用于图像级的分类和预测任务。其中分类网络的最后几层为全连接层,使得原来的二维矩阵平化为一维的,从而丢失了空间信息,最终输出分类标签。
  • 传统CNN模型只能处理固定大小的图像:传统的CNN卷积神经网络对于输入的图像大小是固定的,因此在对不同大小的图像进行分割时,需要对图像进行预处理和裁剪。这样会导致信息的丢失和模型的不稳定性,因此需要更加灵活的图像分割方法。

综上所述,全卷积网络FCN相较于传统CNN模型更加适用于图像分割任务。

全卷积网络的特点

  • 去掉全连接层:FCN将传统CNN模型中的全连接层转化为卷积层。
  • 像素级的分类:FCN对图像进行像素级的分类,逐个像素计算softmax分类的损失。
  • 输入图像尺寸无限制:FCN可以接受任意尺寸的输入图像。
  • 输出图像尺寸与输入图像相同:FCN采用反卷积层对最后一个特征图进行上采样,恢复到输入图像相同的尺寸。

上采样和下采样

  • 上采样和下采样概述:上采样(upsampling)和下采样(downsampling)是数字图像处理中常用的两种操作。
  • 下采样概述:下采样是将输入图像中的像素点减少,从而降低图像的分辨率。常见的下采样方法包括平均池化和最大池化等。平均池化将输入图像中的像素点分成若干个区域,然后取每个区域内像素点的平均值作为输出像素点的值。最大池化则是取每个区域内像素点的最大值作为输出像素点的值。下采样可以使得图像变得更加简单和快速,同时也可以避免图像中的噪声和细节干扰。
  • 上采样概述:上采样则是将输入图像中的像素点增加,从而提高图像的分辨率。常见的上采样方法包括插值法和反卷积等。插值法将输入图像中的像素点之间插入新的像素点,从而使图像的分辨率增加。反卷积则是一种将低分辨率特征图转换为高分辨率图像的方法,它通过使用反卷积滤波器将特征图转换为与输入图像大小相同的输出图像。上采样可以使得图像变得更加清晰和细致,同时也可以帮助模型恢复更多的细节信息。

在图像分割任务中,上采样和下采样通常用于将输入图像的大小转换为与输出图像大小相同的大小,以便将特征图与输入图像对齐。其中,下采样通常用于提取图像的高层次特征,而上采样则用于将特征图转换为输出分割图像。

全卷积网络中的三种关键技术

  • 卷积技术:采用普通的分类网络,比如AlexNet,VGG16,GoogleNet等网络丢弃全连接层,换上对应的卷积层即可。
  • 上采样技术:使用反卷积方法或双线性插值来进行上采样。
  • 跳跃结构
    • 在传统的卷积神经网络中,通过多次池化操作,将原始图像的空间信息逐渐减少,得到一个固定大小的特征图。这种做法虽然可以提取图像的高层语义信息,但会丢失大量的空间信息,从而导致分割结果的精度不够。
    • 跳跃结构是指将从低层特征图中提取的空间信息与高层特征图结合起来,从而提高分割模型对细节的感知能力。 具体来说,使用跳跃结构的FCN在编码过程中将某一个或几个池化层的结果在降维后与编码得到的特征图相加,从而在解码器的输入中增加更多的信息。

FCN中的热图Heatmap

  • 热图的概念:在对原始图像进行多次卷积和池化后,得到的图像分辨率越来越小,其中图像最小分辨率对应的一层就称为热图。在图像分割任务中,使用颜色编码表示每个像素属于不同物体的概率。热图通常用于多物体分割任务中,每个物体在热图上都有自己的特定颜色,以标识属于该物体的像素。
  • 热图的地位:热图是最重要的高维特征图。
  • 热图的后续处理过程:在得到热图后,后续将会进行一系列的上采样,将图像的分辨率放大到原始图像的大小。

FCN的训练过程

  1. 数据准备:首先需要准备用于训练的图像数据集和标注数据集。标注数据集中需要对每个像素进行标记,以指明该像素所属的类别
  2. 网络构建:构建FCN网络,通常包括多个卷积层和池化层,并添加跳跃连接等结构。
  3. 损失函数设计:选择合适的损失函数来度量预测结果和真实标签之间的差异。在图像分割任务中,通常采用交叉熵损失函数或者Dice系数等指标。
  4. 训练模型:使用准备好的数据集,通过反向传播算法和优化算法(如SGD、Adam等)来优化网络参数,使得网络输出的分割结果与真实标注尽可能接近。
  5. 模型评估:在训练过程中,需要定期评估模型在验证集上的表现,以便及时调整模型参数,防止过拟合现象的出现。常用的评价指标包括准确率、召回率、F1-score等。
  6. 模型预测:使用训练好的模型来对新的图像进行预测,并将结果可视化展示出来。

FCN的训练过程中需要注意的是,图像分割任务往往需要大量的标注数据和计算资源,因此在实际应用中需要谨慎设计训练数据和网络结构,以提高训练效率和预测准确率。

三种常用的FCN模型:FCN-32s、FCN-16s和FCN-8s是全卷积网络(FCN)中常用的三种模型,它们的主要区别在于网络中引入了不同数量和不同类型的跳跃结构。

  • FCN-32s:FCN-32s是最简单的全卷积网络,它只包含一个卷积层和一个反卷积层,没有跳跃结构。在FCN-32s中,将最后一个卷积层的输出直接进行上采样得到与输入图像大小相同的特征图,然后将特征图转换为热图,最终得到图像分割结果。
  • FCN-16s:FCN-16s在FCN-32s的基础上引入了一层跳跃结构,用于融合底层和中层的特征信息。具体来说,在FCN-16s中,将第5个卷积层的输出进行上采样得到与输入图像大小相同的特征图,然后将该特征图与第4个卷积层的输出进行融合,得到新的特征图。最后将新的特征图转换为热图,得到图像分割结果。
  • FCN-8s:FCN-8s在FCN-16s的基础上引入了两层跳跃结构,用于融合底层、中层和高层的特征信息。具体来说,在FCN-8s中,将第6个卷积层的输出进行上采样得到与输入图像大小相同的特征图,然后将该特征图与第4个卷积层的输出进行融合,得到新的特征图。接着,将新的特征图进行上采样得到与输入图像大小相同的特征图,再将该特征图与第3个卷积层的输出进行融合,得到最终的特征图。最后将最终的特征图转换为热图,得到图像分割结果。

总体来说,FCN-8s相比FCN-32s和FCN-16s引入了更多的跳跃结构,可以更好地融合不同层次的特征信息,从而得到更准确的分割结果。但是,FCN-8s的计算量更大,训练时间和内存消耗也更高,需要更多的计算资源。

FCN的不足之处

  • 空间分辨率损失:传统的CNN网络经过多次池化操作之后,输出的特征图分辨率降低,导致分割结果的细节信息丢失。FCN采用上采样的方法来恢复分辨率,但这种方法仍然存在一定程度的信息损失。
  • 语义信息不足:在FCN中,网络从特征图中提取的特征只包含局部的信息,对于大尺度的语义信息无法有效地捕获。这会导致在具有复杂语义结构的图像中,FCN的性能受到限制。
  • 前后文信息缺失:在FCN中,由于网络仅考虑局部特征,因此忽略了像素周围的上下文信息。这可能导致网络在处理具有复杂背景和前景的图像时,分割结果出现误差。
  • 训练过程需要大量标注数据:FCN需要大量的标注数据来训练网络,而这些数据通常需要手动标注,因此需要耗费大量的人力和时间成本。
  • 模型自身会带来噪声:为了防止输出的图像过小,FCN的作者在第一层直接对原图加入了100像素的padding,直接引入了噪声。

语义分割问题

语义分割问题概述:语义分割是指将一张图像中的每个像素分类成预定义的语义类别之一的任务。与传统的图像分类任务只需要对整张图像进行分类不同,语义分割需要对每个像素进行分类,因此被认为是一种像素级别的图像理解方法。在语义分割中,每个像素都被赋予一个标签,表示该像素所属的语义类别,例如建筑物、路面、汽车、行人等。

语义分割和图像分割的区别和联系:语义分割是图像分割的一种,但并不等同于图像分割。图像分割是指将一张图像划分为多个区域,每个区域具有一定的意义,例如图像分割可以用于边缘检测、目标检测、实例分割等任务。而语义分割是图像分割的一种特殊形式,它将图像中的每个像素都分配到一个语义类别中,因此语义分割是一种像素级别的图像理解方法。与其他图像分割任务相比,语义分割更注重对像素级别语义信息的提取和利用。

语义分割问题中常用的损失函数

  • 交叉熵损失:交叉熵是分类问题中常用的损失函数,它也可以用于语义分割问题。在语义分割中,交叉熵损失可以度量预测分割结果和真实分割结果之间的差距。具体而言,交叉熵损失将每个像素的预测分布与真实标签的分布进行比较,计算它们之间的差异,然后求和得到整张图像的损失。
  • 交叉熵损失加权版:语义分割中,不同类别的像素数量可能存在极大差异,因此可以采用加权的方式来调整损失函数中不同类别像素的权重,使得每个类别的像素在损失函数中的贡献相等。一种简单的方式是对每个类别的像素赋予一个权重,使得像素数量较少的类别具有更高的权重,像素数量较多的类别具有较低的权重。
  • Dice Loss:Dice Loss是一种广泛应用于医学图像分割领域的损失函数,它被设计用于测量预测分割结果和真实分割结果之间的重叠程度。Dice Loss的值在0到1之间,值越高表示预测结果与真实结果的重叠程度越高,可以用于评估模型的分割精度。

U-net神经网络

U-net概述:U-Net是一种用于图像分割的卷积神经网络模型。它由Ronneberger等人在2015年提出,主要用于生物医学图像分割任务。

U-net神经网络的应用:U-Net在生物医学图像分割任务中表现出了很好的效果,也被广泛应用于其他领域的图像分割任务中。它的优点是具有较好的分割精度、能够处理小目标以及具有良好的泛化性能。

U-net性能较好的原因

  • 跳跃连接:在encoder和decoder之间加入跳跃连接,使得decoder可以访问不同层次的特征信息,有效提高了模型对于不同尺度和不同语义的特征的利用效率。
  • 上采样:在decoder部分使用上采样的方式将特征图恢复到与输入图像相同的分辨率,使得输出分割图具有更细节的特征。
  • 数据增强:U-Net在训练时使用了数据增强的方法,如随机旋转、平移、翻转等,增加了数据的多样性,提高了模型的泛化能力。
  • 损失函数:U-Net采用了结合二元交叉熵和Dice系数的损失函数,使得模型在预测分割图时既能考虑像素级别的准确度,也能考虑不同类别之间的IoU(Intersection over Union),从而进一步提高了分割精度。

Unet++模型

  • UNET++是一种基于UNET的改进模型,它通过增加多级子网络和密集跳跃连接来提高分割精度和模型稳定性。
  • UNET++的主要思想是将UNET的编码器-解码器结构改进为多级子网络。具体来说,UNET++将原来的编码器-解码器结构分解为多个子网络,每个子网络都有自己的编码器和解码器,其中编码器和解码器的深度逐渐增加,分别对应不同的层级。这样,UNET++可以在多个层级上捕捉图像的不同特征,从而提高分割精度。
  • UNET++还引入了密集跳跃连接,使得每个子网络都可以直接访问上一级的所有特征图。这样,UNET++可以更好地利用低级别和高级别的特征信息,从而提高模型的鲁棒性和稳定性。

Deeplab神经网络

Deeplab概述:DeepLab是一种基于深度学习的语义分割模型,其最早由Google Brain团队在2014年提出。DeepLab使用卷积神经网络(CNN)来进行像素级别的图像分割,它可以识别和分离出图像中的不同物体,对于图像识别、目标检测、人脸识别等领域有很好的应用。

Deeplab的最大特点:DeepLab最重要的特点是它采用了空洞卷积来增加感受野,这样可以在不增加模型参数数量的情况下,获得更大的视野范围,从而更好地识别图像中的物体。

Deeplab的优点

  • 准确率高:Deeplab采用了空洞卷积和ASPP模块等技术,能够在保持高分辨率的同时提高感受野,提高了图像语义分割的准确率。
  • 鲁棒性强:Deeplab采用了多尺度训练和测试方法,能够有效地解决物体尺度变化、旋转、姿态变换等问题,增强了网络的鲁棒性。
  • 实时性强:Deeplab在ASPP模块中采用了平均池化和多分辨率处理等方法,能够减小计算量,提高了网络的实时性。
  • 可拓展性强:Deeplab采用了端到端的训练方法,能够方便地进行网络的扩展和改进,满足不同应用场景的需求。

空洞卷积

  • 空洞卷积,也被称为膨胀卷积或者扩张卷积,是一种卷积神经网络中常用的技术,用于增加卷积层的感受野。
  • 在传统的卷积操作中,卷积核的每个元素都与输入特征图的相应位置进行一一对应的乘加运算。而在空洞卷积中,卷积核的每个元素之间会有一些空洞,即在卷积核的元素之间加入了一些固定的间隔(也叫做膨胀率),使得卷积核中的元素不再是一一对应地与输入特征图中的像素相乘和相加,而是跳过一些像素点,从而扩大了卷积核的感受野。
  • 膨胀率设置为1时,空洞卷积就相当于常规卷积。
  • 膨胀率越高,空洞卷积捕获的像素点之间的相关性越低;

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2023年12月22日
下一篇 2023年12月26日

相关推荐