PP-LCNet: 一个轻量级的卷积神经网络

一、PP-LCNet: 一个轻量级的卷积神经网络

我们提出了一个基于MKLDNN加速策略的轻量级卷积神经网络,叫做PP-LCNet,他是一个能够用于多任务的轻量级模型。这篇论文提出了一些能在保持延迟不变的情况下提高模型准确率的方法。在这些优势的加持下,PP-LCNet与之前预测速度差不多的模型相比更加准确。对于计算机视觉的一些下流任务(指具体应用),比如目标检测、语义分割等,该模型效果也很好。我们的实验是基于PaddlePaddle实现的可以直接在飞桨查看相关的项目事例。

模型的原因

轻量级网络模型主要从三个方面考虑:

  • 如何在不增加延迟的情况下让模型跟上学习到的特征。
  • 哪些组件可以提高轻量级网络的准确率
  • 如何有效地集成那些为轻量级CPU网络设计的策略

三、模型整体结构

1、更好的激活函数的使用

一般而言,我们经常使用的激活函数不外乎为tanh relu sigmoid 还有bert中的gelu函数,这里我们使用了一种比较新颖的激活函数swich。
因为之前对视觉了解不多,而且这方面用到的激活函数也不是很熟悉,我觉得对我来说是一个比较新的功能。
swish链接[0]

在EfficientNet用 Swish激活函数展示出更好的性能后MobileNetV3将他升级到了H-Swish,进而减少了大量的指数运算。自那以后,许多轻量级网络也用了这个激活函数,我们也把我们基本网络中的RELU换成了H-Swish。性能提高了很多但预测时间基本没变。

h-swish的知识链接[0]

2、SE模块

SE模块在他被提出后就被大量网络使用,他帮助SENet赢得了2017年的ImageNet图像分类大赛。他在调整网络的通道的权重以获取更好的特征信息方面很优秀,同时它的速度型版本也被一些网络,比如MobileNetV3使用。但是,在intelCPU上,他会提高预测时间,所以我们不能到处用,事实上我们做了很多实验,发现当SE模块放到最后的时候比较好。所以我们把他放到了我们网络的靠进末尾的地方,结果获得了很好的准确率和速度的平衡。和MobileNetV3一样,SE模块的两层激活函数分别是RELU,H-Sigmoid。

(SE模块放在网络最后部分效果比较好,在se层中使用的激活函数为relu和h-sigmoid)

3、更大的卷积核

卷积核的大小会影响到网络的性能,在MixNet中,作者分析了不同大小的卷积核对网络性能的影响,最后决定在**同一层的卷积中混合使用不同大小的卷积核。但是这样的混合使用会增加预测的时间,**所以我们决定在同一层卷积中用一种大小的卷积核,为了保证不会大量增加预测时间,我们也做了实验,发现在模型的最后将3×3卷积核换成5×5的效果比较好,所以我们只在模型的末尾作了这个替代。

4、GAP后更高维度的1×1卷积层

在我们的模型,GAP后面的维度很小,直接在他后面添加分类层会损失很多特征信息,为了增强模型的鲁棒性,我们在两者之间添加了1280维、大小为1×1的卷积核(和FC[全连接层]等价)这使得模型鲁棒性更好但只有一点的预测时间提高。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
社会演员多的头像社会演员多普通用户
上一篇 2022年5月7日
下一篇 2022年5月7日

相关推荐

此站出售,如需请站内私信或者邮箱!