站点图标 AI技术聚合

常用的激活函数合集(详细版)

常用的激活函数合集(详细版)

目录

一、定义以及作用

二、常用激活函数解析

1、Sigmoid函数

1.1 公式

1.2 对应的图像

 1.3 优点与不足之处

1.4 对应pytorch的代码

2、Tanh函数

2.1 公式

 2.2 对应的图像

2.3 优点与不足之处

2.4 对应pytorch的代码

3、ReLU

3.1 公式

3.2 对应的图像

3.3 优点与不足之处

3.4 对应pytorch的代码

4、Leaky ReLU函数

4.1 公式

4.2 对应的图像

4.3 改进以及不足之处

4.4 对应pytorch的代码

5、PReLU函数

5.1 公式

 5.2 对应的图像

 5.3 改进以及不足之处

5.4 对应pytorch的代码

6、RReLU函数

6.1 公式

6.2 对应的图像

6.3 改进以及不足之处

6.4 对应pytorch的代码

7、ELU函数

7.1 公式

7.2 对应的图像

7.3 改进以及不足之处

7.4 对应pytorch的代码

8、SELU函数

8.1 公式

8.2 对应的图像

8.3 改进以及不足之处

8.4 对应pytorch的代码

9、CELU函数

9.1 公式

9.2 对应的图像

9.3 官方给的配置

9.4 对应pytorch的代码

10 、GELU函数

10.1 公式

10.2 对应的图像

10.3 优点以及不足之处

10.4 对应pytorch的代码

11、ReLU6函数

11.1 对应的公式

11.2 对应的图像

11.3 改进以及不足之处

11.4 对应pytorch的代码

12、Swish函数

12.1 公式

12.2 对应的图像

12.3 优点以及不足之处

12.4 对应pytorch的代码

13、Hardswish函数

13.1 公式

13.2 对应的图像

13.3 优点以及不足之处

13.4 对应pytorch的代码

14、SiLU函数

14.1 公式

 14.2 对应的图像

14.3 函数特点

14.4 对应pytorch的代码

15、Softplus函数

15.1 公式

 15.2 对应的图像

 15.3 函数特点

15.4 对应pytorch的代码

16、Mish函数

16.1 公式

16.2 对应的图像

 16.3 函数特点

16.4 对应pytorch的代码

17、 Softmax函数

17.1 公式

17.2 对应的图像

17.3 优点以及不足之处

17.4 对应pytorch的代码

三、 绘图代码(部分图像)

四、参考链接大合集

1.混合链接

2.单独链接 

五、小结

Table of Contents

一、定义以及作用

(什么是激活函数?激活函数有什么用?)

        激活函数(Activation Function)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。类似于人类大脑中基于神经元的模型,激活函数最终决定了要发射给下一个神经元的内容。

        在人工神经网络中,激活函数扮演了非常重要的角色,其主要作用是对所有的隐藏层和输出层添加一个非线性的操作,使得神经网络的输出更为复杂、表达能力更强。

        在神经网络中,激活函数决定来自给定输入集的节点的输出,其中非线性激活函数允许网络复制复杂的非线性行为。正如绝大多数神经网络借助某种形式的梯度下降进行优化,激活函数需要是可微分(或者至少是几乎完全可微分的)。此外,复杂的激活函数也许产生一些梯度消失或爆炸的问题。因此,神经网络倾向于部署若干个特定的激活函数(identitysigmoidReLU 及其变体)。

(激活函数分类)

        激活函数能分成两类——饱和激活函数非饱和激活函数

常用的激活函数合集(详细版)

二、常用激活函数解析

1、Sigmoid函数

1.1 公式

1.2 对应的图像

 1.3 优点与不足之处

Sigmoid优点:

1其值域为[0,1],非常适合作为模型的输出函数用于输出一个(0,1)范围内的概率值,可用于将预测概率作为输出的模型,比如用于表示二分类的类别或者用于表示置信度

2Sigmoid 函数的输出范围是 0 1。由于输出值限定在01,因此它对每个神经元的输出进行了归一化

3、该函数是连续可导的即可微),可以提供非常平滑的梯度值,防止模型训练过程中出现突变的梯度(即避免「跳跃」的输出值)

Sigmoid不足:

1、从其导数的函数图像上可以看到,其导数的最大值只有0.25而且当x[-5,5]的范围外时其导数值就已经几乎接近于0了。这种情况会导致训练过程中神经元处于一种饱和状态,反向传播时其权重几乎得不到更新,从而使得模型变得难以训练,这种现象被称为梯度消失问题。

2、其输出不是以0为中心而是都大于0这会降低权重更新的效率),这样下一层的神经元会得到上一层输出的全正信号作为输入,所以Sigmoid激活函数不适合放在神经网络的前面层而一般是放在最后的输出层中使用。

3、需要进行指数运算计算机运行得较慢),计算量大及计算复杂度高,训练耗时;指数的越大其倒数就越小,容易产生梯度消失。

1.4 对应pytorch的代码

import torch
import torch.nn as nn

# Sigmoid函数
print('*'*25+"Sigmoid函数"+"*"*25)
m = nn.Sigmoid()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

 对应的结果:

2、Tanh函数

2.1 公式

 2.2 对应的图像

2.3 优点与不足之处

Tanh优点:

1在分类任务中,双曲正切函数(Tanh)逐渐取代 Sigmoid 函数作为标准的激活函数,其具有很多神经网络所钟爱的特征。它是完全可微分的,反对称,对称中心在原点。

2、输出是S型曲线,具备打破网络层与网络层之间的线性关系,可以把网络层输出非线形地映射到 (−1,1) 区间里。负输入将被强映射为负,而零输入被映射为接近零tanh 的输出间隔为1且值域是以0为中心的[-1,1](可以解决Sigmoid激活函数输出不以0为中心的问题。)

3、在一般的二元分类问题中,tanh 函数用于隐藏层,而 sigmoid 函数用于输出层,但这并不是固定的,需要根据特定问题进行调整。

Tanh不足:

1、当输入较大或较小时,输出几乎是平滑的并且梯度较小,这不利于权重更新。

2Tanh函数也需要进行指数运算,所以其也会存在计算复杂度高且计算量大的问题。

3、当神经网络的层数增多的时候,由于在进行反向传播的时候,链式求导,多项相乘,函数进入饱和区(导数接近于零的地方)就会逐层传递,这种现象被称为梯度消失。

2.4 对应pytorch的代码

import torch
import torch.nn as nn

# Tanh函数
print('*'*25+"Tanh函数"+"*"*25)
m = nn.Tanh()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

3、ReLU

3.1 公式

3.2 对应的图像

3.3 优点与不足之处

ReLU函数:

1ReLU 函数在正输入时是线性的收敛速度快计算速度快,同时符合恒等性的特点。当输入为正时,由于导数是1能够完整传递梯度不存在梯度消失的问题(梯度饱和问题)。

2计算速度快ReLU 函数中只存在线性关系且无论是函数还是其导数都不包含复杂的数学运算,因此它的计算速度比 sigmoid tanh 更快。

3当输入大于0时,梯度为1,能够有效避免链式求导法则梯度相乘引起的梯度消失和梯度爆炸;计算成本低。

4、它保留了 step 函数的生物学启发(只有输入超出阈值时神经元才激活),不过当输入为正的时候,导数不为零,从而允许基于梯度的学习(尽管在 x=0 的时候,导数是未定义的)。当输入为负值的时候,ReLU 的学习速度可能会变得很慢,甚至使神经元直接无效,因为此时输入小于零而梯度为零,从而其权重无法得到更新,在剩下的训练过程中会一直保持静默。

ReLU不足:

1ReLU的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。为了解决ReLU函数这个缺点,在ReLU函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky ReLU函数。

2Sigmoid一样,其输出不是以0为中心的ReLU的输出为0或正数)。

3ReLU在小于0的时候梯度为零,导致了某些神经元永远被抑制,最终造成特征的学习不充分;这是典型的 Dead ReLU 问题,所以需要改进随机初始化,避免将过多的负数特征送入ReLU

3.4 对应pytorch的代码

import torch
import torch.nn as nn

# Relu函数
print('*'*25+"Relu函数"+"*"*25)
m = nn.ReLU()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

4、Leaky ReLU函数

4.1 公式

4.2 对应的图像

4.3 改进以及不足之处

Leaky ReLU函数(ReLU改进)

1、与ReLU函数相比,x的非常小的线性分量给予负输入(0.01x来调整负值的零梯度问题;有助于扩大 ReLU 函数的范围,通常𝜆λ的值为 0.01 左右;函数范围是负无穷到正无穷

2LeakyRelu激活函数通过在负半轴添加一个小的正斜率(使得负轴的信息不会全部丢失)解决ReLU激活函数的“死区”问题,该斜率参数𝜆λ是手动设置的超参数,一般设置为0.01。通过这种方式,LeakyRelu激活函数可以确保模型训练过程中神经元的权重在输入小于0的情况下依然会得到更新。

3不会出现 Dead ReLu 问题,但是关于输入函数f(x) 部分容易出现梯度爆炸的情况是一样的,所以必要时,也可以搭配 sigmoid tanh 使用。

Leaky ReLU不足:

1、经典(以及广泛使用的)ReLU 激活函数的变体,带泄露修正线性单元(Leaky ReLU)的输出对负值输入有很小的坡度。由于导数总是不为零,这能减少静默神经元的出现,允许基于梯度的学习(虽然会很慢)

2、从理论上讲,Leaky ReLU 具有 ReLU 的所有优点,而且 Dead ReLU 不会有任何问题,但在实际操作中,尚未完全证明 Leaky ReLU 总是比 ReLU 更好。 

4.4 对应pytorch的代码

import torch
import torch.nn as nn

# Leaky Relu函数
print('*'*25+"Leaky Relu函数"+"*"*25)
m = nn.LeakyReLU(negative_slope=0.1) #negative_slope是个常数
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

5、PReLU函数

对应的论文链接:https://arxiv.org/abs/1502.01852v1

5.1 公式

 5.2 对应的图像

 5.3 改进以及不足之处

PReLU函数(ReLU改进)

1、在负值域,PReLU的斜率较小,这也可以避免Dead ReLU问题。与ELU相比,PReLU在负值域是线性运算。尽管斜率很小,但不会趋于0

2、公式与Leaky ReLu相似,但并不完全一样。𝛼可以是常数,或自适应调整的参数。也就是说,如果让a自适应,那么PReLu会在反向传播时更新参数a

3、参数α通常为01之间的数字,并且通常相对较小。

1)如果𝛼 = 0,则f(x)变为ReLU

2)如果𝛼 > 0,则f(x)变为leaky ReLU

3)如果𝛼是可学习的参数,则f(x)变为PReLU

PReLU不足:

这留给你们探索了!

5.4 对应pytorch的代码

import torch
import torch.nn as nn

# PRelu函数
print('*'*25+"PRelu函数"+"*"*25)
m = nn.PReLU(num_parameters=1) #num_parameters是个可训练参数
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

6、RReLU函数

对应论文的链接:https://arxiv.org/pdf/1505.00853.pdf

6.1 公式

6.2 对应的图像

6.3 改进以及不足之处

RReLU函数(ReLU改进)

1RReLUPReLU的表达式一样,但𝛼α参数不一样,这里的𝛂α是个随机震荡的数,范围(pytorch1/8~1/3(对应图的参数为lower =1/8upper =1/3)

3RReLU(随机校正线性单元)。在RReLU中,负部分的斜率在训练中被随机化到给定的范围内,然后再测试中被固定。在最近的Kaggle国家数据科学碗(NDSB)比赛中,由于RReLU的随机性,它可以降低过拟合。因此RReLU是有利的,而在大数据的情况下,未来还需要做更多的研究。

RReLU不足:

这留给你们探索!

6.4 对应pytorch的代码

import torch
import torch.nn as nn

# RRelu函数
print('*'*25+"RRelu函数"+"*"*25)
m = nn.RReLU(lower=0.1, upper=0.3) # 这里的参数属于(lower,upper)之间的震荡随机数
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

 

7、ELU函数

对应论文的链接:https://arxiv.org/abs/1511.07289

7.1 公式

7.2 对应的图像

7.3 改进以及不足之处

ELU函数(ReLU改进)(上图的α值1.0)

1ELU在负值时是一个指数函数(使激活的平均值接近零),具有软饱和特性,对噪声更鲁棒,抗干扰能力强;在较小的输入下会饱和至负值,从而减少前向传播的变异和信息。

2均值向零加速学习。通过减少偏置偏移的影响,使正常梯度接近于单位自然梯度,可以使学习更快。

3输出有负值,使得其输出的平均值为0右侧的正值特性,可以像relu一样缓解梯度消失的问题。

ELU不足:

1ELu 也是为了解决 Dead ReLu 而提出的改进型。计算上稍微比 Leaky ReLu 复杂一点,但从精度看似乎并未提高多少

2、尽管理论上比 ReLU 要好,但目前在实践中没有充分的证据表明 ELU 总是比 ReLU 好。

7.4 对应pytorch的代码

import torch
import torch.nn as nn

# ELU函数
print('*'*25+"ELU函数"+"*"*25)
m = nn.ELU(alpha=1.0) # 这里的参数alpha默认为1
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

8、SELU函数

对应论文的链接:https://arxiv.org/abs/1706.02515

8.1 公式

8.2 对应的图像

8.3 改进以及不足之处

SELU函数(ReLU改进)(上图的𝛼=1.67 and 𝝀=1.05.)

1、当其中参数𝛼α=1.67  𝝀λ=1.05时,在网络权重服从正态分布的条件下,各层输出的分布会向标准正态分布靠拢。这种[自我标准化]的特性可以避免梯度消失和爆炸。

2SELU激活函数是在自归一化网络中定义的,通过调整均值和方差来实现内部的归一化,这种内部归一化比外部归一化更快,这使得网络收敛得更快。

3SELU是给ELU乘上一个系数,该系数大于1。在这篇paper Self-Normalizing Neural Networks中,作者提到,SELU可以使得输入在经过一定层数之后变为固定的分布。以前的ReLUP-ReLUELU等激活函数都是在负半轴坡度平缓,这样在激活的方差过大时可以让梯度减小,防止了梯度爆炸,但是在正半轴其梯度简答的设置为了1。而SELU的正半轴大于1,在方差过小的时候可以让它增大,但是同时防止了梯度消失。这样激活函数就有了一个不动点,网络深了之后每一层的输出都是均值为0,方差为1

SELU不足:

留给你们探索!

8.4 对应pytorch的代码

import torch
import torch.nn as nn

# SELU函数
print('*'*25+"SELU函数"+"*"*25)
m = nn.SELU() # 这里的参数默认alpha=1.67,scale=1.05
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

9、CELU函数

对应论文的链接:https://arxiv.org/abs/1704.07483

9.1 公式

9.2 对应的图像

9.3 官方给的配置

由于没找到什么相关的资料,所以这里就给pytorch官方实现的参数。

CELU函数(ReLU改进)(右图的𝛼=1.0.)

1、官方配置:

alpha – the α value for the CELU formulation. Default: 1.0

inplace – can optionally do the operation in-place. Default: False

CELU不足:

暂无

9.4 对应pytorch的代码

import torch
import torch.nn as nn

# CELU函数
print('*'*25+"CELU函数"+"*"*25)
m = nn.CELU(alpha=1.0) # 这里的参数默认alpha=1.0
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

 对应的结果:

10 、GELU函数

对应论文的链接:https://arxiv.org/abs/1606.08415

10.1 公式

10.2 对应的图像

10.3 优点以及不足之处

GELU优点

1、当方差为无穷大,均值为0的时候,GeLU就等价于ReLUGELU可以当作为RELU的一种平滑策略GELU是非线性输出,具有一定的连续性。GELU有一个概率解释,因为它是一个随机正则化器的期望。

2研究学者尝试使用一个依赖于输入本身的概率统计量为激活函数提供随机正则性,同时保持输入信息,得到了一个更好的激活函数,即高斯误差线性单元,形式如下:

GELU(x) = x  P(Xx) = x    ϕ(x)GELU(x) = x ∗ P(X≤x) = x  ∗  ϕ(x)

由于上面这个函数是无法直接计算的,研究者在研究过程中发现GELU函数可以被近似地表示为

GELU(x)=0.5x(1+tanh(2𝜋  (x+0.044715x3) )GELU(x)=0.5∗x∗(1+tanh(√(2/π   )∗(x+0.044715x^3) )

3GELU的实用技巧。首先,建议在使用GELU训练时使用具有动量的优化器,这是深度神经网络的标准。其次,使用对高斯分布的累积分布函数的密切近似是很重要的。

GELU不足:

留给大家探索!

10.4 对应pytorch的代码

import torch
import torch.nn as nn

# GELU函数
print('*'*25+"GELU函数"+"*"*25)
m = nn.GELU()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

11、ReLU6函数

对应论文的链接:https://arxiv.org/abs/1704.04861v1

11.1 对应的公式

11.2 对应的图像

11.3 改进以及不足之处

ReLU6函数(ReLU改进)(右图的𝛼α=1.0.)

1、为了在移动设备float16/int8的低精度的时候也能有很好的数值分辨率。如果对ReLU的激活范围不加限制,输入范围为0到正无穷,如果激活值非常大,分布在一个很大的范围内,则低精度的float16/int8无法很好地精确描述如此大范围的数值,带来精度损失。

ReLU6不足

留给大家探索!

11.4 对应pytorch的代码

import torch
import torch.nn as nn

# ReLU6函数
print('*'*25+"ReLU6函数"+"*"*25)
m = nn.ReLU6()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

12、Swish函数

对应论文链接:https://arxiv.org/pdf/1710.05941v2.pdf

12.1 公式

12.2 对应的图像

12.3 优点以及不足之处

Swish优点(右图的𝛽β=1.0.)

1、和Relu一样,没有上边界,因此不会出现梯度饱和的现象(避免过拟合)。

2、有下边界,可以产生更强的正则化效果x左半轴慢慢趋近于0

3x<0非单调函数

4、平滑(处处可导,更容易训练)

Swish不足:

留给你们探索!

12.4 对应pytorch的代码

import torch
import torch.nn as nn
from torch.nn.modules.module import Module
from torch.nn import functional as F
from torch import Tensor

# Swish函数
# 由于旧版pytorch没找到Swich,自己整了一个
class Swish(Module):
    __constants__ = ['beta']
    beta: int
    def __init__(self, beta: int = 1) -> None:
        super(Swish, self).__init__()
        self.beta = beta
    def forward(self, input: Tensor) -> Tensor:
        return input*torch.sigmoid(input*self.beta)
print('*'*25+"Swish函数"+"*"*25)
m = Swish()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

13、Hardswish函数

对应论文的链接:https://arxiv.org/abs/1905.02244

13.1 公式

13.2 对应的图像

13.3 优点以及不足之处

Hardswich优点

1激活函数h-swishMobileNet V3相较于V2的一个创新,是在谷歌大脑2017年的论文Searching for Activation Functionsswish函数的基础上改进而来,用于替换V2中的部分ReLU6

2、作者选择了ReLU6作为这个近似函数,有两个原因:在几乎所有的软件和硬件框架上都可以使用ReLU6的优化实现;ReLU6能在特定模式下消除由于近似sigmoid的不同实现而带来的潜在的数值精度损失。

3、作者认为,随着网络的深入,应用非线性激活函数的成本会降低,能够更好的减少参数。

Hardswich不足:

留给你们探索!

13.4 对应pytorch的代码

import torch
import torch.nn as nn

# Hardswish函数
print('*'*25+"Hardswish函数"+"*"*25)
m = nn.Hardswish()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

14、SiLU函数

对应论文的链接:https://arxiv.org/pdf/1702.03118v3.pdf

14.1 公式

 14.2 对应的图像

14.3 函数特点

SiLU函数:

1Swish激活函数具备无上界有下界、平滑、非单调的特性,Swish在深层模型上效果优于ReLU

表达式:

swish(x)=xsigmoid(βx)

β是个常数或者可训练的参数,当β=1时,我们也称作SiLU激活函数。

14.4 对应pytorch的代码

import torch
import torch.nn as nn

# SiLU函数
print('*'*25+"SiLU函数"+"*"*25)
m = nn.SiLU()
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

15、Softplus函数

15.1 公式

 15.2 对应的图像

 15.3 函数特点

Softplus函数:

Softplus函数可以看作是ReLU函数的平滑加了1是为了保证非负性

2它是一种和 ReLu 函数功能作用极象的函数,并且在很多新的模型里,作为 ReLu 的替代。相对于ReLu LeakyReLu 来说,Softplus 有个非常「致命」的优点,就是它在0点处是可导的。不过相对于 ReLu 的粗暴简单,这个函数的运算耗费时间相对较多。

15.4 对应pytorch的代码

import torch
import torch.nn as nn

# Softplus函数
print('*'*25+"Softplus函数"+"*"*25)
m = nn.Softplus(beta=1.0)# 这里的参数默认beta=1.0
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

16、Mish函数

对应论文的链接:https://arxiv.org/pdf/1908.08681v3.pdf

16.1 公式

16.2 对应的图像

 16.3 函数特点

Mish优点

1Mish激活函数无边界(即正值可以达到任何高度)避免了由于封顶而导致的饱和。理论上对负值的轻微允许允许更好的梯度流,而不是像ReLU中那样的硬零边界。

最后,可能也是最重要的,目前的想法是,平滑的激活函数允许更好的信息深入神经网络,从而得到更好的准确性和泛化。

2Mish函数具有以下几个特点:

1无上界有下界(没有上限),这样可以保证没有饱和区域,因此在训练过程中不会有梯度消失的问题,这个和relu后面的激活函数一样。有下限的话能够保证具有一定的regularization effect,这对于神经网络训练来说是一个很好的特性。

2非单调性函数,输入较小负数的时候往往梯度回传也会很小,这样会导致收敛较慢,但是如果输入较大负数的时候不缩小的话,又容易梯度爆炸。这种性质有助于小的负值,从而稳定网络梯度流。

3无穷阶连续性和光滑性Mish函数是光滑函数,具有较好的泛化能力和结果的有效优化能力,可以提高结果的质量。

16.4 对应pytorch的代码

import torch
import torch.nn as nn
from torch.nn.modules.module import Module
from torch.nn import functional as F
from torch import Tensor

# Mish函数
class Mish(Module):# 由于我使用是pytorch老版本没有Mish函数,自己整了一个
    __constants__ = ['beta', 'threshold']
    beta: int
    threshold: int
    def __init__(self, beta: int = 1, threshold: int = 20) -> None:
        super(Mish, self).__init__()
        self.beta = beta
        self.threshold = threshold
    def forward(self, input: Tensor) -> Tensor:
        return input*torch.tanh(F.softplus(input, self.beta, self.threshold))
    def extra_repr(self) -> str:
        return 'beta={}, threshold={}'.format(self.beta, self.threshold)
print('*'*25+"Mish函数"+"*"*25)
m = Mish()
# input = torch.randn(2)
input = torch.range(0,2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

17、 Softmax函数

17.1 公式

17.2 对应的图像

这里使用梯度无法求导,所以导函数图像是一个y=0的直线。

17.3 优点以及不足之处

Softmax函数:

Softmax激活函数的特点:

1在零点不可微,负输入的梯度为零,这意味着对于该区域的激活,权重不会在反向传播期间更新,因此会产生永不激活的死亡神经元。

2将预测结果转化为非负数、预测结果概率之和等于1

3经过使用指数形式的Softmax函数能够将差距大的数值距离拉的更大。在深度学习中通常使用反向传播求解梯度进而使用梯度下降进行参数更新的过程,而指数函数在求导的时候比较方便.

Softmax不足:

使用指数函数,当输出值非常大的话,计算得到的数值也会变的非常大,数值可能会溢出

17.4 对应pytorch的代码

import torch
import torch.nn as nn

# Softmax函数
print('*'*25+"Softmax函数"+"*"*25)
m = nn.Softmax(dim=0) # 维度为0
input = torch.randn(2)
print("原:",input)
print("结果:",m(input))
print('*'*50)

对应的结果:

三、 绘图代码(部分图像)

# https://blog.csdn.net/huadushao/article/details/107094804?ops_request_misc=&request_id=&biz_id=102&utm_term=pytorch%20%E6%B1%82%E5%AF%BC%E5%87%BD%E6%95%B0%E5%9B%BE%E5%83%8F&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-107094804.142^v50^control,201^v3^add_ask&spm=1018.2226.3001.4187
import torch
import numpy as np
import matplotlib.pylab as plt
import sys
from matplotlib import pyplot as plt
from IPython import display
from matplotlib import style
from torch.nn.modules.module import Module
from torch.nn import functional as F
from torch import Tensor

def xyplot(x_vals, y_vals, name):
    plt.rcParams['figure.figsize'] = (5, 3.5)
    plt.grid(c='black',linewidth=0.08)
    plt.plot(x_vals.detach().numpy(), y_vals.detach().numpy(), label = name, linewidth=1.5)
    font = {'family': 'SimHei'}; # 中文字体
    plt.legend(loc='upper left',prop=font)
    #dark_background, seaborn, ggplot
    # plt.style.use("seaborn")
    ax = plt.gca()
    ax.spines['right'].set_color("none")
    ax.spines['top'].set_color("none")
    ax.spines['bottom'].set_position(("data",0))
    ax.spines['left'].set_position(("data",0))
    ax.spines['bottom'].set_linewidth(0.5)
    ax.spines['left'].set_linewidth(0.5)
    ax.xaxis.set_ticks_position('bottom')
    ax.yaxis.set_ticks_position('left')


# 激活函数以及导函数
def func_(y_func,func_n,save_=None,x_low=-6.0,x_top=6.0):
    x = torch.arange(-6.0, 6.0, 0.1, requires_grad=True)
    y = y_func(x)
    xyplot(x, y, '原函数')
    #导数
    y.sum().backward()
    xyplot(x, x.grad, "导函数")
    plt.title(f"{func_n}(x)")
    if save_ is not None:
        plt.draw()
        plt.savefig(f"./{func_n}.jpg")
        plt.close()
    plt.show()

# 由于我使用的pytorch版本没有Mish函数,所以整了一个
class Mish(Module):
    __constants__ = ['beta', 'threshold']
    beta: int
    threshold: int
    def __init__(self, beta: int = 1, threshold: int = 20) -> None:
        super(Mish, self).__init__()
        self.beta = beta
        self.threshold = threshold
    def forward(self, input: Tensor) -> Tensor:
        return input*torch.tanh(F.softplus(input, self.beta, self.threshold))
    def extra_repr(self) -> str:
        return 'beta={}, threshold={}'.format(self.beta, self.threshold)

# 没找到Swich,so再整了一个
class Swish(Module):
    __constants__ = ['beta']
    beta: int
    def __init__(self, beta: int = 1) -> None:
        super(Swish, self).__init__()
        self.beta = beta
    def forward(self, input: Tensor) -> Tensor:
        return input*torch.sigmoid(input*self.beta)

# RReLU
func_(torch.nn.RReLU(),"RReLU",True)
# ELU
func_(torch.nn.ELU(),"ELU",True)
# SELU
func_(torch.nn.SELU(),"SELU",True)
# CELU
func_(torch.nn.CELU(),"CELU",True)
# GELU
func_(torch.nn.GELU(),"GELU",True)
# ReLU6
func_(torch.nn.ReLU6(),"ReLU6",True)
# Swish
func_(Swish(),"Swish",True)
# Hardswish
func_(torch.nn.Hardswish(),"Hardswish",True)
# SiLU
func_(torch.nn.SiLU(),"SiLU",True)
# Softplus
func_(torch.nn.Softplus(),"Softplus",True)
# Mish
func_(Mish(),"Mish",True)
# Softmax
func_(torch.nn.Softmax(),"Softmax",True)

四、参考链接大合集

1.混合链接

torch.nn — PyTorch 1.12 documentation
https://blog.csdn.net/NIeson2012/article/details/103016909?ops_request_misc=&request_id=&biz_id=102&utm_term=%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E5%A4%A7%E5%85%A8&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-4-103016909.142^v47^control,201^v3^control_1&spm=1018.2226.3001.4187
https://blog.csdn.net/weixin_44613415/article/details/125799416?ops_request_misc=&request_id=&biz_id=102&utm_term=%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E5%A4%A7%E5%85%A8&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-3-125799416.142^v47^control,201^v3^control_1&spm=1018.2226.3001.4187
https://blog.csdn.net/weixin_65089713/article/details/123916539?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166265736216782427481594%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=166265736216782427481594&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-4-123916539-null-null.142^v47^control,201^v3^control_1&utm_term=%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E5%A4%A7%E5%85%A8&spm=1018.2226.3001.4187
https://blog.csdn.net/weixin_44485812/article/details/116673520?ops_request_misc=&request_id=&biz_id=102&utm_term=%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E5%A4%A7%E5%85%A8&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-8-116673520.142^v47^control,201^v3^control_1&spm=1018.2226.3001.4187
https://blog.csdn.net/poisonchry/article/details/120960751?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166265863416800182159072%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=166265863416800182159072&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-24-120960751-null-null.142^v47^control,201^v3^control_1&utm_term=%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E5%A4%A7%E5%85%A8&spm=1018.2226.3001.4187
https://blog.csdn.net/qq_40035462/article/details/123567055?ops_request_misc=&request_id=&biz_id=102&utm_term=%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E5%A4%A7%E5%85%A8&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-2-123567055.142^v47^control,201^v3^control_1&spm=1018.2226.3001.4187
激活函数变种(Sigmoid、Hard-Sigmoid、Tanh、ReLU、Leaky ReLU、ELU、SELU、ReLU6、Swish、Hard-Swish、Mish)_@会飞的毛毛虫的博客-CSDN博客
深度学习—激活函数详解(Sigmoid、tanh、ReLU、ReLU6及变体P-R-Leaky、ELU、SELU、Swish、Mish、Maxout、hard-sigmoid、hard-swish)_jsk_learner的博客-CSDN博客_relu6函数
https://pytorch.org/docs/stable/nn.html#
GELU激活函数_木盏的博客-CSDN博客_gelu激活函数

2.单独链接 

2.1 GELU

GELU激活函数_木盏的博客-CSDN博客_gelu激活函数
https://blog.csdn.net/sinat_36618660/article/details/100088097?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166385958716800182787924%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=166385958716800182787924&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~baidu_landing_v2~default-3-100088097-null-null.142^v50^control,201^v3^add_ask&utm_term=GELU%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0&spm=1018.2226.3001.4187
GELU激活函数_uncle_ll的博客-CSDN博客_gelu非线性
GELU激活函数介绍和笔记_夜晓岚渺渺的博客-CSDN博客_gelu

2.2 Swish 

深度学习中常用的激活函数_DeepDriving的博客-CSDN博客_深度学习中激活函数
https://blog.csdn.net/qq_38978225/article/details/124587779?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166394917216782428676697%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=166394917216782428676697&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-1-124587779-null-null.142^v50^control,201^v3^add_ask&utm_term=Swish&spm=1018.2226.3001.4187
https://blog.csdn.net/Roaddd/article/details/114793441?ops_request_misc=&request_id=&biz_id=102&utm_term=Swish&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-4-114793441.142^v50^control,201^v3^add_ask&spm=1018.2226.3001.4187
https://blog.csdn.net/qq_38253797/article/details/118793355?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166394917216782428642824%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=166394917216782428642824&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-9-118793355-null-null.142^v50^control,201^v3^add_ask&utm_term=Swish&spm=1018.2226.3001.4187

2.3 Hardswish

https://blog.csdn.net/jacke121/article/details/105582377?ops_request_misc=&request_id=&biz_id=102&utm_term=Swish&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-9-105582377.142^v50^control,201^v3^add_ask&spm=1018.2226.3001.4187

2.4 SiLU

常用的激活函数Sigmoid,ReLU,Swish,Mish,GELU_liguiyuan112的博客-CSDN博客_silu和relu

2.5 Softplus

深度学习领域的10个激活函数_yangqingao的博客-CSDN博客
激活函数—Sigmoid、Tanh、ReLu、softplus、softmax_程序员王小甲的博客-CSDN博客_softplus函数
详解激活函数Mish_一杯盐水的博客-CSDN博客_mish激活函数
https://blog.csdn.net/qq_35975753/article/details/110532118?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166395326916782395380088%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=166395326916782395380088&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_click~default-1-110532118-null-null.142^v50^control,201^v3^add_ask&utm_term=mish&spm=1018.2226.3001.4187
【激活函数】Mish激活函数详解_姚路遥遥的博客-CSDN博客_mish 激活函数

2.6 softmax

机器学习中的数学——激活函数(七):Softmax函数_von Neumann的博客-CSDN博客_softmax激活函数

五、小结

        本文分别从激活函数的公式及导函数、图像、优缺点或特点来描述了激活函数,以及总结了激活函数之间的优势,并且提供了pytorch的代码案例,以便于大家快速上手。同时,论文中的绘制图像以及参考的链接在本章已给出。

        本博主通过海量的查找资料完成本篇文章,但也总会有疏忽的地方,如果大家发现问题请指出,一起完善这篇文章。如果你觉得有用的话,那就点个👍把!

文章出处登录后可见!

已经登录?立即刷新
退出移动版