BP神经网络的数学本质

《老饼讲解神经网络》BP神经网络的数学本质http://bp.bbbdata.com/teach#73

内容

一、 隐神经元与tansig函数

二 、BP本质

三、BP神经网络的曲线拟合要素

(1) 误差函数

(2) 拟合基函数

(3) 待求解参数及求解算法

四、对BP神经网络的新认知

(1) 神经元数量的作用

(2)关于神经元层数的设置

(3) 神经元激活函数的选择

5、从精华中获得的应用经验

1.隐神经元个数

2.一般不能预测历史数据[xmin,xmax]以外的数据

3.应避免训练数据中含有太多的输入空缺

4.BP神经网络解决哪类问题

六、BP神经网络的白箱与黑箱

对于一些新手来说,他们总是喜欢把神经网络当成一个黑盒子。从商业角度看,神经网络确实是一个黑盒子,但从数学角度看,神经网络绝不是黑盒子。

本文从曲线拟合的角度解释了神经网络中隐藏神经元的数学性质。进一步简化对神经网络的理解。

一、 隐神经元与tansig函数

从BP神经网络(这里默认只有一个隐层)的数学表达式

BP神经网络的数学本质

我们可以看出,它实际是由多个tansig函数进行叠加而成。

我们再看tansig是一个什么样的函数:

BP神经网络的数学本质

从图可知,tansig是一个y在(-1,1)之间的S曲线,

在,

(1)  曲线部分在大概在[-3,3]之间,在x=[-3,3]之外,值基本趋向了-1和1,
(2)  斜线部分在 [-1.7 ,1.7] 之间(之后初始化会利用到这部分特性)。

二 、BP本质

结合数学表达式与tansig的图形特性,可知,BP神经网络的数学本质,就是用多个S曲线叠加去拟合目标数据点。

参数的作用:

tansig 内的 w,则控制了tansig曲线的肥瘦,
tansig外的w,则调节了tansig曲线的高矮。
b则用于平移tansig在x轴的位置。

通过调节内外w、b,可以将tansig作如下的调整:

BP神经网络的数学本质


最后,叠加高矮肥瘦位置不一的tansig,就可以捏造出不一样的曲线:

BP神经网络的数学本质

灰色的为三个tansig:
(1)  1.185*tansig(-0.84574*x1+2.3697)
(2)  -1.5761*tansig(-0.67661*x1+0.0063973)
(3) 1.1424*tansig(-0.86965*x1-2.4206)
蓝色的为三个tansig之和。


所以,我们使用BP神经网络的本质就是,已知数据点,现求n个tansig函数,使其叠加后能拟合任意数据点。

三、BP神经网络的曲线拟合要素

因此,我们完全可以把BP神经网络看成一个曲线拟合的算法。

基于对曲线拟合通用算法:《曲线拟合四要素》的理解,曲线拟合有几大要素:拟合误差函数、拟合基函数、拟合函数参数待求解。

从曲线拟合的角度来学习神经网络,我们只需要清楚地了解它的三大要素,就可以掌握神经网络。

(1) 误差函数

一般仍使用均方误差:

E(w,b) = \displaystyle \dfrac{1}{n}\sum \limits _{i=1}^{N}(\text{y}-\text{y}_0)^2

其中,y是神经网络的预测值(即(1)式),y0 是原始数据 y 值

(2) 拟合基函数

用的就是tansig. 为什么用tansig?
(1)  拥有局部非线性。
(2)  tansig的导数的值,可用自身简易表示出来:

BP神经网络的数学本质

使网络求解的计算更简单。

(3) 待求解参数及求解算法

w,b为待解参数。以误差函数作为引导,对wb进行求解。

理论是令误差函数偏导为0(如线性函数拟合般),求解即可。
但实际上,E的偏导是一个非线性函数,多个非线性等式求解我们解决不了,因此此法行不通。无法求得精确解。

由于无法得到精确的解,我们只能更频繁地找到极好的解。

一般的方法是,先设置一个初始解,再逐步调整,使目标函数E逐步下降。

这样的算法有很多,常用的神经网络有两种:
(1)梯度下降法
(2)L-M算法

神经网络训练通常被称为寻找解决方案的过程。

四、对BP神经网络的新认知

从曲线拟合角度认知BP神经网络后,我们可以更好的解答一些问题,和得到更深入的认知。

(1) 神经元数量的作用

参考《曲线拟合的四要素》中的《曲线过拟合与泛化能力》第三部分,我们知道:

越复杂(跌宕起伏,极值点多)的函数,我们就需要越多的tansig函数(隐神经元)去拟合。
越简单的(平滑,极值点少)的函数,我们就尽量用更少的tansig函数(隐神经元),以避免过拟合。

(2)关于神经元层数的设置

为什么只有一个隐藏层就足够了?

(1)多层没有质的改变:

多层的本质是使用多个w_n*\textbf{tansig}(w_{n-1}*\textbf{tansig}(....w_{2}*\textbf{tansig}(w_1x_1+b_1)+b_{n-1})+b_{n-1})+b_{n}
去拟合函数。而事实上,和用单个tansig去拟合并没有本质区别,基函数不一样罢了。

(2)单隐层已满足需求:

已有证明,不管什么曲线,我们只要一个层隐,虽然只有一个隐层, 但不管曲线多复杂,我们都能通过增加tansig个数去将它拟合,

因此,我们设置一个隐藏层就足够了。

不禁要问,深度学习不是用了多层吗?它是多层的,而不是这个多层的。请参阅“为什么需要多层网络”

所以,传统BP一般只用一个隐层。要拟合的对象越平滑,就用越少节点。以防过拟合。

(3) 神经元激活函数的选择

一般我们都使用tansig函数作为激活函数(基函数)。也可切换为logsig,或其它函数,
但本质是利用这些激活函数来拟合曲线。

如果别的激活函数在理论上没有更好的优势,那就直接使用tansig函数。

5、从精华中获得的应用经验

1.隐神经元个数

神经元个数决定了最终拟合曲线的起伏上限。神经元个数的设置应参考拟合目标曲线的起伏。如果没有必要,使用尽可能少的神经元。

2.一般不能预测历史数据[xmin,xmax]以外的数据

曲线拟合仅对 拟合数据(历史数据)[xmin,xmax]范围内的形态进行拟合,对于范围外的,一般来说会迅速失去预测效果。


3.应避免训练数据中含有太多的输入空缺

训练数据的输入要尽可能全面,
例如  x = [ 1,2,10,11],y=[1,4,100,121],那么,在2-10就是一个极大的空缺了,在拟合曲线在这部分作出任意预测值都不会有惩罚,
因此,可以人为引导网络在这部分不要作出太奇葩的预测值,例如,在训练数据中人为加入空白处的中间值[(10-2)/2,(100+4)/2]。

4.BP神经网络解决哪类问题

解决任何本质是曲线拟合问题的问题(即规则拟合)。且输入个数不能过多,尽量在100个以内。
注:分类问题可以转化为多输出曲线拟合问题

六、BP神经网络的白箱与黑箱

1.业务黑箱与数学白箱

神经网络是一个黑匣子,只是从业务的角度对业务来说是莫名其妙的。但从数学上讲,它不是黑盒子,而是白盒子,而且是透明的。

2.建模师应如何利用数学白箱

虽然整个网络最终拟合出来的规则,是复杂与千变万化,难以把控的,但每个tansig的形态,却是单纯的。因此,建模师可以通过分析每个神经元(tansig)的w,b,来判断该神经元的作用,与网络的构成。

这是本文的结尾。如果觉得有帮助,请点个赞~!

相关文章

“神经网络归一化”

《如何设置隐藏层节点数》

《提取神经网络数学表达式》

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2022年4月1日 下午9:52
下一篇 2022年4月1日 下午10:11

相关推荐

此站出售,如需请站内私信或者邮箱!