目录
参考学习b站资源:
1.项目源码
可在github下载(含原始样品数据):
https://github.com/chenshunpeng/BP-neural-network
2.神经网络介绍
最早的神经网络模型, 单层感知器perceptron,结构如下:
这是一个两层的神经网络,第一层为输入层,第二层为输出层。因为只有在输出层需要进行计算,就是说只有一层计算层,所以称之为单层感知器。从形式上看,仅仅是将MP模型中的输入信号当作了独立的一层神经元,但是本质上却有很大差别。
感知器模型中权重和阈值不再是固定的了,而是计算机”学习”出来的结果。引入了损失函数的概念,通过迭代不断调整权重和阈值,使得损失函数最小,以此来寻找最佳的权重和阈值。
单层感知器只可以解决线性可分的问题,在单层感知器的基础上,再引入一层神经元,构成一个2层的神经网络(要刨去输入层),结构如下:
这样的一个神经网络模型,适用范围更广,涵盖了线性和非线性可分的场景。其中的每一层称之为layer, 除了输出层和输出层之外,还有中间的隐藏层。这样的神经网络模型,通过反向传播算法来求解。
增加一层的好处在于更好的数据表示和函数拟合的能力,在3层的基础上,再引入更多的隐藏层,就变成了深度神经网络,图示如下:
可以看到,每增加一层,模型的参数数量急剧增加,所以深度学习对计算资源的要求特别高,在实际使用中,模型训练时间非常的久。
虽然耗费计算资源,但是深度学习的优点也很突出,相比机器学习,模型自动完成特征提取,不需要人工的特征工程,这一点对于高维数据的处理特别重要
3.辛烷值的预测
【改编】辛烷值是汽油最重要的品质指标,传统的实验室检测方法存在样品用量大,测试周期长和费用高等问题,不适用于生产控制,特别是在线测试。近年发展起来的近红外光谱分析方法(NIR),作为一种快速分析方法,已广泛应用于农业、制药、生物化工、石油产品等领域。其优越性是无损检测、低成本、无污染,能在线分析,更适合于生产和控制的需要。
实验采集得到50组汽油样品(辛烷值已通过其他方法测量),并利用傅里叶近红外变换光谱仪对其进行扫描,扫描范围900~1700nm,扫描间隔为2nm,即每个样品的光谱曲线共含401个波长点,每个波长点对应一个吸光度。
- 请利用这50组样品的数据,建立这401个吸光度和辛烷值之间的模型。
- 现给你10组新的样本,这10组样本均已经过近红外变换光谱仪扫描,请预测这10组新样本的辛烷值。
Excel截图:
3.1.原始样品数据
因为数据太多,博客只放了一部分,完整Excel可以在github项目中下载:
https://github.com/chenshunpeng/BP-neural-network
首先导入数据:
new_X:需要预测的输入层数据
X:样品的输入层数据
Y:样品的输出层数据
3.2.matlab代码实现
%ignore_pre_1%关于隐含层数的确定(这里是10),需要注意的是:
- 如果不用公式的话,可以逐步试验得到隐层节点数,就是先设置一个初始值,然后在这个值的基础上逐渐增加,比较每次网络的预测性能,选择性能最好的对应的节点数作为隐含层神经元节点数(逐步增加是因为确定隐含层节点数的基本原则是:在满足精度的前提下,取尽可能紧凑的结构,即取尽可能少的隐含层节点数)
- 如果用公式的话,一般有几个经验公式(建议了解一下神经网络的数学/理论部分),带入看哪个效果好,就取哪个为基准,再结合逐步试验法确定隐层节点数,但因为权值和阈值是每训练一次,调整一次,所以只能尽量趋于最优(好像也可以通过遗传算法、粒子群算法这样的优化算法来确定,就比较高深了)
训练结果:
%ignore_pre_2%
进行预测:
结果:
%ignore_pre_4%需要注意的是,不同的神经网络模型参数会对预测值有影响,比如隐含层的个数(默认为10),测试集比例,训练方法等,另一方面,样本数量的局限或是模型的质量也都有可能对结果有很大的影响
3.3.工具箱实现
3.3.1.莱文贝格-马夸特方法
在Matlab的菜单栏点击APP,再点击Neural Fitting app(神经网络工具箱):
注意到左下角有一个模块:
点击后出现:
我们可以在这里看到对它的介绍:
可以简单了解一下:
之后接着进行操作:
注意选择样本在行上面(Matrix rows),也就是说每一行对应一个样本的所有数据
之后出现:
解释:
训练集(Training set) —— 用于模型拟合的数据样本。
验证集(Validation set)—— 是模型训练过程中单独留出的样本集,它可以用于调整模型的超参数和用于对模型的能力进行初步评估。在神经网络中,我们用验证数据集去寻找最优的网络深度,或者决定反向传播算法的停止点或者在神经网络中选择隐藏层神经元的数量;
测试集(Testing set) —— 用来评估模最终模型的泛化能力。但不能作为调参、选择特征等算法相关的选择的依据。
之后默认选择隐含层的个数为10(就是说有10个神经元进行预测,即output部分有10个):
之后选择训练方法:
解释:
三种训练方法:
莱文贝格-马夸特方法(Levenberg–Marquardt algorithm)
贝叶斯正则化方法(Bayesian‐regularization)
量化共轭梯度法(Scaled Conjugate Gradient )
选择合适的进行训练即可
训练结果:
在时刻9(训练了9次)验证集valiadation出现了最低的均方误差,选择时刻9的模型为最佳模型:
横坐标:训练结束时的epochs数(神经网络一次前向传播+一次反向传播=一个epoch)
纵坐标:均方误差
这三条线分别是:训练集(train)、验证集(validation)和测试集(test)
训练集(蓝线所用数据集):训练模型,得到模型参数
验证集(绿线所用数据集):评估模型,得到的最优网络
测试集(红线所用数据集):用之前得到的最优网络来评估模最终模型的泛化能力
解释一下为什么最佳模型的标注在绿线上:
首先使用训练集训练多个网络模型(假设为t1,t2,t3 … tn),再使用验证集测试这些网络,找到得分最高的那个网络(假设为t9)作为我们选择的最佳网络,所以最佳模型的标注在绿线上,红线则是网络模型将训练集和验证集合并训练而产生的(其实,绿线类似Kaggle中的Private Testing Set)
将拟合值对真实值回归,拟合优度越高,说明拟合的的效果越好:
对应的神经网络图:
最后保存训练出来的神经网络模型:
其中 net 即训练出来的神经网络模型
进行预测:
%ignore_pre_5%结果:
%ignore_pre_6%3.3.2.贝叶斯正则化方法
之后我们换一种训练方法(从 莱文贝格-马夸特方法 换到 贝叶斯正则化方法),发现训练了391次还没有结束,于是我就手动停止了(训练了长达19min):
我们点击 (trainbr) 可以看到对贝叶斯正则化方法的详细介绍,及其局限性:
该函数使用雅可比矩阵进行计算,该函数假设性能是误差的平均值或平方和。
因此,使用该函数训练的网络必须使用mse或sse性能函数。
我们看训练的表现:
训练的MSE图(左图),回归图(右图):
MSE图(左图)
横坐标: 训练结束时的epochs数【神经网络一次前向传播+一次反向传播=一个epoch】
纵坐标: 均方误差
从图中可以发现训练集最小均方误差一直在变小,测试集略微轻微增大,趋于稳定(但误差其实都已经非常非常小了)
回归图(右图)
横坐标: 样本原目标值
纵坐标: 神经网络输出预测值
可以得到原目标值和预测值的相关度;用系数R表示,若R越接近1,则表示线性化程度越高,结果越好
我们惊奇的发现没有validation
,训检查了一下训练集(train)、验证集(validation)和测试集(test)在matlab工具箱中分别是70%,15%,15%的比例,没有问题,仔细看了一下原来是因为均方误差MSE和R指标在精度范围内已经为0,所以都不需要考虑它了!
训练的状态图(左图),误差直方图(右图):
状态图(左图)
可以观察网络训练状态,判断是否终止训练
横坐标: epoch
纵坐标:
gradient:梯度,若梯度为0,则为图像最低点,即最优位置
mu:超参数(具体待研究)
val fail:可以理解为误差值(具体待研究)
validation check=0, at epoch 391
:代表到第391次训练时,训练误差的 连续增大epoch数 为0(其实就是第390次训练时训练误差比第391次大),设置 validation checks
是为了防止被训练的网络过拟合的
状态图的详细介绍可看帮助文档:
误差直方图(右图)
可以得到神经网络的输出值与样本原目标值的误差
横坐标: 误差区间的中位数;
纵坐标: 位于该误差区间的样本个数
之后可以通过这2个看训练的matlab代码:
可以在这里体验神经网络的模拟部署:
大概是这样(具体功能可以自己了解)
可以看到神经网络图:
如下:
我们可以生成脚本,方便以后解决相同的问题:
代码:
%ignore_pre_7%之后保存数据:
进行预测:
结果:
%ignore_pre_9%4.辛烷值的预测(进阶版,预测辛烷值区间)
因为有人进行了提问:bp神经网络预测的问题,讨论区也有类似的问题,所以对辛烷值的预测进行了深入的讨论
上一个是预测一个辛烷值,这次我们将上一次的辛烷值做一个运算,生成一个辛烷值区间(其实就是想生成个一个区间的两个端点),自定义公式:
我们生成:
%init(1)是初始辛烷值,init(2)是α,init(3)是β
for i = 1: 50
init(i,2) = init(1)-init(1)/randi([9,11]);
init(i,3) = init(1)+init(1)/randi([11,13]);
end
数据如下(均保存2位小数):
辛烷值 α β
85.3 76.77 92.41
85.25 77.55 92.41
88.45 76.77 91.86
83.4 77.55 92.41
87.9 76.77 92.41
85.5 75.82 93.05
88.9 76.77 93.05
88.3 77.55 93.05
88.7 75.82 93.05
88.45 75.82 92.41
88.75 75.82 91.86
88.25 76.77 93.05
87.3 77.55 91.86
88 76.77 93.05
88.7 75.82 92.41
85.5 76.77 93.05
88.65 76.77 91.86
88.75 75.82 93.05
85.4 75.82 93.05
88.6 76.77 92.41
87 75.82 93.05
87.15 77.55 93.05
87.05 77.55 91.86
87.25 76.77 92.41
86.85 75.82 92.41
88.65 77.55 92.41
86.6 76.77 93.05
86 76.77 92.41
86.1 77.55 92.41
86.5 76.77 91.86
86.3 75.82 91.86
84.4 77.55 91.86
84.7 75.82 93.05
84.6 76.77 91.86
84.5 75.82 91.86
88.1 75.82 92.41
85.25 76.77 91.86
88.4 77.55 91.86
88.2 77.55 92.41
88.4 77.55 93.05
88.55 75.82 91.86
88.35 76.77 92.41
88.2 77.55 92.41
85.3 76.77 91.86
88.5 77.55 92.41
88.25 75.82 93.05
88 77.55 93.05
88.85 76.77 93.05
88.45 77.55 91.86
88.7 76.77 92.41
现在我们开始愉快的预测:
首先导入数据:
new_X:需要预测的输入层数据
X:样品的输入层数据
Y:样品的输出层数据
其实就是把Y多增加1列:
4.1.matlab代码实现
%ignore_pre_12%之后开始训练:
训练结果为:
训练中间阶段:
回归结果(数据虽然是瞎生成的,但结果好像还不错呢 ):
输出结果(图像有些小问题,应该是多条曲线的对比,有空会将它优化的QAQ ,但是整体思路都没问题):
进行预测,竟然报错了:
错误代码(就当教训了):
%ignore_pre_14%我们查看predict_y,没问题:
那么就是mapminmax
函数的问题,修改如下:
结果:
%ignore_pre_16%看一下predict_y,也没问题:
我们再转置回来得到正确结果:
那么为啥要这么修改呢,我们细细品(#^.^#) ,这要回到神经网络构建的时候了:
这两部分要对应上哇,哈哈,完结撒花
4.2.工具箱实现
类比之前实现的方法,其实是不难实现的,读者可以自行完成
目前课业压力较大,这段时间大概率会忽略博客评论,敬请谅解
文章出处登录后可见!