高数基础—线搜索

1,无约束优化问题(unconstrained optimization)无优化约束问题:即找函数在上的最小化的最优解,问题(1)如果且,则为全局最优点—最小值点(2)如果存在的一个邻域,使得且,则称为局部最优点—极小值点Theorem.1:局部极小值点,一阶导为0Theorem.2:,海瑟矩阵半正定(positive semidefinite)Theorem.3:(二阶充分条件)若,is positive definite,则是局部极小值点—判断最优解的法则T.

1,无约束优化问题(unconstrained optimization)

\underset{x{\in}\mathbb{R}^{n}}{min}f(x)

无优化约束问题:即找f(x)函数在x\in \mathbb{R}^{n}上的最小化的最优解x^{\ast }f(x^{\ast })问题

(1)如果f(x^{\ast })\leq f(x)\forall{x\in \mathbb{R}^{n}},则x^{\ast }为全局最优点—最小值点

(2)如果存在x^{\ast }的一个邻域\mathfrak{N},使得f(x^{\ast })\leq f(x)\forall{x\in \mathfrak{n}},则称x^{\ast }为局部最优点—极小值点

Theorem.1:局部极小值点,一阶导为0

Theorem.2:\bigtriangledown^{2}f(x),海瑟矩阵半正定(positive semidefinite)

Theorem.3:(二阶充分条件)\bigtriangledown{f(x^{\ast })}=0\bigtriangledown^{2}f(x^{\ast }) is positive definite,则x^{\ast }是局部极小值点—判断最优解的法则

Theorem.4:若f为凸函数,则任意一个极小值点为全局极小值点

note:非凸函数—遗传算法/离子群算法(启发式方法,无理论)

期待跳出局部极值,达到全局极值

2,线搜索方法(line search)

(1)概念:

构造一系列收敛序列\left \{ x_{k} \right \}收敛到最优点x^{\ast },每次对于当前的状态x_{k},选择优化方向P_{k},以及最优步长\alpha,最终使得\underset{\alpha > 0}{min}f(x_{k}+\alpha P_{k})

                                              {\color{Red} x_{k}\rightarrow x^{\ast }}                                                                                                                         {\color{Red}x_{k+1}=x_{k}+\alpha P_{k} }

(2)方法:

在线搜索(line search)方法中,主要的迭代为

x_{k+1}=x_{k}+\alpha P_{k} 

成功的线搜索方法取决于方向P_{k}和步长(step length)\alpha _{k}的选择。

大多数线搜索算法中,要求P_{k}是一个下降方向(descent direction),即P_{k}^{T}\bigtriangledown{f_{k}}< 0梯度与P_{k}点积小于0),一般而言,要求线搜索的方向有下述形式

P_{k}=-B_{k}^{-1}\bigtriangledown{f_{k}}

其中B_{k}是一个对称正定的满秩矩阵(symmetric and nonsingulear),\bigtriangledown{f_{k}}| _{x=x_{k}}是梯度(梯度是上升最快的方向

【1】steepest descent method:I(单位矩阵)-\bigtriangledown{f_{k}}   — 最速下降法

【2】Newton’s method:the exact Hessian \bigtriangledown^{2}f(x_{k})  — 海瑟矩阵估计法

【3】Quasi-Newton method:an approximation to the Hessian that is updated at every iteration by means of a low-rank formula. — 拟牛顿法(为了避开海瑟矩阵求逆)

note:点积 \left \langle a;b \right \rangle=\left \| a \right \|\left \| b \right \|cos(a,b),正负取决于 \overrightarrow{a}\overrightarrow{b}的夹角(象限左边为负,右边为正)

          所以与梯度夹角\pm 90^{\circ}以内为上升方向,与梯度夹角> 90^{\circ}为下降方向

(3)线搜索步骤:

【1】计算搜索方向P_{k} from x_{k}

【2】确定P_{k}为下降方向,P_{k}^{T}\bigtriangledown{f_{k}}< 0

【3】确定步长\alpha_{k}>0f(x_{k})=f(x_{k}+\alpha_{k}P_{k})<f_k

【4】computation of \alpha_{k} is the linesearch — may itself be an iteration

【5】generic linesearch method:x_{k+1}=x_{k}+\alpha P_{k} 

3,置信域方法(trust region)

x_{k}附近构造一个模型函数(model function)m_{k}作为fx_{k}附近的一个估计,当然这个估计只能在局部是比较好的,然后我们去求解下述子问题

\underset{p}{min}m_{k}f(x_{k}+ p)

 where x_{k}+p lies in the trust region.

把函数分区,在每一区域用模型函数估计一个近似函数 — 泰勒展开,海瑟矩阵

版权声明:本文为博主非零因子原创文章,版权归属原作者,如果侵权,请联系我们删除!

原文链接:https://blog.csdn.net/weixin_46489969/article/details/122643049

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
心中带点小风骚的头像心中带点小风骚普通用户
上一篇 2022年1月22日 下午11:51
下一篇 2022年1月23日 上午9:02

相关推荐