在学习梯度和曲面上一点处的法向量的时候,发现它们的计算方法非常相似,但是一开始进入了误区,甚至以为梯度应该是模最大的切向量。想了好久才从几何意义的角度把梯度和法向量统一,希望下面的内容能帮助你加深理解。
1.梯度
严格意义上梯度只能说是只是函数的梯度。
以二元函数
在某一点
向量
另外,这里的梯度表示,沿
2.法向量
现在我们来算算这一点的法向量。
发现了什么?
3.如何解释?
为什么算法向量和算梯度的方法那么相似?为什么法向量的投影就是梯度?
是因为我们算法向量的时候实际上是构造了大
表示的是沿什么方向
的方向脱离最快。梯度是梯度,法向量是法向量,维数不同,梯度更多地是对函数的意义,法向量
更多地是对方程图像的意义,二者并不矛盾。
4.实际使用
以一个实际应用场景举例:算层流管中流速对离轴半径的梯度,这里的梯度就是“该函数”的梯度,
得到的是一个一维向量,也即一个数,但流速-半径关系的图象是二维的,该梯度并不能充当某点
处的法向量,反而反映了类似斜率的变化性质。
在神经网络中有gradient-descent的概念,该概念中梯度的意义类似。
文章出处登录后可见!
已经登录?立即刷新