手写VIO –学习笔记 – Part4

不小心提前放出来了,同样在第九期的同学们小心!

1、信息矩阵分析

手写VIO --学习笔记 - Part4

1.1 绘制上述系统的信息矩阵Λ

x%20%3D%20%5B%5Cxi_1%2C%20%5Cxi_2%2C%20%5Cxi_3%2C%20L_1%2C%20L_2%2C%20L_3%20%5D%5ET
雅各比:
J%3D%5Cfrac%7B%5Cpartial%20r%7D%7B%5Cpartial%20x%7D%20%3D%5B%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%5Cxi_2%29%7D%7B%5Cpartial%20x%7D%2C%20%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20x%7D%2C%20%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_2%29%7D%7B%5Cpartial%20x%7D%2C%5Cfrac%7B%5Cpartial%20r%28%5Cxi_2%2C%20L_1%29%7D%7B%5Cpartial%20x%7D%2C%20%5Cfrac%7B%5Cpartial%20r%28%5Cxi_2%2C%20L_2%29%7D%7B%5Cpartial%20x%7D%2C%5Cfrac%7B%5Cpartial%20r%28%5Cxi_2%2C%20L_3%29%7D%7B%5Cpartial%20x%7D%2C%20%5Cfrac%7B%5Cpartial%20r%28%5Cxi_2%2C%5Cxi_3%29%7D%7B%5Cpartial%20x%7D%2C%5Cfrac%7B%5Cpartial%20r%28%5Cxi_3%2C%20L_2%29%7D%7B%5Cpartial%20x%7D%2C%20%5Cfrac%7B%5Cpartial%20r%28%5Cxi_3%2C%5Cxi_3%29%7D%7B%5Cpartial%20x%7D%5D

高斯-牛顿增量方程:
%5Cunderbrace%7BJ%5ET%5CSigma%5E%7B-1%7DJ%7D_%7BH%5Cquad%20or%5Cquad%20A%7D%5Cdelta%20%5Cxi%20%3D%20%5Cunderbrace%7B-J%5ET%20%5Cxi%5E%7B-1%7Dr%7D_%7Bb%7D

例如:J_2%3D%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20x%7D%20%3D%5B%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20%5Cxi_1%7D%2C0%2C0%2C%20%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20L_1%7D%2C0%2C0%5D

对应的信息矩阵%5CLambda_2
%5CLambda_2%20%3D%20J_2%5ET%5CSigma_2%5E%7B-1%7D%20J_2%20%3D%5Cbegin%7Bbmatrix%7D%20%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20%5Cxi_1%7D%29%5ET%20%5CSigma_2%5E%7B-1%7D%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20%5Cxi_1%7D%29%20%26%200%20%26%200%20%26%20%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20%5Cxi_1%7D%29%5ET%20%5CSigma_2%5E%7B-1%7D%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20L_1%7D%29%20%26%200%20%26%200%5C%5C%200%26%200%20%26%200%20%26%200%20%26%200%20%260%20%5C%5C%200%26%200%20%26%200%20%26%200%20%26%200%20%26%200%5C%5C%20%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20L_1%7D%29%5ET%20%5CSigma_2%5E%7B-1%7D%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20%5Cxi_1%7D%29%20%26%200%20%26%200%20%26%20%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20L_1%7D%29%5ET%20%5CSigma_2%5E%7B-1%7D%28%5Cfrac%7B%5Cpartial%20r%28%5Cxi_1%2C%20L_1%29%7D%7B%5Cpartial%20L_1%7D%29%20%26%200%20%260%5C%5C%200%26%200%20%26%200%20%26%200%20%26%200%20%260%5C%5C%200%26%200%20%26%200%20%26%200%20%26%200%20%260%20%5Cend%7Bbmatrix%7D
手写VIO --学习笔记 - Part4
%5CLambda%20%3D%5Csum_%7Bi%3D1%7D%5E%7Bn%7D%5CLambda_i得到的信息矩阵%5CLambda如下:
手写VIO --学习笔记 - Part4

其实可以直接根据变量之间的关系给出。上面的公式只是一个理论说明。

1.2 绘制相机%CE%BE_1被 marg 以后的信息矩阵Λ′

参考
手写VIO --学习笔记 - Part4
得到相机%CE%BE_1被 marg 以后的信息矩阵%5CLambda%27:
手写VIO --学习笔记 - Part4

2、证明信息矩阵和协方差的逆之间的关系

阅读《Relationship between the Hessian and Covariance Matrix for Gaussian Random Variables》 证明信息矩阵和协方差的逆之间的关系

证明一

手写VIO --学习笔记 - Part4
对其取负对数得到负对数似然(Negative Log Likelihood)函数
手写VIO --学习笔记 - Part4
将上式(A.2) 看作二次函数J%28%5Ctheta%29的二阶泰勒展开(关于海塞矩阵和泰勒展开),则
手写VIO --学习笔记 - Part4
公式(A.4)的等号是建立在%5Ctheta%5E%2A%5Ctheta的线性函数的基础上的;
如果是非线性函数,泰勒展开式会有三阶以上的项,所以应该是近似等号。
总结如下:

当高斯分布的均值是关于状态的线性函数时,negative log likelihood的二阶导数(也就是其Hessian),正好是这个线性变换后的新状态的的协方差的逆,此时也有Hessian of Negative Log Likelihood (about the original state) = Inverse of (new) Covariance Matrix。
当高斯分布的均值是关于状态的非线性函数时,可以做一个线性化将其展开乘线性形式,于是 Approximate Hessian of Negative Log Likelihood (about the original state) = Approximate Inverse of (new) Covariance Matrix%5CapproxInverse of (new) Covariance Matrix。
原文来自:https://www.cnblogs.com/xiaochen-qiu/p/11170487.html

现在问题变成了证明信息矩阵与Hessian矩阵相等
这个外语博客证明了这一点(全英文警告!)

证据二

设 n 维高斯随机变量X%5Csim%20N%28%5Ctheta%2C%20%5CSigma%29
其概率密度函数为:
f%28X%29%20%3D%20%5Cfrac%7Be%5E%7B-%5Cfrac%7B1%7D%7B2%7D%5B%28X%20-%20%5Ctheta%29%5D%5ET%20%5CSigma%5E%7B-1%7D%28X%20-%20%5Ctheta%29%5D%7D%7D%7B%282%5Cpi%29%5E%5Cfrac%7BN_%5Ctheta%7D%7B2%7D%20%7C%5CSigma%7C%5E%5Cfrac%7B1%7D%7B2%7D%7D
即上式(A.1)的p%28%5Ctheta%29
由于分母%282%5Cpi%29%5E%5Cfrac%7BN_%5Ctheta%7D%7B2%7D%20%7C%5CSigma%7C%5E%5Cfrac%7B1%7D%7B2%7D%5Ctheta无关,令%5Calpha%20%3D%20%282%5Cpi%29%5E%5Cfrac%7BN_%5Ctheta%7D%7B2%7D%20%7C%5CSigma%7C%5E%5Cfrac%7B1%7D%7B2%7D
f%28X%29%20%3D%20%5Calpha%20e%5E%7B-%5Cfrac%7B1%7D%7B2%7D%5B%28X%20-%20%5Ctheta%29%5D%5ET%20%5CSigma%5E%7B-1%7D%28X%20-%20%5Ctheta%29%5D%7D
根据wiki中信息矩阵的定义:
手写VIO --学习笔记 - Part4
这里lnlog应该是一样的。为了计算方便,我们写:
%5BI%28%5Ctheta%29%5D_%7Bi%2Cj%7D%20%3D%20-E%5B%5Cfrac%7B%5Cpartial%5E2%20%7D%7B%5Cpartial%20%5Ctheta_i%20%5Cpartial%20%5Ctheta_j%7Dlnf%28X%3B%5Ctheta%29%7C%5Ctheta%5D

%5Cbegin%7Baligned%7D%20%5Cfrac%7B%5Cpartial%5E2%20%7D%7B%5Cpartial%20%5Ctheta_i%20%5Cpartial%20%5Ctheta_j%7Dlnf%28x%3B%5Ctheta%29%20%26%3D%20%5Cfrac%7B%5Cpartial%5E2%20%7D%7B%5Cpartial%20%5Ctheta_i%20%5Cpartial%20%5Ctheta_j%7Dln%28%20%5Calpha%20e%5E%7B-%5Cfrac%7B1%7D%7B2%7D%5B%28x%20-%20%5Ctheta%29%5D%5ET%20%5CSigma%5E%7B-1%7D%28x%20-%20%5Ctheta%29%5D%7D%29%5C%5C%20%26%3D%5Cfrac%7B%5Cpartial%5E2%20%7D%7B%5Cpartial%20%5Ctheta_i%20%5Cpartial%20%5Ctheta_j%7D%28ln%5Calpha%20-%20%5Cfrac%7B1%7D%7B2%7D%20%5B%28x%20-%20%5Ctheta%29%5D%5ET%20%5CSigma%5E%7B-1%7D%28x%20-%20%5Ctheta%29%5D%29%5C%5C%20%26%3D-%5Cfrac%7B1%7D%7B2%7D%5Cfrac%7B%5Cpartial%5E2%20%7D%7B%5Cpartial%20%5Ctheta_i%20%5Cpartial%20%5Ctheta_j%7D%5B%28x%20-%20%5Ctheta%29%5D%5ET%20%5CSigma%5E%7B-1%7D%28x%20-%20%5Ctheta%29%5D%5C%5C%20%26%3D-%5B%5CSigma%5E%7B-1%7D%5D_%7Bi%2Cj%7D%20%5Cend%7Baligned%7D
所以
%5Cbegin%7Baligned%7D%20%5BI%28%5Ctheta%29%5D_%7Bi%2Cj%7D%20%26%20%3D%20-E%5B%5Cfrac%7B%5Cpartial%5E2%20%7D%7B%5Cpartial%20%5Ctheta_i%20%5Cpartial%20%5Ctheta_j%7Dlnf%28X%3B%5Ctheta%29%7C%5Ctheta%5D%5C%5C%20%26%3D-E%5B-%5B%5CSigma%5E%7B-1%7D%5D_%7Bi%2Cj%7D%5D%20%3D%20E%5B%5B%5CSigma%5E%7B-1%7D%5D_%7Bi%2Cj%7D%5D%5C%5C%20%26%3D%5Cint%20%5B%5CSigma%5E%7B-1%7D%5D_%7Bi%2Cj%7D%20f%28X%29dX%5C%5C%20%26%3D%5B%5CSigma%5E%7B-1%7D%5D_%7Bi%2Cj%7D%5Cint%20f%28X%29dX%5C%5C%20%26%3D%5B%5CSigma%5E%7B-1%7D%5D_%7Bi%2Cj%7D%20%2A1%5C%5C%20%26%3D%5B%5CSigma%5E%7B-1%7D%5D_%7Bi%2Cj%7D%20%5Cend%7Baligned%7D
所以
%5CLambda%20%3D%20I%28%5Ctheta%29%20%3D%20%5CSigma%5E%7B-1%7D
即信息矩阵=协方差矩阵的逆

参考多维高斯随机变量的信息矩阵与协方差矩阵的关系

3、编程题

请补充作业代码中单目 Bundle Adjustment 信息矩阵的计算,并输出正确的结果。

正确的结果为:奇异值最后 7 维接近于 0,表明零空间的维度为 7

3.1 原理分析

补充内容是Hessian矩阵H,在此之前需要得到雅可比矩阵。涉及雅可比行列式的代码有两种:

1、jacobian_Pj:重投影误差(观测方程)对特征点(表示在世界坐标系下)的雅克比矩阵
2、jacobian_Ti:表示重投影误差(观测方程)对相机位姿的雅克比矩阵。

涉及的具体代码如下:
手写VIO --学习笔记 - Part4
参考十四讲第二版p186-p197
在世界坐标系中标记地标点P,其在相机坐标系中的坐标为P%27,即
P%27%20%3D%20%5BT_%7Bcw%7DP%5D_%7Bxyz%7D%20%3D%20%5Bx%27%2C%20y%27%2C%20z%27%5D%5ET
容易得到重投影误差eP%27的雅可比, 也即代码中的jacobian_uv_Pc
%5Cfrac%7B%5Cpartial%20e%7D%7B%5Cpartial%20P%27%7D%20%3D%20-%5Cbegin%7Bbmatrix%7D%20%5Cfrac%7B%5Cpartial%20u%7D%7B%5Cpartial%20x%27%7D%20%26%20%5Cfrac%7B%5Cpartial%20u%7D%7B%5Cpartial%20y%27%7D%20%26%20%5Cfrac%7B%5Cpartial%20u%7D%7B%5Cpartial%20z%27%7D%20%5C%5C%20%5Cfrac%7B%5Cpartial%20v%7D%7B%5Cpartial%20x%27%7D%20%26%20%5Cfrac%7B%5Cpartial%20v%7D%7B%5Cpartial%20y%27%7D%20%26%20%5Cfrac%7B%5Cpartial%20v%7D%7B%5Cpartial%20z%27%7D%20%5Cend%7Bbmatrix%7D%20%3D-%5Cbegin%7Bbmatrix%7D%20%5Cfrac%7Bf_x%7D%7Bz%27%7D%20%26%200%20%26%20-%5Cfrac%7Bf_x%20x%27%7D%7Bz%27%5E2%7D%20%5C%5C%20%26%20%5Cfrac%7Bf_y%7D%7Bz%27%7D%20%26%20-%5Cfrac%7Bf_y%20y%27%7D%7Bz%27%5E2%7D%20%5Cend%7Bbmatrix%7D

对于jacobian_Pj,通过链式法则有:
手写VIO --学习笔记 - Part4
而重投影误差对相机位姿的雅可比jacobian_Ti为:
手写VIO --学习笔记 - Part4
如果%5Cmathfrak%7Bse%7D%20%283%29的定义是平移前后旋转,那么矩阵的前三列可以与后三列互换。
代码正是这样做的。
公式推导可见博客第4题,第2问。

Hessian矩阵的计算类似于第一题的信息矩阵分析。
H%20%3D%20%5Csum_%7Bi%2Cj%7D%20J_%7Bi%2Cj%7D%5ETJ_%7Bi%2Cj%7D

3.2 代码内容

hessian_nullspace_test.cpp

//
// Created by daybeha on 22-03-05.
//
#include <iostream>
#include <vector>
#include <random>  
#include <Eigen/Core>
#include <Eigen/Geometry>
#include <Eigen/Eigenvalues>

struct Pose
{
    Pose(Eigen::Matrix3d R, Eigen::Vector3d t):Rwc(R),qwc(R),twc(t) {};
    Eigen::Matrix3d Rwc;
    Eigen::Quaterniond qwc;
    Eigen::Vector3d twc;
};
int main()
{
    int featureNums = 20;
    int poseNums = 10;
    int diem = poseNums * 6 + featureNums * 3;
    double fx = 1.;
    double fy = 1.;
    Eigen::MatrixXd H(diem,diem);
    H.setZero();

    std::vector<Pose> camera_pose;
    double radius = 8;
    for(int n = 0; n < poseNums; ++n ) {
        double theta = n * 2 * M_PI / ( poseNums * 4); // 1/4 圆弧
        // 绕 z轴 旋转
        Eigen::Matrix3d R;
        R = Eigen::AngleAxisd(theta, Eigen::Vector3d::UnitZ());
        Eigen::Vector3d t = Eigen::Vector3d(radius * cos(theta) - radius, radius * sin(theta), 1 * sin(2 * theta));
        camera_pose.push_back(Pose(R,t));
    }

    // 随机数生成三维特征点
    std::default_random_engine generator;
    std::vector<Eigen::Vector3d> points;
    for(int j = 0; j < featureNums; ++j)
    {
        //连续均匀分布
        //http://c.biancheng.net/view/640.html
        std::uniform_real_distribution<double> xy_rand(-4, 4.0);
        std::uniform_real_distribution<double> z_rand(8., 10.);
        double tx = xy_rand(generator);
        double ty = xy_rand(generator);
        double tz = z_rand(generator);

        Eigen::Vector3d Pw(tx, ty, tz);
        points.push_back(Pw);

        for (int i = 0; i < poseNums; ++i) {
            Eigen::Matrix3d Rcw = camera_pose[i].Rwc.transpose();
            Eigen::Vector3d Pc = Rcw * (Pw - camera_pose[i].twc);

            double x = Pc.x();
            double y = Pc.y();
            double z = Pc.z();
            double z_2 = z * z;
            Eigen::Matrix<double,2,3> jacobian_uv_Pc;
            jacobian_uv_Pc<< fx/z, 0 , -x * fx/z_2,  //重投影误差对特征点的雅可比(相机坐标)
                    0, fy/z, -y * fy/z_2;
            //重投影误差对特征点的雅可比(世界坐标)
            Eigen::Matrix<double,2,3> jacobian_Pj = jacobian_uv_Pc * Rcw;
            //重投影误差对相机位姿的雅可比
            Eigen::Matrix<double,2,6> jacobian_Ti;
            jacobian_Ti << -x* y * fx/z_2, (1+ x*x/z_2)*fx, -y/z*fx, fx/z, 0 , -x * fx/z_2,
                            -(1+y*y/z_2)*fy, x*y/z_2 * fy, x/z * fy, 0,fy/z, -y * fy/z_2;

            H.block(i*6,i*6,6,6) += jacobian_Ti.transpose() * jacobian_Ti;
            /// 请补充完整作业信息矩阵块的计算
            H.block(i*6, poseNums * 6 + j * 3, 6, 3) +=jacobian_Ti.transpose() * jacobian_Pj;
            H.block(poseNums * 6 + j * 3, i*6, 3,6) += jacobian_Pj.transpose() * jacobian_Ti;
            H.block(poseNums * 6 + j * 3, poseNums * 6 + j * 3, 3, 3) += jacobian_Pj.transpose() * jacobian_Pj;
        }
    }

//    std::cout << H << std::endl;
//    Eigen::SelfAdjointEigenSolver<Eigen::MatrixXd> saes(H);
//    std::cout << saes.eigenvalues() <<std::endl;

    Eigen::JacobiSVD<Eigen::MatrixXd> svd(H, Eigen::ComputeThinU | Eigen::ComputeThinV);
    std::cout << svd.singularValues() <<std::endl;
  
    return 0;
}

新增内容:

H.block(i*6, poseNums * 6 + j * 3, 6, 3) +=jacobian_Ti.transpose() * jacobian_Pj;
H.block(poseNums * 6 + j * 3, i*6, 3,6) += jacobian_Pj.transpose() * jacobian_Ti;
H.block(poseNums * 6 + j * 3, poseNums * 6 + j * 3, 3, 3) += jacobian_Pj.transpose() * jacobian_Pj;

代码输出:
手写VIO --学习笔记 - Part4

拓展笔记 – 奇异值分解(SVD, singular value decomposition)

如果你和我一样基础较弱,肯定对svd.singularValues()有疑问,它返回的是什么?

奇异值

什么是奇异值?没有任何意义?

找一个更生动的关于奇异值的链接,我会删掉一些我认为更重要的部分:
奇异值分解的几何意义是:对于任意一个矩阵,我们需要找到一组二乘二正交的单位向量序列,使得矩阵作用于这个向量序列后,得到一个新的向量序列,保持二乘二正交性。奇异值的几何意义是:经过这组变换后新向量序列的长度。

手写VIO --学习笔记 - Part4手写VIO --学习笔记 - Part4

如上图,手写VIO --学习笔记 - Part4
向量uv分别是%CF%83的左右奇异向量
另外,奇异值具有大于零的性质,一般从大到小排列:%5Csigma_1%5Cge%5Csigma_2%5Cge%20...%20%5Cge%5Csigma_r%3E0

另外两个关于奇异值分解的更详细的博客:
奇异值分解的秘密(一):矩阵的奇异值分解过程
奇异值分解的秘密(二):降维和奇异向量的意义

为什么说奇异值最后 7 维接近于 0就表明零空间的维度为 7?什么是零空间维度?

对于零空间,wiki中的定义为:一个算子A的零空间是方程Av%20%3D%200的所有解v的集合
那么这很清楚:
根据奇异值的公式:Mv%20%3D%20%5Csigma%20u,当%5Csigma为0时,公式变为Mv%20%3D%200
那么对应于%5Csigma%3D0的右奇异向量v的集合就是零空间
又因为有7个奇异值为0,那么v就有7个自由度, 因此对应零空间维度为7(参考)

参考

从零手写VIO——(四)基于滑动窗口算法的 VIO 系统:可观性和一致性(上)舒尔补
从零手写VIO——(四)基于滑动窗口算法的 VIO 系统:可观性和一致性(下)滑动窗口算法
手写VIO总结(四)
手写VIO课后作业(四)
从零开始手写VIO第四章作业(含关键点的参考资料)
深蓝学院《从零开始手写VIO》作业4
深蓝学院《从零开始手写VIO》作业四
YouDao Cloud Note
高翔,张涛等《视觉SLAM十四讲》p186-p197

舒尔布
Schur complement
雅可比矩阵、黑森矩阵、泰勒展开
Fisher information
多维高斯随机变量信息矩阵与协方差矩阵的关系
【原创】极大似然估计中,信息矩阵、Hessian矩阵和协方差矩阵的关系

版权声明:本文为博主昼行plus原创文章,版权归属原作者,如果侵权,请联系我们删除!

原文链接:https://blog.csdn.net/weixin_48592526/article/details/123218599

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2022年3月11日 下午4:55
下一篇 2022年3月11日 下午5:42

相关推荐