迭代递推计算均值、方差的无偏估计(含C++实现)

前言

对于一个序列而言,求均值和方差根据定义式是不难的,其时空复杂度均为 迭代递推计算均值、方差的无偏估计(含C++实现) 。但有的时候,我们的样本是一个一个给的,此时新来了一个样本,我们总不可能把原来的样本都捞出来再算一次均值、方差吧,那样时空复杂度都是 迭代递推计算均值、方差的无偏估计(含C++实现) 了。因此,我们需要一个递推的方式,假设我们已知前 迭代递推计算均值、方差的无偏估计(含C++实现) 个样本的均值和方差 迭代递推计算均值、方差的无偏估计(含C++实现) ,且知道了新的样本 迭代递推计算均值、方差的无偏估计(含C++实现) ,以 迭代递推计算均值、方差的无偏估计(含C++实现) 复杂度给出 迭代递推计算均值、方差的无偏估计(含C++实现)

数学推导

我们知道样本均值、样本方差的无偏估计如下

迭代递推计算均值、方差的无偏估计(含C++实现)

迭代递推计算均值、方差的无偏估计(含C++实现)

不妨令

迭代递推计算均值、方差的无偏估计(含C++实现)

则均值递推式如下

迭代递推计算均值、方差的无偏估计(含C++实现)

方差递推式的推导要复杂一些,首先将式 迭代递推计算均值、方差的无偏估计(含C++实现) 稍微变形,引入式 迭代递推计算均值、方差的无偏估计(含C++实现)

迭代递推计算均值、方差的无偏估计(含C++实现)

然后引入式 迭代递推计算均值、方差的无偏估计(含C++实现)

迭代递推计算均值、方差的无偏估计(含C++实现)

然后再对样本方差定义式化简,得到式 迭代递推计算均值、方差的无偏估计(含C++实现)

迭代递推计算均值、方差的无偏估计(含C++实现)

迭代递推计算均值、方差的无偏估计(含C++实现) 的推导第三行到第四行的等号是因为完全平方展开的交叉项为 迭代递推计算均值、方差的无偏估计(含C++实现) ,具体推导可见式 迭代递推计算均值、方差的无偏估计(含C++实现)

迭代递推计算均值、方差的无偏估计(含C++实现)

最终得到递推关系式(化简成这样为了保留 迭代递推计算均值、方差的无偏估计(含C++实现) 公共项,减少计算量)

迭代递推计算均值、方差的无偏估计(含C++实现)

C++代码实现

核心代码其实只有这么一点

void SeqMeanVar::AppendImpl(double new_value) {
    double xn1_mun = new_value - m_mean;    // x(n + 1) - mu(n)
    double rev_beta_n = 1 - 1 / m_n;        // 1 - beta(n)
    ++ m_n;
    double beta_n1 = 1 / m_n;               // beta(n + 1)
    m_mean += beta_n1 * xn1_mun;            // mu(n + 1) = mu(n) + beta(n + 1) * (x(n + 1) - mu(n))
    m_var = rev_beta_n * m_var + beta_n1 * xn1_mun * xn1_mun;   // var(n + 1) = (1 - beta(n)) * var(n) + beta(n + 1) * (x(n + 1) - mu(n))^2
}

完整代码(含测试样例)如下——

#include <iostream>     // cout

// 有初始值的均值迭代器
class SeqMeanVar
{
public:
    SeqMeanVar();
    SeqMeanVar(double init_value);
    const double GetN() const;
    const double GetMean() const;
    const double GetVar() const;
    // type=0 为检查均值是否有意义, type=1 为检查方差是否有意义
    bool IsValid(int type=1) const;

    void Append(double new_value);

private:
    void InitialConstruct(double init_value);
    void AppendImpl(double new_value);
    double m_n;
    double m_mean;
    double m_var;

friend std::ostream &operator<<(std::ostream &os, SeqMeanVar &seq);
};

SeqMeanVar::SeqMeanVar()
    : m_n(0)
    , m_mean(0)
    , m_var(0)
{
}

SeqMeanVar::SeqMeanVar(double init_value)
{
    InitialConstruct(init_value);
}

void SeqMeanVar::InitialConstruct(double init_value) {
    m_n = 1;
    m_mean = init_value;
    m_var = 0;
}

const double SeqMeanVar::GetN() const {
    return m_n;
}

const double SeqMeanVar::GetMean() const {
    return m_mean;
}

const double SeqMeanVar::GetVar() const {
    return m_var;
}

bool SeqMeanVar::IsValid(int type) const {
    switch (type) {
        case 0: return m_n >= 1;    // 检查均值
        case 1: return m_n >= 2;    // 检查方差
        default: return false;
    }
}

void SeqMeanVar::Append(double new_value) {
    if (m_n == 0)
        InitialConstruct(new_value);
    else
        AppendImpl(new_value);
}

void SeqMeanVar::AppendImpl(double new_value) {
    double xn1_mun = new_value - m_mean;    // x(n + 1) - mu(n)
    double rev_beta_n = 1 - 1 / m_n;        // 1 - beta(n)
    ++ m_n;
    double beta_n1 = 1 / m_n;               // beta(n + 1)
    m_mean += beta_n1 * xn1_mun;            // mu(n + 1) = mu(n) + beta(n + 1) * (x(n + 1) - mu(n))
    m_var = rev_beta_n * m_var + beta_n1 * xn1_mun * xn1_mun;   // var(n + 1) = (1 - beta(n)) * var(n) + beta(n + 1) * (x(n + 1) - mu(n))^2
}

std::ostream &operator<<(std::ostream &os, SeqMeanVar &seq) {
    os << "(n = " << seq.m_n << ", mean = " << seq.m_mean << ", var = " << seq.m_var << ")";
    return os;
}

int main()
{
    SeqMeanVar seqMV(2);
    std::cout << seqMV << std::endl;
    seqMV.Append (4);
    std::cout << seqMV << std::endl;
    seqMV.Append (6);
    std::cout << seqMV << std::endl;
    seqMV.Append (7);
    std::cout << seqMV << std::endl;
    seqMV.Append (8);
    std::cout << seqMV << std::endl;

    getchar();
    return 0;
}

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
上一篇 2022年5月17日 上午11:25
下一篇 2022年5月17日 上午11:29

相关推荐

本站注重文章个人版权,不会主动收集付费或者带有商业版权的文章,如果出现侵权情况只可能是作者后期更改了版权声明,如果出现这种情况请主动联系我们,我们看到会在第一时间删除!本站专注于人工智能高质量优质文章收集,方便各位学者快速找到学习资源,本站收集的文章都会附上文章出处,如果不愿意分享到本平台,我们会第一时间删除!