站点图标 AI技术聚合

数据归一化常见算法

数据归一化的几种方法

1 Min-Max归一化

Min-Max归一化是一种线性的归一化方法。该方法将数据进行一次线性变换,将数据映射到[0,1]区间。Min-Max归一化不改变数据的分布。其缺点为,过度依赖最大最小数,且容易受到离群点、异常数据的影响。其公式为:
数据归一化常见算法
其中是原始数据、为数据的最小值、为数据的最大值、是变换后的数据。

2 Z-Score归一化

Z-Score归一化将数据尽可能处理成符合正态分布的数据。该方法难以将数据映射到一个固定的区间上。Z-Score归一化的公式为:

其中为原始数据、为数据的均值、为数据的标准差

3 小数标定

通过直接除以一个整数,移动所有数据的小数点,进行数据归一化的方法,称之为小数标定归一化方法。该方法可将数据映射到[-1,1]区间。该方法的公式为:

其中,为数据绝对值最大数据的位数。

4 Sigmoid

Sigmoid函数的表达式为:
,其值域为[0,1].将所有数据经过Sigmoid映射以后,可以将数据映射到区间。该函数图像如图所示:

5 RankGauss归一化

今天刚刚看到的,记录一下

def ScaleRankgauss(x, epsilon=1e-6): 
    '''rankgauss'''
    x = x.argsort().argsort()     #排序
    x = (x/x.max()-0.5)*2         #转换尺度到[-1,1]
    #调整极端值 把在[-1,1]区间之外的数值截断为-1或1
    x = np.clip(x, -1+epsilon, 1-epsilon)
    x = erfinv(x)                 #函数映射
    return x

x = np.random.randint(0, 100, 1000)
plt.hist(x)
x_rankgauss = ScaleRankgauss(x)
plt.hist(x_rankgauss, bins=50)

文章出处登录后可见!

已经登录?立即刷新
退出移动版