keras中model.compile()基本用法

1. compile参数介绍

model.compile(
   optimizer, 
   loss = None, 
   metrics = None, 
   loss_weights = None, 
   sample_weight_mode = None, 
   weighted_metrics = None, 
   target_tensors = None
)

在使用过程中常用的就是这三个参数。

1. optimizer

optimizer中文文档

  • 可以先实例化一个优化器对象,然后将它传入 model.compile();
    from keras import optimizers
    model = Sequential()
    model.add(Dense(64, kernel_initializer='uniform', input_shape=(10,)))
    model.add(Activation('softmax'))
    sgd = optimizers.SGD(lr=0.01, clipvalue=0.5)
    model.compile(optimizer=sgd,loss='mse')
    
  • 可以通过名称来调用优化器。但是使用优化器的默认参数。
    # 传入优化器名称: 默认参数将被采用
    model.compile(loss='mean_squared_error', optimizer='sgd')
    

1.1 optimizer可用参数-SGD

SGDkeras中model.compile()基本用法。包含扩展功能的支持:

例如:
python keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False)

1.2 optimizer可用参数-RMSprop

1.3 optimizer可用参数 – Adagrad

1.4 optimizer可用参数 – Adadelta

1.5 optimizer可用参数 – Adam/Adamax/Nadam

  1. Adam参数

    • lr: float >= 0. 学习率。
    • beta_1: float, 0 < beta < 1. 通常接近于 1。
    • beta_2: float, 0 < beta < 1. 通常接近于 1。
    • epsilon: float >= 0. 模糊因子. 若为 None, 默认为 K.epsilon()。
    • decay: float >= 0. 每次参数更新后学习率衰减值。
    • amsgrad: boolean. 是否应用此算法的 AMSGrad 变种,来自论文 “On the Convergence of Adam and Beyond”。

    例如:其默认为:
    python keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)
    参考:
    Adam – A Method for Stochastic Optimization

  2. Adamax参数

    • Adamax 优化器,来自 Adam 论文的第七小节.它是Adam算法基于无穷范数(infinity norm)的变种。 默认参数遵循论文中提供的值。
    • 参数
    • lr: float >= 0. 学习率。
    • beta_1/beta_2: floats, 0 < beta < 1. 通常接近于 1。
    • epsilon: float >= 0. 模糊因子. 若为 None, 默认为 K.epsilon()。
    • decay: float >= 0. 每次参数更新后学习率衰减值。

    例如:其默认为:
    keras.optimizers.Adamax(lr=0.002, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0)

  3. Nadam

    • Nesterov 版本 Adam 优化器
    • 正像 Adam 本质上是 RMSProp 与动量 momentum 的结合, Nadam 是采用 Nesterov momentum 版本的 Adam 优化器。
    • 参数
    • lr: float >= 0. 学习率。
    • beta_1/beta_2: floats, 0 < beta < 1. 通常接近于 1。
    • epsilon: float >= 0. 模糊因子. 若为 None, 默认为 K.epsilon()。

    例如:其默认为:
    keras.optimizers.Nadam(lr=0.002, beta_1=0.9, beta_2=0.999, epsilon=None, schedule_decay=0.004)

2. loss

损失函数的目的是keras中model.compile()基本用法loss可用参数
keras中model.compile()基本用法

mse = MSE = mean_squared_error             # 均方误差
mae = MAE = mean_absolute_error            # 平均绝对误差
mape = MAPE = mean_absolute_percentage_error        # 平均绝对百分比误差
msle = MSLE = mean_squared_logarithmic_error           # 均方对数误差
kld = KLD = kullback_leibler_divergence      # 
cosine = cosine_proximity                            # 余弦值

2.1 mean_squared_error:均方误差

def mean_squared_error(y_true, y_pred):
    return K.mean(K.square(y_pred - y_true), axis=-1)

2.2 mean_absolute_error:平均绝对误差

def mean_absolute_error(y_true, y_pred):
    return K.mean(K.abs(y_pred - y_true), axis=-1)

2.3 mean_absolute_percentage_error:平均绝对百分比误差

def mean_absolute_percentage_error(y_true, y_pred):
    diff = K.abs((y_true - y_pred) / K.clip(K.abs(y_true),
                                            K.epsilon(),
                                            None))
    return 100. * K.mean(diff, axis=-1)

2.4 mean_squared_logarithmic_error:均方对数误差

def mean_squared_logarithmic_error(y_true, y_pred):
    first_log = K.log(K.clip(y_pred, K.epsilon(), None) + 1.)
    second_log = K.log(K.clip(y_true, K.epsilon(), None) + 1.)
    return K.mean(K.square(first_log - second_log), axis=-1)

2.5 squared_hinge

def squared_hinge(y_true, y_pred):
    return K.mean(K.square(K.maximum(1. - y_true * y_pred, 0.)), axis=-1)

2.6 hinge

def hinge(y_true, y_pred):
    return K.mean(K.maximum(1. - y_true * y_pred, 0.), axis=-1)

2.7 categorical_hinge

def categorical_hinge(y_true, y_pred):
    pos = K.sum(y_true * y_pred, axis=-1)
    neg = K.max((1. - y_true) * y_pred, axis=-1)
    return K.maximum(0., neg - pos + 1.)

2.8 logcosh

logcosh:预测误差的双曲余弦的对数。

def logcosh(y_true, y_pred):
    '''Logarithm of the hyperbolic cosine of the prediction error.
    `log(cosh(x))` is approximately equal to `(x ** 2) / 2` for small `x` and
    to `abs(x) - log(2)` for large `x`. This means that 'logcosh' works mostly
    like the mean squared error, but will not be so strongly affected by the
    occasional wildly incorrect prediction.
    # Arguments
        y_true: tensor of true targets.
        y_pred: tensor of predicted targets.

    # Returns
        Tensor with one scalar loss entry per sample.
    '''
    def _logcosh(x):
        return x + K.softplus(-2. * x) - K.log(2.)
    return K.mean(_logcosh(y_pred - y_true), axis=-1)

2.9 categorical_crossentropy

categorical_crossentropy:分类交叉熵。

def categorical_crossentropy(y_true, y_pred):
    return K.categorical_crossentropy(y_true, y_pred)

2.10 sparse_categorical_crossentropy

sparse_categorical_crossentropy:稀疏的分类交叉熵。

def sparse_categorical_crossentropy(y_true, y_pred):
    return K.sparse_categorical_crossentropy(y_true, y_pred)

2.11 binary_crossentropy

binary_crossentropy:二元交叉熵。

def binary_crossentropy(y_true, y_pred):
    return K.mean(K.binary_crossentropy(y_true, y_pred), axis=-1)

2.12 kullback_leibler_divergence

def kullback_leibler_divergence(y_true, y_pred):
    y_true = K.clip(y_true, K.epsilon(), 1)
    y_pred = K.clip(y_pred, K.epsilon(), 1)
    return K.sum(y_true * K.log(y_true / y_pred), axis=-1)

2.13 poisson

poisson:泊松。

def poisson(y_true, y_pred):
    return K.mean(y_pred - y_true * K.log(y_pred + K.epsilon()), axis=-1)

2.14 cosine_proximity

cosine_proximity:余弦值。

def cosine_proximity(y_true, y_pred):
    y_true = K.l2_normalize(y_true, axis=-1)
    y_pred = K.l2_normalize(y_pred, axis=-1)
    return -K.sum(y_true * y_pred, axis=-1)

3. Matrics

  1. 评价函数用于keras中model.compile()基本用法。当模型编译后(compile),评价函数应该作为 metrics的参数来输入。
  2. 评价函数和 损失函数 相似,只不过keras中model.compile()基本用法。我们可以传递已有的评价函数名称,或者传递一个自定义的 Theano/TensorFlow 函数来使用。可用Matrics
    keras中model.compile()基本用法

3.1 keras内置的评价函数

3.2 自定义评价函数

自定义评价函数应该在编译的时候(compile)传递进去。该函数需要以 (y_true, y_pred) 作为输入参数,并返回一个张量作为输出结果。

import keras.backend as K

def mean_pred(y_true, y_pred):
    return K.mean(y_pred)

model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy', mean_pred])

参考:

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2023年3月11日
下一篇 2023年3月11日

相关推荐