TensorFlow实现简单线性回归


逻辑回归或线性回归是用于对离散类别进行分类的监督机器学习方法。在本章中的目标是构建一个模型,用户可以通过该模型预测预测变量与一个或多个自变量之间的关系。

实验主题-TensorFlow实现简单线性回归

这两个变量之间的关系是线性的。如果y是因变量x的变化而变化,那么可将x认为是自变量,那么两个变量的线性回归关系将如下式所示:

y = w*x + b

接下来将设计一种线性回归算法。需要了解以下两个重要概念

  • 成本函数
  • 梯度下降算法

线性回归方程的图形视图如下所述

案例实现

设计线性回归算法的核心代码如下

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

#定义训练数据
train_x = np.linspace(-1,1,100)
train_y = 3*train_x + np.random.randn(*train_x.shape)*0.33 + 10

#定义输入输出
x = tf.placeholder(dtype=tf.float32)
y_ = tf.placeholder(dtype=tf.float32)

#定义权值和偏置
w = tf.Variable(0.0,name="weight")
b = tf.Variable(0.0,name="bias")

#定义预测输出
y = w*x + b

#定义损失函数和反向传播算法
loss = tf.square(y-y_)
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss)

#创建会话
with tf.Session() as sess:
    sess.run(tf.initialize_all_variables())

    plt.ion()  # 打开互交模式

    for i in range(10):
        for (X,Y) in zip(train_x,train_y):
            _,w_value,b_value = sess.run([train_step,w,b],feed_dict={x:X,y_:Y})
        print("step:{},w:{},b:{}".format(i+1,w_value,b_value))

        plt.plot(train_x,train_y,'+')
        plt.plot(train_x,w.eval()*train_x+b.eval())
        # 暂停
        plt.pause(0.5)

实验效果


文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
青葱年少的头像青葱年少普通用户
上一篇 2022年5月12日
下一篇 2022年5月12日

相关推荐