深度学习常见回归分支算法逐步分析,各种回归之间的优缺点,适用场景,举例演示

文章目录

  • 1、线性回归(Linear Regression)
    • 1.1 优点
    • 1.2 缺点
    • 1.3 适用场景
    • 1.4 图例说明
  • 2、多项式回归(Polynomial Regression)
    • 2.1 优点
    • 2.2 缺点
    • 2.3 适用场景
    • 2.4 图例说明
  • 3、决策树回归(Decision Tree Regression)
    • 3.1 优点
    • 3.2 缺点
    • 3.3 适用场景
  • 4、随机森林回归(Random Forest Regression)
    • 4.1 优点
    • 4.2 缺点
    • 4.3 适用场景
  • 5、逻辑斯蒂回归(Logistic Regression)
    • 5.1 优点
    • 5.2 缺点
    • 5.3 适用场景
  • 6、弹性网络回归(Elastic Net Regression)
    • 6.1 优点
    • 6.2 缺点
    • 6.3 适用场景
  • 7、岭回归(Ridge Regression)
    • 7.1 优点
    • 7.2 缺点
    • 7.3 适用场景
  • 8、Lasso回归(Lasso Regression)
    • 8.1 优点
    • 8.2 缺点
    • 8.3 适用场景

 回归的概念:回归算法是一种用于预测连续数值输出的监督学习算法,可以根据输入特征预测一个或多个目标变量。它有多个分支,每个分支都有其独特的优缺点。下面是深度学习中几类回归变种:

1、线性回归(Linear Regression)

线性回归算法可以说是回归算法里面最简单的一种。

1.1 优点

  • 简单且易于解释。
  • 计算效率高,适用于大规模数据集。
  • 在特征与目标之间存在线性关系时效果良好。

1.2 缺点

  • 无法处理非线性关系。对于一些异常值,无法做到拟合曲线。
  • 对异常值敏感。
  • 需要满足线性回归假设(如线性关系、残差正态分布等)。

1.3 适用场景

适用场景:预测数值型目标,建立输入特征和输出之间的线性关系。
案例:预测房价。根据房屋特征(面积、卧室数量等),建立线性关系来估计房价。


1.4 图例说明

代码:

import matplotlib.pyplot as plt
import numpy as np

# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 数据
area = np.array([50, 75, 100, 120, 150])
price = np.array([120, 180, 220, 250, 300])

# 执行线性回归
coefficients = np.polyfit(area, price, 1)
m, b = coefficients

# 创建预测模型
predict_model = np.poly1d(coefficients)

# 生成预测值
predicted_price = predict_model(area)

# 绘制原始数据点
plt.scatter(area, price, label='实际数据点')

# 绘制线性回归线
plt.plot(area, predicted_price, label=f'线性回归: y = {m:.2f}x + {b:.2f}', color='red')

# 添加标签和图例
plt.xlabel('房屋面积(平方米)')
plt.ylabel('价格(万元)')
plt.title('线性回归')
plt.legend()
# 显示图形
plt.show()

生成对应图像:

深度学习中的线性回归
代码:

import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt

# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 生成模拟数据
np.random.seed(42)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 转换为PyTorch的Tensor
X_tensor = torch.from_numpy(X).float()
y_tensor = torch.from_numpy(y).float()

# 定义线性回归模型
class LinearRegressionModel(nn.Module):
    def __init__(self, input_size, output_size):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_size, output_size)

    def forward(self, x):
        return self.linear(x)

# 实例化模型
input_size = 1
output_size = 1
model = LinearRegressionModel(input_size, output_size)

# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)

# 训练模型
num_epochs = 100
for epoch in range(num_epochs):
    # Forward pass
    outputs = model(X_tensor)
    loss = criterion(outputs, y_tensor)

    # Backward pass and optimization
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    # 打印训练过程中的损失
    if (epoch+1) % 10 == 0:
        print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

# 绘制模型预测结果和真实数据
predicted = model(X_tensor).detach().numpy()
plt.scatter(X, y, label='实际数据点')
plt.plot(X, predicted, label='模型预测', color='red')
plt.xlabel('房屋面积(平方米)')
plt.ylabel('价格(万元)')
plt.title('线性回归')
plt.legend()
plt.show()

生成对应的图像:

是不是看着比简单的回归复杂很多,深度模型解决的回归问题还要比这复杂得多。

2、多项式回归(Polynomial Regression)

2.1 优点

  • 可以捕捉特征和目标之间的非线性关系。
  • 相对简单实现。

2.2 缺点

  • 可能会过度拟合数据,特别是高阶多项式。
  • 需要选择适当的多项式阶数。

2.3 适用场景

适用场景:处理非线性关系,通过添加多项式特征来拟合曲线。
案例:预测股票价格。使用多项式回归来拟合价格与时间之间的非线性关系。

2.4 图例说明

代码:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn.metrics import mean_squared_error

# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 生成模拟数据
np.random.seed(42)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 选择多项式次数
degree = 2

# 构建设计矩阵
poly_features = PolynomialFeatures(degree=degree, include_bias=False)
X_poly = poly_features.fit_transform(X)

# 使用线性回归拟合多项式特征
lin_reg = LinearRegression()
lin_reg.fit(X_poly, y)

# 预测
X_new = np.linspace(0, 2, 100).reshape(-1, 1)
X_new_poly = poly_features.transform(X_new)
y_new = lin_reg.predict(X_new_poly)

# 绘制结果
plt.scatter(X, y, label='True data')
plt.plot(X_new, y_new, 'r-', label='Predictions', linewidth=2)
plt.xlabel('X')
plt.ylabel('y')
plt.title('多项式线性回归')
plt.legend()
plt.show()

# 评估模型
y_pred = lin_reg.predict(X_poly)
mse = mean_squared_error(y, y_pred)
print(f'Mean Squared Error: {mse:.4f}')

生成对应图像:

3、决策树回归(Decision Tree Regression)

3.1 优点

  • 能够处理非线性关系。
  • 不需要对数据进行特征缩放。
  • 结果易于可视化和解释。

3.2 缺点

  • 容易过拟合。树越深,越可能发生过拟合现象。
  • 对数据中的噪声敏感。
  • 不稳定,小的数据变化可能导致不同的树结构。

3.3 适用场景

适用场景:适用于非线性数据,创建树状结构进行回归预测。
案例:天气预测。基于多个天气因素,预测温度。

4、随机森林回归(Random Forest Regression)

4.1 优点

  • 降低了决策树回归的过拟合风险。
  • 能够处理高维数据。

4.2 缺点

  • 失去了部分可解释性。
  • 难以调整模型参数。

4.3 适用场景

适用场景:用于回归任务,具有高度的鲁棒性。
案例:股票价格预测。使用多个随机森林树来预测未来的股票价格。

5、逻辑斯蒂回归(Logistic Regression)

5.1 优点

  • 用于二分类问题,广泛应用于分类任务。
  • 输出结果可以解释为概率。

5.2 缺点

  • 仅适用于二分类问题。这是它的优点,也是它的缺点。
  • 对于复杂的非线性问题效果可能不佳。对线性问题解答较好。

5.3 适用场景

适用场景:用于二分类或多分类任务,预测概率分布。
案例:垃圾邮件分类。根据邮件内容来判断是否是垃圾邮件。

6、弹性网络回归(Elastic Net Regression)

6.1 优点

  • 综合了岭回归和Lasso回归的优点。
  • 可以应对多重共线性和特征选择。

6.2 缺点

  • 需要调整两个正则化参数。

6.3 适用场景

适用场景:结合了 Ridge 和 Lasso 的优点,适用于高维数据和特征选择。
案例:医学诊断。处理具有大量特征的患者数据,选择最相关的特征。

7、岭回归(Ridge Regression)

7.1 优点

  • 可以解决多重共线性问题。
  • 对异常值不敏感。

7.2 缺点

  • 不适用于特征选择,所有特征都会被考虑。
  • 参数需要调整。

7.3 适用场景

适用场景:处理多重共线性问题,添加L2正则化以防止过拟合。
案例:预测学生成绩。处理多个高度相关的特征,如学习时间、家庭支持等。

8、Lasso回归(Lasso Regression)

8.1 优点

  • 可以用于特征选择,趋向于将不重要的特征的系数推到零。
  • 可以解决多重共线性问题。

8.2 缺点

  • 对于高维数据,可能会选择较少的特征。
  • 需要调整正则化参数。

8.3 适用场景

适用场景:用于特征选择和稀疏性,通过L1正则化将一些特征的权重设为零。
案例:预测产品销量。确定哪些产品特征对销售额的影响最大。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
心中带点小风骚的头像心中带点小风骚普通用户
上一篇 2023年12月6日
下一篇 2023年12月6日

相关推荐