OpenCV-Python实战(13)——OpenCV与机器学习的碰撞

0. 前言

机器学习是人工智能的子集,它为计算机以及其它具有计算能力的系统提供自动预测或决策的能力,诸如虚拟助理、车牌识别系统、智能推荐系统等机器学习应用程序给我们的日常生活带来了便捷的体验。机器学习的蓬勃发展,得益于以下三个关键因素:1) 海量数据集;2) 算法的快速发展;3) 计算机硬件的发展。在本文中,我们将学习OpenCV提供的常见机器学习算法和技术,用于解决计算机视觉项目中的实际问题,例如分类和回归问题。

1. 机器学习简介

机器学习是使用计算机编程从历史数据中学习以对新数据进行预测的过程。机器学习可以分为三类——监督学习、无监督学习和半监督学习。这些技术包含如下图所示的算法:

机器学习简介

1.1 监督学习

监督学习中使用的样本都有对应的期望输出值(或样本标签),并且由于我们知道每个训练数据的正确标签,监督学习可以根据预测与对应的期望输出之间的差异来纠正那些预测.基于这些校准,算法可以从误差中学习以调整其内部参数,以拟合样本集和相应的期望输出之间的最接近函数。
监督学习问题可以进一步分为以下分类和回归:

  1. 分类:当输出变量是一个类别时,这个问题可以被认为是一个分类问题。在分类问题中,算法将输入映射到输出标签。
  2. 回归:当输出变量为实数时,在回归问题中,算法将输入映射到连续实数输出。

在监督学习中,主要需要考虑以下几个问题:

  • 偏差-方差的权衡 (Bias-variance trade-off):模型对数据欠拟合的模型具有高偏差,而对数据过拟合的模型具有高方差:
  • 偏差是由于学习算法中的错误假设而导致的误差,可以定义为模型的预测与预期正确值之间的差异。具有高偏差的模型无法找到数据中的所有模式(欠拟合),因此它不能很好地拟合训练集,也不能很好地拟合测试集。
  • 偏差-方差的权衡

  • 方差被定义为算法学习错误事物的倾向,同时拟合真实信号和数据中的噪声。因此,具有高方差(过拟合)的模型非常适合训练集,但无法泛化到测试集,因为它学习了数据中的噪声。
  • 模型复杂度和训练数据量:模型复杂度是指机器学习算法试图做的事情的复杂度。模型的复杂度通常由训练数据决定:例如,如果使用少量数据来训练模型,那么低复杂度的模型更可取,因为高复杂度的模型会导致过拟合。
  • 输入空间的维数:在处理高维空间数据时,学习可能非常困难,因为会有很多额外的特征会混淆学习过程,也称为维数灾难。因此,在处理高维空间数据时,一种常见的做法是修改学习算法,使其具有高偏差和低方差。

1.2 无监督学习

在无监督学习中,样本集缺少每个样本对应的输出值(样本集没有标注、分类或分类)。无监督学习的目标是对样本集合中的结构或分布进行建模和推断。因此,在无监督学习中,算法从数据中进行推断,并试图揭示其中隐藏的分布信息。聚类和降维是无监督学习中最常用的两种算法。

1.3 半监督学习

半监督学习可以看作是监督学习和无监督学习之间的折衷,因为它同时使用标记和未标记的数据进行训练。许多现实世界的机器学习问题可以归类为半监督问题,因为正确标记所有数据可能非常困难或耗时,而未标记的数据更容易收集。

2. K均值 (K-Means) 聚类

OpenCV提供了cv2.kmeans()函数实现K-Means聚类算法,该算法找到簇的中心并将输入样本分组到簇周围。
K-Means聚类算法的目标是将n个样本划分(聚类)为K个簇,其中每个样本都属于具有最近均值的簇,cv2.kmeans()函数用法如下:

retval, bestLabels, centers=cv.kmeans(data, K, bestLabels, criteria, attempts, flags[, centers])

data表示用于聚类的输入数据,它是np.float32数据类型,每一列包含一个特征;K指定最后需要的簇数;算法终止标准由criteria参数指定,该参数设置最大迭代次数或所需精度,当满足这些标准时,算法终止。criteria是具有三个参数(type, max_item, epsilon)的元组:

criteria 参数 解释
type 终止条件的类型,有三个可选值:1) cv2.TERM_CRITERIA_EPS:算法在达到指定的准确度 epsilon 时停止;2) cv2.TERM_CRITERIA_MAX_ITER:算法在达到指定的迭代次数 max_iterm 时停止;3) cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER:当达到两个条件中的任何一个时,算法停止
max_iterm 最大迭代次数
epsilon 所需的精度

criteria参数的标准示例如下:

criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 20, 1.0)

上述语句表示,最大迭代次数设置为 20 (max_iterm = 20),所需精度为 1.0 (epsilon = 1.0)。
attempts参数指定使用不同的初始标签执行算法的次数。flags参数指定初始化簇中心的方法,其可选值包括:cv2.KMEANS_RANDOM_CENTERS每次选择随机初始化簇中心;cv2.KMEANS_PP_CENTERS使用 Arthur 等人提出的K-Means++中心初始化。
cv2.kmeans()返回以下内容:

返回值 解释
bestLabels 整数数组,用于存储每个样本的簇索引
center 包含每个簇中心的数组
compactness 每个点到其簇中心的距离平方和

2.1 K-Means 聚类示例

作为示例,我们将使用K-Means聚类算法对一组 2D 点进行聚类。这组 2D 点由 240 个点组成,使用两个特征进行了描述:

# 2D数据
data = np.float32(np.vstack((np.random.randint(0, 50, (80, 2)), np.random.randint(40, 90, (80, 2)), np.random.randint(70, 110, (80, 2)))))
# 可视化
plt.scatter(data[:, 0], data[:, 1], c='c')
plt.show()

数据点

如上图所示,数据将作为聚类算法的输入,每个数据点有两个特征对应于(x, y)坐标,例如,这些坐标可以表示 240 人人的身高和体重,而K-Means聚类算法用于决定衣服的尺寸(例如 K=3,则相应表示尺寸为 S、M 或 L)。
接下来,我们将数据划分为 2 个簇。第一步是定义算法终止标准,将最大迭代次数设置为 20 (max_iterm = 20),epsilon 设置为 1.0 (epsilon = 1.0):

criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 20, 1.0)

然后调用cv2.kmeans()函数应用K-Means算法:

ret, label, center = cv2.kmeans(data, 2, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)

由于返回值label存储每个样本的聚类索引,因此,我们可以根据label将数据拆分为不同的集群:

A = data[label.ravel() == 0]
B = data[label.ravel() == 1]

最后绘制 A 和 B 以及聚类前后的数据,以便更好地理解聚类过程:

fig = plt.figure(figsize=(12, 6))
plt.suptitle("K-means clustering algorithm", fontsize=14,
fontweight='bold')
# 绘制原始数据
ax = plt.subplot(1, 2, 1)
plt.scatter(data[:, 0], data[:, 1], c='c')
plt.title("data")
# 绘制聚类后的数据和簇中心
ax = plt.subplot(1, 2, 2)
plt.scatter(A[:, 0], A[:, 1], c='b')
plt.scatter(B[:, 0], B[:, 1], c='g')
plt.scatter(center[:, 0], center[:, 1], s=100, c='m', marker='s')
plt.title("clustered data and centroids (K = 2)")
plt.show()

K=2聚类结果
接下来,我们修改参数 K 进行聚类并进行相应的可视化。例如需要将数据分为三个簇,则首先应用相同的过程对数据进行聚类,只需要修改参数 (K=3) 将数据分为 3 个簇:

ret, label, center = cv2.kmeans(data, 3, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)

然后,在使用标签输出分隔数据时,将数据分为三组:

A = data[label.ravel() == 0]
B = data[label.ravel() == 1]
C = data[label.ravel() == 2]

最后一步是显示 A 、 B 和 C ,以及簇中心和训练数据:

fig = plt.figure(figsize=(12, 6))
plt.suptitle("K-means clustering algorithm", fontsize=14,
fontweight='bold')
# 绘制原始数据
ax = plt.subplot(1, 2, 1)
plt.scatter(data[:, 0], data[:, 1], c='c')
plt.title("data")
# 绘制聚类后的数据和簇中心
ax = plt.subplot(1, 2, 2)
plt.scatter(A[:, 0], A[:, 1], c='b')
plt.scatter(B[:, 0], B[:, 1], c='g')
plt.scatter(C[:, 0], C[:, 1], c='r')
plt.scatter(center[:, 0], center[:, 1], s=100, c='m', marker='s')
plt.title("clustered data and centroids (K = 3)")
plt.show()

K=3聚类结果
我们也可以将簇数设置为 4,观察算法运行结果:

ret, label, center = cv2.kmeans(data, 4, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)

K=4聚类结果

3. K最近邻

k-最近邻 (k-nearest neighbours,kNN) 是监督学习中最简单的算法之一,kNN可用于分类和回归问题。在训练阶段,kNN存储所有训练样本的特征向量和类别标签。在测试阶段,将未标记的向量分类为距离最近的 k 个训练样本中出现频率最高的类标签,其中 k 是用户定义的常数:

K最近邻

如上图所示,如果k = 5,则绿色圆圈(未标记的测试样本)将被归类为三角形,因为离其最近的 5 个样本中有 3 个三角形但只有 1 个菱形;如果k = 9,则绿色圆圈将被归类为菱形,因为离其最近的 9 个样本中有 5 个菱形但只有 4 个三角形。
在OpenCV中,使用kNN分类器首先需要使用cv2.ml.KNearest_create()创建kNN分类器,然后提供数据和标签以使用train()方法训练kNN分类器。最后,使用findNearest()方法用于查找测试样本邻居,使用如下:

retval, results, neighborResponses, dist=cv2.ml_KNearest.findNearest(samples, k[, results[, neighborResponses[, dist]]])

其中,samples是输入样本,k设置为最近邻居的个数,results存储每个输入样本的预测值,neighborResponses存储对应的邻居,dist存储输入样本到相应邻居的距离。

3.1 K最近邻示例

接下来,为了演示 kNN 算法,首先随机创建一组点并分配一个标签 (0 或 1)。标签 0 将代表红色三角形,而标签 1 将代表蓝色方块;然后,使用kNN算法根据 k 个最近邻对样本点进行分类。
第一步是创建一组带有相应标签的点和要分类的样本点:

# 点集由50个点组成
data = np.random.randint(0, 100, (50, 2)).astype(np.float32)
# 为1每个点创建标签 (0:红色, 1:蓝色)
labels = np.random.randint(0, 2, (50, 1)).astype(np.float32)
# 创建要分类的样本点
sample = np.random.randint(0, 100, (1, 2)).astype(np.float32)

接下来,创建kNN分类器,训练分类器,并找到要分类样本点的 k 个最近邻居:

# 创建 kNN 分类器
knn = cv2.ml.KNearest_create()
# 训练 kNN 分类器
knn.train(data, cv2.ml.ROW_SAMPLE, labels)
# 找到要分类样本点的 k 个最近邻居
k = 3
ret, results, neighbours, dist = knn.findNearest(sample, k)
# 打印结果
print("result: {}".format(results))
print("neighbours: {}".format(neighbours))
print("distance: {}".format(dist))

# 可视化
fig = plt.figure(figsize=(8, 6))
red_triangles = data[labels.ravel() == 0]
plt.scatter(red_triangles[:, 0], red_triangles[:, 1], 200, 'r', '^')
blue_squares = data[labels.ravel() == 1]
plt.scatter(blue_squares[:, 0], blue_squares[:, 1], 200, 'b', 's')
plt.scatter(sample[:, 0], sample[:, 1], 200, 'g', 'o')
plt.show()

得到的结果如下:

result: [[0.]]
neighbours: [[0. 0. 1.]]
distance: [[13. 40. 65.]]

因此,绿色点被分类为红色三角形,可视化如下所示:

K最近邻示例

4. 支持向量机

支持向量机 (Support Vector Machine,SVM) 是一种监督学习技术,它通过根据指定的类对训练数据进行最佳分离,从而在高维空间中构建一个或一组超平面。
以二维平面为例,如下图所示,其中绿线是可以分离两个类的最佳超平面,因为它到两个类中最近元素的距离最大:

支持向量机
在第一种情况下,决策边界是一条线,在第二种情况下,决策边界是一条圆形曲线,虚线代表其他决策边界,但它们并不是最能区分这两个类的决策边界。
OpenCV中的SVM实现基于LIBSVM,使用cv2.ml.SVM_create()函数创建空模型,然后为模型分配主要参数:

  • svmType :设置SVM类型,可选值如下:
  • SVM_C_SVC:C-支持向量分类,可用于 n 分类 (n≥2) 问题
  • NU_SVC:v-支持向量分类
  • ONE_CLASS: 分布估计(单类SVM)
  • EPS_SVR:%5Cepsilon-支持向量回归
  • NU_SVR:v-支持向量回归
  • kernelType :这设置了SVM的核类型,可选值如下:
  • LINEAR : 线性核
  • POLY :多项式核
  • RBF : Radial Basis Function (RBF),大多数情况下是不错的选择
  • SIGMOID : Sigmoid 核
  • CHI2 : 指数 Chi2 核,类似于 RBF 核
  • INTER : 直方图交集核;运行速度较快的核
  • degree : 核函数的 degree 参数 (用于 POLY 核)
  • gamma :核函数的%5Cgamma参数(用于 POLY/RBF/SIGMOID/CHI2 核)
  • coef0 : 核函数的 coef0 参数 (用于 POLY/SIGMOID 核)
  • Cvalue : SVM 优化问题的 C 参数 (用于 C_SVC/EPS_SVR/NU_SVR 类型)
  • nu : SVM 优化问题的v参数 (用于 NU_SVC/ONE_CLASS/NU_SVR 类型)
  • p : SVM 优化问题的%5Cepsilon参数 (用于 EPS_SVR 类型)
  • classWeights : C_SVC 问题中的可选权重,分配给特定的类
  • termCrit :迭代 SVM 训练过程的终止标准

核函数选择通常取决于数据集,通常可以首先使用RBF核进行测试,因为该核将样本非线性地映射到更高维空间,可以方便的处理类标签和属性之间的关系是非线性的情况。
默认构造函数使用以下值初始化SVM:

svmType: C_SVC, kernelType: RBF, degree: 0, gamma: 1, coef0: 0, C: 1, nu: 0, p: 0, classWeights: 0, termCrit: TermCriteria(MAX_ITER+EPS, 1000, FLT_EPSILON )

4.1 支持向量机示例

为了解如何在OpenCV中使用 SVM,首先需要创建训练数据和标签:

labels = np.array([1, 1, -1, -1, -1])
data = np.matrix([[800, 40], [850, 400], [500, 10], [550, 300], [450, 600]], dtype=np.float32)

以上代码创建了 5 个点,前 2 个点被指定为 1 类,而另外 3 个被指定为 -1 类。接下来使用svm_init()函数初始化SVM模型:

def svm_init(C=12.5, gamma=0.50625):
    """ 创建 SVM 模型并为其分配主要参数,返回模型 """
    model = cv2.ml.SVM_create()
    model.setGamma(gamma)
    model.setC(C)
    model.setKernel(cv2.ml.SVM_LINEAR)
    model.setType(cv2.ml.SVM_C_SVC)
    model.setTermCriteria((cv2.TERM_CRITERIA_MAX_ITER, 100, 1e-6))
    return model
# 初始化 SVM 模型
svm_model = svm_init(C=12.5, gamma=0.50625)

创建的SVM核类型设置为LINEAR,SVM的类型设置为C_SVC。
然后,编写svm_train()函数训练SVM模型:

def svm_train(model, samples, responses):
    # 使用 samples 和 responses 训练模型
    model.train(samples, cv2.ml.ROW_SAMPLE, responses)
    return model
# 训练 SVM
svm_train(svm_model, data, labels)

然后创建一个图像,并绘制SVM响应:

def show_svm_response(model, image):

    colors = {1: (255, 255, 0), -1: (0, 255, 255)}

    for i in range(image.shape[0]):
        for j in range(image.shape[1]):
            sample = np.matrix([[j, i]], dtype=np.float32)
            response = svm_predict(model, sample)

            image[i, j] = colors[response.item(0)]
    
    cv2.circle(image, (800, 40), 10, (255, 0, 0), -1)
    cv2.circle(image, (850, 400), 10, (255, 0, 0), -1)

    cv2.circle(image, (500, 10), 10, (0, 255, 0), -1)
    cv2.circle(image, (550, 300), 10, (0, 255, 0), -1)
    cv2.circle(image, (450, 600), 10, (0, 255, 0), -1)

    support_vectors = model.getUncompressedSupportVectors()
    for i in range(support_vectors.shape[0]):
        cv2.circle(image, (support_vectors[i, 0], support_vectors[i, 1]), 15, (0, 0, 255), 6)
# 创建图像
img_output = np.zeros((640, 1200, 3), dtype="uint8")
# 显示 SVM 响应
show_svm_response(svm_model, img_output)

SVM

如上图所示,SVM使用训练数据进行了训练,可用于对图像中所有点进行分类。SVM将图像划分为黄色和青色区域,可以看到两个区域之间的边界对应于两个类之间的最佳间隔,因为到两个类中最近元素的距离最大,支持向量用红线边框显示。

概括

在本文中,首先介绍机器学习的概念及其相关话题,然后总结了机器学习中的三种主要方法,并总结了分类、回归和聚类问题的三种最常见的技术。最后,我们通过示例了解了常用机器学习算法,具体而言,包括K-Means聚类算法、kNN算法和SVM算法。

系列链接

OpenCV-Python实战(1)——OpenCV简介与图像处理基础
OpenCV-Python实战(2)——图像与视频文件的处理
OpenCV-Python实战(3)——OpenCV中绘制图形与文本
OpenCV-Python实战(4)——OpenCV常见图像处理技术
OpenCV-Python实战(5)——OpenCV图像运算
OpenCV-Python实战(6)——OpenCV中的色彩空间和色彩映射
OpenCV-Python实战(7)——直方图详解
OpenCV-Python实战(8)——直方图均衡化
OpenCV-Python实战(9)——OpenCV用于图像分割的阈值技术
OpenCV-Python实战(10)——OpenCV轮廓检测
OpenCV-Python实战(11)——OpenCV轮廓检测相关应用
OpenCV-Python实战(12)——一文详解AR增强现实
OpenCV-Python实战(14)——人脸检测详解

版权声明:本文为博主盼小辉丶原创文章,版权归属原作者,如果侵权,请联系我们删除!

原文链接:https://blog.csdn.net/LOVEmy134611/article/details/120936011

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
扎眼的阳光的头像扎眼的阳光普通用户
上一篇 2022年2月18日 下午3:00
下一篇 2022年2月18日

相关推荐