Tensorflow车牌识别完整项目(含完整源代码及训练集)

基于TensorFlow的车牌识别系统设计与实现,运用tensorflow和OpenCV的相关技术,实现车牌的定位、车牌的二值化、车牌去噪增强、图片的分割,模型的训练和车牌的识别等

内容

环境准备

思考过程

功能说明

细节

项目总体框架

过程展示

技术介绍

一、Tensorflow

二、OpenCV

系统设计

项目实现

最后

环境准备

Anaconda 4.10.3
Tensorflow 2.6.0
python3.7.8
coding: utf-8
pycharm解释器:D:\Anaconda\envs\tensorflow\python.exe
以及各种第三方库

思考过程

1、将图片通过opencv切割识别定位车牌,切割保存

2、识别省份简称、识别城市代号、识别车牌编号

功能说明

car_num_main.py  :将图片转为灰度图像,灰度图像二极化,分割图像并分别保存为.jpg和.bmp文件
train-license-province.py : 省份简称训练识别
train-license-letters.py :城市代号训练识别
train-license-digits.py :车牌编号训练识别

四大核心程序下载

细节

1、图片切割后分别保存在两个文件夹./img_cut   and    ./img_cut_not_3240
2、识别车牌需进入终端,在命令行中进入脚本所在目录,
输入执行如下命令:python train-license-province.py train 进行省份简称训练
输入执行如下命令:python train-license-province.py predict 进行省份简称识别
输入执行如下命令:python train-license-letters.py train 进行城市代号训练
输入执行如下命令:python train-license-letters.py predict 进行城市代号识别
输入执行如下命令:python train-license-digits.py train 进行车牌编号训练
输入执行如下命令:python train-license-digits.py predict 进行车牌编号识别
3、将要识别的图片调为.jpg格式,大小调为像素600*413最佳,可依据代码酌情调试
4、具体可以准确识别的车牌号参见数据集中训练集

项目总体框架

Tensorflow车牌识别完整项目(含完整源代码及训练集)

capture_img :存放将要识别的车牌图片

img_cut:运行car_num_main.py后生成切割后的图片

img_cut_not_3240 :运行  car_num_main.py  后生成切割后的图片(对比度加强)

test_images:存放测试图片

train_images:  存放训练图片

train-saver: 训练模型

过程展示

Tensorflow车牌识别完整项目(含完整源代码及训练集)

Tensorflow车牌识别完整项目(含完整源代码及训练集)

PS D:\pycharm\pycharm_work> cd .\chepai\
PS D:\pycharm\pycharm_work\chepai> python train-license-province.py train

Tensorflow车牌识别完整项目(含完整源代码及训练集)

PS D:\pycharm\pycharm_work\chepai> python train-license-province.py predict

Tensorflow车牌识别完整项目(含完整源代码及训练集)

PS D:\pycharm\pycharm_work\chepai> python train-license-digits.py predict

Tensorflow车牌识别完整项目(含完整源代码及训练集)

技术介绍

一、Tensorflow

TensorFlow是一个开放源代码软件库,用于进行高性能数值计算。借助其灵活的架构,用户可以轻松地将计算工作部署到多种平台(CPU、GPU、TPU)和设备(桌面设备、服务器集群、移动设备、边缘设备等)。

TensorFlow 是一个用于研究和生产的开放源代码机器学习库。TensorFlow 提供了各种 API,可供初学者和专家在桌面、移动、网络和云端环境下进行开发。

TensorFlow是采用数据流图(data flow graphs)来计算,所以首先我们得创建一个数据流流图,然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算。节点(Nodes)在图中表示数学操作,图中的边(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor)。训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点。

二、OpenCV

OpenCV是一个基于BSD许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以运行在Linux、Windows、Android和Mac OS操作系统上。它轻量级而且高效——由一系列 C 函数和少量 C++ 类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。

OpenCV提供的视觉处理算法非常丰富,并且它部分以C语言编写,加上其开源的特性,处理得当,不需要添加新的外部支持也可以完整的编译链接生成执行程序,所以很多人用它来做算法的移植,OpenCV的代码经过适当改写可以正常的运行在DSP系统和ARM嵌入式系统中。其应用领域诸如:人机互动,物体识别,图像分割,人脸识别,动作识别,运动跟踪,机器人,运动分析,机器视觉,结构分析,汽车安全驾驶等领域。

系统设计

车牌自动识别是基于计算机视觉处理、数字图像处理、模式识别等技术。它对摄像头拍摄的车辆图像或视频图像进行处理和分析,得到每辆车的车牌号,从而完成识别过程。在此基础上,可以实现停车场出入口收费管理、抢劫车辆管理、高速公路超速自动化管理、闯红灯电子警察、高速公路收费管理等多种交通监管功能。

一、系统处理流程

车牌自动识别系统的设计包括车辆图像采集、车牌区域定位、车牌特征轮廓提取和车牌内容识别。

Tensorflow车牌识别完整项目(含完整源代码及训练集)

2. 车牌获取

车牌图像采集是车牌识别的第一步。车牌图像可以从摄像机捕获的车辆图像或视频图像中提取。车牌图像也可以通过用户手机获取,然后传输到车牌识别系统。

3.灰度图像生成

包含由摄像头捕获的车牌信息的车辆图像是彩色的。为了提高车牌识别的抗干扰能力,首先将彩色车辆图像生成二值灰度图像,实现基于色调的车牌区域定位。由于国内车牌往往是蓝底白字,因此可以利用图像的色调或色彩饱和度特性生成二值灰度图像,从而更准确地定位车牌位置。

四、车牌区域定位

车牌区域的定位采用基于形状的方法。由于车辆图像的背景比较复杂,所以要根据车牌的特点进行初步筛选。车牌的特征可以从中国车牌的大小和比例中选择,因为车牌是一个固定的矩形,通过先在图像上找到具有矩形特征的区域,然后提取这些区域,再结合车牌的长度和宽度。得到对应的矩形区域,从而实现车牌的准确定位。

5. 特征轮廓提取

OpenCV 与 Python 的接口中使用 cv2.fifindContours() 函数来查找检测物体的轮廓。

图3 和 图4 为特征轮廓提取前后的效果对比图 :

Tensorflow车牌识别完整项目(含完整源代码及训练集)

6.车牌内容识别

车牌内容识别时,通过计算候选车牌区域蓝色数值(均值)的最大值,确定最终的车牌区域。对于选定的车牌轮廓,首先进行粗定位,即对车牌进行左右边界回归处理,去除车牌两边多余的部分,然后进行精定位,即将车牌送入 CRNN 网络进行字符识别,利用左右边界回归模型,预测出车牌的左右边框,进一步裁剪,进行精定位。基于文字特征的方法是根据文字轮廓特征进行识别,经过相应的算法解析,得到结果。

项目实现

核心代码展示

1.检查车牌

def find_car_num_brod():
    watch_cascade = cv2.CascadeClassifier('D:\pycharm\pycharm_work\chepai\cascade.xml')
    # 先读取图片
    image = cv2.imread("D:\pycharm\pycharm_work\chepai\capture_img\car1.jpg")
    resize_h = 1000
    height = image.shape[0]
    scale = image.shape[1] / float(image.shape[0])
    image = cv2.resize(image, (int(scale * resize_h), resize_h))
    image_gray = cv2.cvtColor(image, cv2.COLOR_RGB2GRAY)
    watches = watch_cascade.detectMultiScale(image_gray, 1.2, 2, minSize=(36, 9), maxSize=(36 * 40, 9 * 40))

    print("检测到车牌数", len(watches))
    for (x, y, w, h) in watches:
        cv2.rectangle(image, (x, y), (x + w, y + h), (0, 0, 255), 1)
        cut_img = image[y + 5:y - 5 + h, x + 8:x  + w]  # 裁剪坐标为[y0:y1, x0:x1]
        cut_gray = cv2.cvtColor(cut_img, cv2.COLOR_RGB2GRAY)

        cv2.imwrite("D:\pycharm\pycharm_work\chepai\\num_for_car.jpg", cut_gray)
        im = Image.open("D:\pycharm\pycharm_work\chepai\\num_for_car.jpg")
        size = 720, 180
        mmm = im.resize(size, Image.ANTIALIAS)
        mmm.save("D:\pycharm\pycharm_work\chepai\\num_for_car.jpg", "JPEG", quality=90)
        break

2.二值化图像

def cut_car_num_for_chart():
    # 1、读取图像,并把图像转换为灰度图像并显示
    img = cv2.imread("D:\pycharm\pycharm_work\chepai\\num_for_car.jpg")  # 读取图片
    img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)  # 转换了灰度化
    cv2.imshow('gray', img_gray)  # 显示图片
    cv2.waitKey(0)
    # 2、将灰度图像二值化,设定阈值是100   转换后 白底黑字 ---》 目标黑底白字
    img_thre = img_gray
    # 灰点  白点 加错
    # cv2.threshold(img_gray, 130, 255, cv2.THRESH_BINARY_INV, img_thre)

    # 二值化处理 自适应阈值   效果不理想
    # th3 = cv2.adaptiveThreshold(img_gray, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY, 11, 2)

    # 高斯除噪 二值化处理
    blur = cv2.GaussianBlur(img_gray, (5, 5), 0)
    ret3, th3 = cv2.threshold(blur, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)

    cv2.imshow('threshold', th3)
    cv2.imwrite('D:\pycharm\pycharm_work\chepai\wb_img.jpg', th3)
    cv2.waitKey(0)

第一行imread(),由于flag设为1所以读的是彩图,采用cvtColor函数转化为灰度图。如果你读入就是灰度图可以省略第二行代码,然后转化为二值化函数,阈值180可以修改,后经过增强处理,效果如图所示:

Tensorflow车牌识别完整项目(含完整源代码及训练集)

三、单字切割

单字符分割的主要策略是检测列像素的总变化,因为没有字符的区域基本上是黑色的,像素值较低;有字符的区域更白,列像素和变大!

列像素变化的阈值是个问题。我看到许多博客使用固定阈值进行检测。除非你处理后的二值化图像是完美的,否则一些图像会混入白色区域,分割错误!

考虑到车牌中只有7个字符,所以先判断得到宽度大小,如果小于总宽的七分之一视为干扰放弃;其实也可以加大到总宽的8分之一(因为车牌中间可能有连接符)。

    n = 1
    start = 1
    end = 2
    temp = 1
    while n < width - 2:
        n += 1
        if (white[n] if arg else black[n]) > (0.05 * white_max if arg else 0.05 * black_max):
            # 上面这些判断用来辨别是白底黑字还是黑底白字
            # 0.05这个参数请多调整,对应上面的0.95
            start = n
            end = find_end(start, white, black, arg, white_max, black_max, width)
            n = end
            # 车牌框检测分割 二值化处理后 可以看到明显的左右边框  毕竟用的是网络开放资源 所以车牌框定位角度真的不准,
            # 所以我在这里截取单个字符时做处理,就当亡羊补牢吧
            # 思路就是从左开始检测匹配字符,若宽度(end - start)小与20则认为是左侧白条 pass掉  继续向右识别,否则说明是
            # 省份简称,剪切,压缩 保存,还有一个当后五位有数字 1 时,他的宽度也是很窄的,所以就直接认为是数字 1 不需要再
            # 做预测了(不然很窄的 1 截切  压缩后宽度是被拉伸的),
            # shutil.copy()函数是当检测到这个所谓的 1 时,从样本库中拷贝一张 1 的图片给当前temp下标下的字符
            if end - start > 5:  # 车牌左边白条移除
                print(" end - start" + str(end - start))
                if temp == 1 and end - start < 20:
                    pass
                elif temp > 3 and end - start < 20:
                    #  认为这个字符是数字1   copy 一个 32*40的 1 作为 temp.bmp
                    shutil.copy(
                        os.path.join("D:\pycharm\pycharm_work\chepai\fuzhi", "111.bmp"),  # 111.bmp 是一张 1 的样本图片
                        os.path.join("D:\pycharm\pycharm_work\chepai\\img_cut\\", str(temp) + '.bmp'))
                    pass
                else:
                    cj = th3[1:height, start:end]
                    cv2.imwrite("D:\pycharm\pycharm_work\chepai\img_cut_not_3240\\" + str(temp) + ".jpg", cj)

                    im = Image.open("D:\pycharm\pycharm_work\chepai\img_cut_not_3240\\" + str(temp) + ".jpg")
                    size = 32, 40
                    mmm = im.resize(size, Image.ANTIALIAS)
                    mmm.save("D:\pycharm\pycharm_work\chepai\img_cut\\" + str(temp) + ".bmp", quality=95)
                    temp = temp + 1

车牌切割效果如图:

Tensorflow车牌识别完整项目(含完整源代码及训练集)

四、单字识别

            max1 = 0
            max2 = 0
            max3 = 0
            max1_index = 0
            max2_index = 0
            max3_index = 0
            for j in range(NUM_CLASSES):
                if result[0][j] > max1:
                    max1 = result[0][j]
                    max1_index = j
                    continue
                if (result[0][j] > max2) and (result[0][j] <= max1):
                    max2 = result[0][j]
                    max2_index = j
                    continue
                if (result[0][j] > max3) and (result[0][j] <= max2):
                    max3 = result[0][j]
                    max3_index = j
                    continue

            license_num = license_num + LETTERS_DIGITS[max1_index]
            print("概率:  [%s %0.2f%%]    [%s %0.2f%%]    [%s %0.2f%%]" % (
            LETTERS_DIGITS[max1_index], max1 * 100, LETTERS_DIGITS[max2_index], max2 * 100, LETTERS_DIGITS[max3_index],
            max3 * 100))

        print("车牌编号是: 【%s】" % license_num)

最终效果如图:

Tensorflow车牌识别完整项目(含完整源代码及训练集)

注:此图为以下三个程序的运行结果。我已经把图片拼接在一起了。 .

train-license-province.py : 省份简称训练识别
train-license-letters.py :城市代号训练识别
train-license-digits.py :车牌编号训练识别

最后

车牌识别做不到100%识别成功,但通过训练已经基本可以达到95%以上的识别度,可以将capture_img文件中的图片(注意图片格式与大小会间接影响识别度,车牌名改为 car1.jpg)替换为自己的车牌照通过训练进行识别车牌照。

程序框架点此下载

只需要将以上的 test_images,train_images,train-saver,以及四个核心程序按照项目总体框架图放进来即可(文中标红的为下载链接)

版权声明:本文为博主托马斯-酷涛原创文章,版权归属原作者,如果侵权,请联系我们删除!

原文链接:https://blog.csdn.net/m0_54925305/article/details/123246627

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
青葱年少的头像青葱年少普通用户
上一篇 2022年3月7日 上午11:16
下一篇 2022年3月7日 上午11:38

相关推荐