Python_爬虫数据存入数据库(超详细过程

目录

 

 

一、新建项目

二、程序的编写

三、数据的爬取

 

一、新建项目

1.在cmd窗口输入scrapy startproject [项目名称] 创建爬虫项目

7443f9f72e5449b389469711900ba432.png

 

接着创建爬虫文件,scrapy genspider [爬虫名字] [爬虫域名]

6a1c434f3fd046e191dbd7d9cc37d5f2.png

 

打开pycharm项目,就可以看到生成的cblog.py文件

8903421bb6514fa7b4b65ecaf1750ae2.png

 

二、程序的编写

1.在项目下新建main.py,写入以下代码,方便后续项目调试

main.py

from scrapy.cmdline import execute

import sys
import os

sys.path.append(os.path.dirname(os.path.abspath(__file__)))

execute(["scrapy", "crawl", "kblog"])

 

2.编写爬虫程序

kblog.py

import scrapy
from urllib import parse
import re
import json
import scrapy
import requests
from scrapy import Request
from scrapy import Selector

from urllib import parse
from scrapy import Request
from MySpider.utils import common
from MySpider.items import KBlogArticleItem

class KblogSpider(scrapy.Spider):
    name = 'kblog'
    allowed_domains = ['kb.cnblogs.com']
    start_urls = ['http://kb.cnblogs.com/']

    # 解析每个网页的url
    def parse(self, response):
        post_nodes = response.xpath('//*[@id="wrapper"]/div[4]/div/div[2]/div')[1:20]   # 解析该网页的list_url[1:20]
        for post_node in post_nodes:    # 遍历解析url
            post_url = post_node.xpath('./div/div[1]/p/a/@href').extract_first("")
            yield Request(url=parse.urljoin(response.url, post_url),    # 通过yield把每个url保存到生成器,再通过callback方法,将每个url传入parse_detail()函数进行数据解析
                          callback=self.parse_detail)

    # 解析每个url的详细数据
    def parse_detail(self, response):
        article_item = KBlogArticleItem()  # 实例化items
        # 解析数据
        title = response.xpath('//*[@id="left_content_pages"]/h1/a/text()').extract_first("") # 标题
        a = response.xpath('//*[@id="left_content_pages"]/div[1]//text()').extract()
        a = "".join(a)
        a = re.findall(r"(\d+)-(\d+)-(\d+)", a)
        create_date = "-".join(a[0])  # 发布时间
        content = response.xpath('//*[@id="left_content_pages"]/div[2]//text()').extract() # 内容
        tag_list = response.xpath('//*[@id="panelTags"]/div//a/text()').extract()
        tags = ",".join(tag_list) # 标签
        # 存入item对象中
        article_item['title'] = title
        article_item['create_date'] = create_date
        article_item['content'] = content
        article_item['tags'] = tags
        article_item['url'] = response.url
        article_item['url_object_id'] = common.get_md5(article_item["url"])

        yield article_item

 

3.在items.py文件中创建items函数与爬取数据对应

items.py

import scrapy

class KBlogArticleItem(scrapy.Item):
    title = scrapy.Field()
    create_date = scrapy.Field()
    url = scrapy.Field()
    url_object_id = scrapy.Field()
    tags = scrapy.Field()
    content = scrapy.Field()
    pass

 

4.在数据库中新建数据表MyArticle,数据表列名属性与爬取的数据对应

 MyArticle.sql

3399b5b93af24b459a2216f7956d6f78.png

5.在pipelines.py中新建数据库函数,用于保存数据到数据库

pipelines.py

import MySQLdb

class MysqlPipeline(object):
    def __init__(self):
        # 连接数据库
        self.conn = MySQLdb.connect(host="192.168.186.130", user="root", password="123456", database="article_spider", charset='utf8', use_unicode=True)
        self.cursor = self.conn.cursor()

    def process_item(self, item, spider):
        # 数据库插入语句
        insert_sql = """
            insert into MyArticle(title,url,tags,create_date,content)
            values(%s,%s,%s,%s,%s)
        """
        # 数据参数列表
        parms = list()
        parms.append(item.get('title', ""))
        parms.append(item.get('url', ""))
        # parms.append(item.get('url_object_id', ""))
        parms.append(item.get('tags', ""))
        parms.append(item.get('create_date', "1970-07-01"))
        content = "".join([str(x) for x in (item.get('content', ""))])
        parms.append(content.lstrip())
        # 执行数据库语句,将数据存入SQL数据库中
        self.cursor.execute(insert_sql, tuple(parms))
        self.conn.commit()
        return item

6.在setting中添加pipelines中的数据库函数,并将robot协议关闭

setting.py

ROBOTSTXT_OBEY = False

ITEM_PIPELINES = {
   'MySpider.pipelines.MysqlPipeline': 1,
   'MySpider.pipelines.MyspiderPipeline': 300,
}

 

三、数据的爬取

在main函数运行该项目,最终爬取的数据将保存到SQL数据库上。

03a94dfecdc04dea9019336db6ee7dbe.png

 

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2023年6月26日
下一篇 2023年6月26日

相关推荐