1. 程式人生 > 資料庫 >詳解Scrapy Redis入門實戰

詳解Scrapy Redis入門實戰

簡介

scrapy-redis是一個基於redis的scrapy元件,用於快速實現scrapy專案的分散式部署和資料爬取,其執行原理如下圖所示。

詳解Scrapy Redis入門實戰

Scrapy-Redis特性

分散式爬取

你可以啟動多個共享同一redis佇列的爬蟲例項,多個爬蟲例項將各自提取到或者已請求的Requests在佇列中統一進行登記,使得Scheduler在請求排程時能夠對重複Requests進行過濾,即保證已經由某一個爬蟲例項請求過的Request將不會再被其他的爬蟲例項重複請求。

分散式資料處理

將scrapy爬取到的items匯聚到同一個redis佇列中,意味著你可以根據你的需要啟動儘可能多的共享這個items佇列的後處理程式。

Scrapy即插即用元件

Scheduler排程器 + Duplication重複過濾器、Item Pipeline、基礎Spider爬蟲

Scrapy-Redis示例

本文將以爬取京東所有圖書分類下的圖書資訊為例對Scrapy-Redis的用法進行示例。

開發環境

  • Python 3.7
  • Redis 3.2.100

下面列舉出了 Python 中 Scrapy-Redis 所需要的各個模組及其版本:

  • redis 2.10.6
  • redis-py-cluster 1.3.6
  • scrapy-redis 0.6.8
  • scrapy-redis-cluster 0.4

在開發之前需要先安裝好以上模組,以scrapy-redis-cluster模組為例,使用pip進行安裝的命令如下:

pip install scrapy-redis-cluster # 安裝模組
pip install scrapy-redis-cluster==0.4 # 安裝模組時指定版本
pip install --upgrade scrapy-redis-cluster # 升級模組版本

建立專案

在Windows命令列執行如下命令完成專案建立:

d:\scrapy>scrapy startproject jd_book

執行完該命令後,將會在當前目錄下建立包含下列內容的 jd_book 目錄:

詳解Scrapy Redis入門實戰

定義Item

在items.py中把我們將要爬取的圖書欄位預先定義好。

# -*- coding: utf-8 -*-

import scrapy

class JdBookItem(scrapy.Item):
  b_cate = scrapy.Field() # 圖書所屬一級分類名稱
  s_cate = scrapy.Field() # 圖書所屬二級分類名稱
  s_href = scrapy.Field() # 圖書所屬二級分類地址
  book_name = scrapy.Field() # 名稱
  book_img = scrapy.Field() # 封面圖片地址
  book_author = scrapy.Field() # 作者
  book_press = scrapy.Field() # 出版社
  book_publish_date = scrapy.Field() # 出版日期
  book_sku = scrapy.Field() # 商品編號
  book_price = scrapy.Field() # 價格

建立Spider

在Windows命令列執行如下命令完成Spider建立:

d:\scrapy\jd_book>cd jd_book
d:\scrapy\jd_book>scrapy genspider jdbook jd.com

執行完該命令後,將會在 jd_book 的 spiders 目錄下生成一個 jdbook.py 檔案 :

詳解Scrapy Redis入門實戰

jdbook.py的完整爬蟲程式碼如下。

# -*- coding: utf-8 -*-
import scrapy
import json
import urllib
from copy import deepcopy
from jd_book.items import JdBookItem

class JdbookSpider(scrapy.Spider):
  name = 'jdbook'
  allowed_domains = ['jd.com','3.cn']
  start_urls = ['https://book.jd.com/booksort.html']

  def parse(self,response): # 處理圖書分類頁
    dt_list = response.xpath("//div[@class='mc']/dl/dt") # 提取一級分類元素
    for dt in dt_list:
      item = JdBookItem()
      item["b_cate"] = dt.xpath("./a/text()").extract_first() # 提取一級分類名稱
      em_list = dt.xpath("./following-sibling::dd[1]/em") # 提取二級分類元素
      for em in em_list:
        item["s_cate"] = em.xpath("./a/text()").extract_first() # 提取二級分類名稱
        item["s_href"] = em.xpath("./a/@href").extract_first() # 提取二級分類地址
        if item["s_href"] is not None:
          item['s_href'] = "https:" + item['s_href'] # 補全二級分類地址
          yield scrapy.Request(item['s_href'],callback=self.parse_book_list,meta={"item": deepcopy(item)})

  def parse_book_list(self,response): # 處理二級分類下圖書列表頁
    item = response.meta['item']
    li_list = response.xpath("//div[@id='plist']/ul/li") # 提取所有的圖書元素
    for li in li_list:
      item["book_img"] = li.xpath(".//div[@class='p-img']//img/@data-lazy-img").extract_first()
      if item["book_img"] is None:
        item["book_img"] = li.xpath(".//div[@class='p-img']//img/@src").extract_first()
      if item["book_img"] is not None:
        item["book_img"] = "https:"+item["book_img"]
      item["book_name"] = li.xpath(".//div[@class='p-name']/a/em/text()").extract_first().strip()
      item["book_author"] = li.xpath(".//span[@class='author_type_1']/a/text()").extract()
      item["book_press"] = li.xpath(".//span[@class='p-bi-store']/a/@title").extract_first()
      item["book_publish_date"] = li.xpath(".//span[@class='p-bi-date']/text()").extract_first().strip()
      item["book_sku"] = li.xpath("./div/@data-sku").extract_first()
      price_url = "https://p.3.cn/prices/mgets?skuIds=j_{}".format(item["book_sku"]) # 提取圖書價格請求地址
      yield scrapy.Request(price_url,callback=self.parse_book_price,meta={"item": deepcopy(item)})

    # 提取列表頁下一頁地址
    next_url = response.xpath("//a[@class='pn-next']/@href").extract_first()
    if next_url is not None:
      next_url = urllib.parse.urljoin(response.url,next_url)
      # yield scrapy.Request(next_url,meta={"item":item})

  def parse_book_price(self,response):
    item = response.meta['item']
    item["book_price"] = json.loads(response.body.decode())[0]["op"]
    yield item

修改配置

在settings.py 中增加Scrapy-Redis相關配置。

# -*- coding: utf-8 -*-

BOT_NAME = 'jd_book'

SPIDER_MODULES = ['jd_book.spiders']
NEWSPIDER_MODULE = 'jd_book.spiders'

# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/71.0.3578.98 Safari/537.36'

# Obey robots.txt rules
ROBOTSTXT_OBEY = False


######################################################
##############下面是Scrapy-Redis相關配置################
######################################################

# 指定Redis的主機名和埠
REDIS_HOST = 'localhost'
REDIS_PORT = 6379

# 排程器啟用Redis儲存Requests佇列
SCHEDULER = "scrapy_redis.scheduler.Scheduler"

# 確保所有的爬蟲例項使用Redis進行重複過濾
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

# 將Requests佇列持久化到Redis,可支援暫停或重啟爬蟲
SCHEDULER_PERSIST = True

# Requests的排程策略,預設優先順序佇列
SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'

# 將爬取到的items儲存到Redis 以便進行後續處理
ITEM_PIPELINES = {
  'scrapy_redis.pipelines.RedisPipeline': 300
}

啟動爬蟲

至此京東圖書專案就算配置完成了,你可以將專案部署到多臺伺服器中去,並使用如下命令來啟動爬蟲:

d:\scrapy\jd_book>scrapy crawl jdbook

爬取到的圖書資料結構如下:

詳解Scrapy Redis入門實戰

相應地,在Redis資料庫中同時生成了如下3個鍵:

詳解Scrapy Redis入門實戰

其中,jdbook:requests 中儲存了待爬取的Request物件;jdbook:dupefilter 中儲存了已經爬取過的Request物件的指紋;jdbook:items中儲存了爬取到的Item物件。

通過上述京東圖書專案不難看出,scrapy-redis專案與普通的scrapy專案相比,除了在settings.py配置時額外增加了一些scrapy-redis的專屬配置外,其他環節完全相同。

參考文章

https://scrapy-redis.readthedocs.io/en/stable/index.html

到此這篇關於詳解Scrapy Redis入門實戰的文章就介紹到這了,更多相關Scrapy Redis入門內容請搜尋我們以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援我們!