欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Scrapy-Redis之RedisSpider與RedisCrawlSpider詳解

 更新時間:2020年11月18日 14:12:22   作者:pengjunlee  
這篇文章主要介紹了Scrapy-Redis之RedisSpider與RedisCrawlSpider詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧

在上一章《Scrapy-Redis入門實(shí)戰(zhàn)》中我們利用scrapy-redis實(shí)現(xiàn)了京東圖書爬蟲的分布式部署和數(shù)據(jù)爬取。但存在以下問題:

每個爬蟲實(shí)例在啟動的時候,都必須從start_urls開始爬取,即每個爬蟲實(shí)例都會請求start_urls中的地址,屬重復(fù)請求,浪費(fèi)系統(tǒng)資源。

為了解決這一問題,Scrapy-Redis提供了RedisSpider與RedisCrawlSpider兩個爬蟲類,繼承自這兩個類的Spider在啟動的時候能夠從指定的Redis列表中去獲取start_urls;任意爬蟲實(shí)例從Redis列表中獲取某一 url 時會將其從列表中彈出,因此其他爬蟲實(shí)例將不能重復(fù)讀取該 url ;對于那些未從Redis列表獲取到初始 url 的爬蟲實(shí)例將一直處于阻塞狀態(tài),直到 start_urls列表中被插入新的起始地址或者Redis的Requests列表中出現(xiàn)待處理的請求。

在這里,我們以爬取當(dāng)當(dāng)網(wǎng)圖書信息為例對這兩個Spider的用法進(jìn)行簡單示例。

settings.py 配置如下:

# -*- coding: utf-8 -*-

BOT_NAME = 'dang_dang'

SPIDER_MODULES = ['dang_dang.spiders']
NEWSPIDER_MODULE = 'dang_dang.spiders'


# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'

# Obey robots.txt rules
ROBOTSTXT_OBEY = False


######################################################
##############下面是Scrapy-Redis相關(guān)配置################
######################################################

# 指定Redis的主機(jī)名和端口
REDIS_HOST = 'localhost'
REDIS_PORT = 6379

# 調(diào)度器啟用Redis存儲Requests隊(duì)列
SCHEDULER = "scrapy_redis.scheduler.Scheduler"

# 確保所有的爬蟲實(shí)例使用Redis進(jìn)行重復(fù)過濾
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

# 將Requests隊(duì)列持久化到Redis,可支持暫?;蛑貑⑴老x
SCHEDULER_PERSIST = True

# Requests的調(diào)度策略,默認(rèn)優(yōu)先級隊(duì)列
SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'

# 將爬取到的items保存到Redis 以便進(jìn)行后續(xù)處理
ITEM_PIPELINES = {
  'scrapy_redis.pipelines.RedisPipeline': 300
}

RedisSpider代碼示例

# -*- coding: utf-8 -*-
import scrapy
import re
import urllib
from copy import deepcopy
from scrapy_redis.spiders import RedisSpider


class DangdangSpider(RedisSpider):
  name = 'dangdang'
  allowed_domains = ['dangdang.com']
  redis_key = 'dangdang:book'
  pattern = re.compile(r"(http|https)://category.dangdang.com/cp(.*?).html", re.I)

  # def __init__(self, *args, **kwargs):
  #   # 動態(tài)定義可爬取的域范圍
  #   domain = kwargs.pop('domain', '')
  #   self.allowed_domains = filter(None, domain.split(','))
  #   super(DangdangSpider, self).__init__(*args, **kwargs)

  def parse(self, response): # 從首頁提取圖書分類信息
    # 提取一級分類元素
    div_list = response.xpath("http://div[@class='con flq_body']/div")
    for div in div_list:
      item = {}
      item["b_cate"] = div.xpath("./dl/dt//text()").extract()
      item["b_cate"] = [i.strip() for i in item["b_cate"] if len(i.strip()) > 0]
      # 提取二級分類元素
      dl_list = div.xpath("./div//dl[@class='inner_dl']")
      for dl in dl_list:
        item["m_cate"] = dl.xpath(".//dt/a/@title").extract_first()
        # 提取三級分類元素
        a_list = dl.xpath("./dd/a")
        for a in a_list:
          item["s_cate"] = a.xpath("./text()").extract_first()
          item["s_href"] = a.xpath("./@href").extract_first()
          if item["s_href"] is not None and self.pattern.match(item["s_href"]) is not None:
            yield scrapy.Request(item["s_href"], callback=self.parse_book_list,
                       meta={"item": deepcopy(item)})

  def parse_book_list(self, response): # 從圖書列表頁提取數(shù)據(jù)
    item = response.meta['item']
    li_list = response.xpath("http://ul[@class='bigimg']/li")
    for li in li_list:
      item["book_img"] = li.xpath("./a[@class='pic']/img/@src").extract_first()
      if item["book_img"] == "images/model/guan/url_none.png":
        item["book_img"] = li.xpath("./a[@class='pic']/img/@data-original").extract_first()
      item["book_name"] = li.xpath("./p[@class='name']/a/@title").extract_first()
      item["book_desc"] = li.xpath("./p[@class='detail']/text()").extract_first()
      item["book_price"] = li.xpath(".//span[@class='search_now_price']/text()").extract_first()
      item["book_author"] = li.xpath("./p[@class='search_book_author']/span[1]/a/text()").extract_first()
      item["book_publish_date"] = li.xpath("./p[@class='search_book_author']/span[2]/text()").extract_first()
      if item["book_publish_date"] is not None:
        item["book_publish_date"] = item["book_publish_date"].replace('/', '')
      item["book_press"] = li.xpath("./p[@class='search_book_author']/span[3]/a/text()").extract_first()
      yield deepcopy(item)

    # 提取下一頁地址
    next_url = response.xpath("http://li[@class='next']/a/@href").extract_first()
    if next_url is not None:
      next_url = urllib.parse.urljoin(response.url, next_url)
      yield scrapy.Request(next_url, callback=self.parse_book_list, meta={"item": item})

當(dāng)Redis 的dangdang:book鍵所對應(yīng)的start_urls列表為空時,啟動DangdangSpider爬蟲會進(jìn)入到阻塞狀態(tài)等待列表中被插入數(shù)據(jù),控制臺提示內(nèi)容類似下面這樣:

2019-05-08 14:02:53 [scrapy.core.engine] INFO: Spider opened
2019-05-08 14:02:53 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
2019-05-08 14:02:53 [scrapy.extensions.telnet] DEBUG: Telnet console listening on 127.0.0.1:6023

此時需要向start_urls列表中插入爬蟲的初始爬取地址,向Redis列表中插入數(shù)據(jù)可使用如下命令:

lpush dangdang:book http://book.dangdang.com/

命令執(zhí)行完后稍等片刻DangdangSpider便會開始爬取數(shù)據(jù),爬取到的數(shù)據(jù)結(jié)構(gòu)如下圖所示:

RedisCrawlSpider代碼示例

# -*- coding: utf-8 -*-
import scrapy
import re
import urllib
from copy import deepcopy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor
from scrapy_redis.spiders import RedisCrawlSpider


class DangdangCrawler(RedisCrawlSpider):
  name = 'dangdang2'
  allowed_domains = ['dangdang.com']
  redis_key = 'dangdang:book'
  pattern = re.compile(r"(http|https)://category.dangdang.com/cp(.*?).html", re.I)

  rules = (
    Rule(LinkExtractor(allow=r'(http|https)://category.dangdang.com/cp(.*?).html'), callback='parse_book_list',
       follow=False),
  )

  def parse_book_list(self, response): # 從圖書列表頁提取數(shù)據(jù)
    item = {}
    item['book_list_page'] = response._url
    li_list = response.xpath("http://ul[@class='bigimg']/li")
    for li in li_list:
      item["book_img"] = li.xpath("./a[@class='pic']/img/@src").extract_first()
      if item["book_img"] == "images/model/guan/url_none.png":
        item["book_img"] = li.xpath("./a[@class='pic']/img/@data-original").extract_first()
      item["book_name"] = li.xpath("./p[@class='name']/a/@title").extract_first()
      item["book_desc"] = li.xpath("./p[@class='detail']/text()").extract_first()
      item["book_price"] = li.xpath(".//span[@class='search_now_price']/text()").extract_first()
      item["book_author"] = li.xpath("./p[@class='search_book_author']/span[1]/a/text()").extract_first()
      item["book_publish_date"] = li.xpath("./p[@class='search_book_author']/span[2]/text()").extract_first()
      if item["book_publish_date"] is not None:
        item["book_publish_date"] = item["book_publish_date"].replace('/', '')
      item["book_press"] = li.xpath("./p[@class='search_book_author']/span[3]/a/text()").extract_first()
      yield deepcopy(item)

    # 提取下一頁地址
    next_url = response.xpath("http://li[@class='next']/a/@href").extract_first()
    if next_url is not None:
      next_url = urllib.parse.urljoin(response.url, next_url)
      yield scrapy.Request(next_url, callback=self.parse_book_list)

 與DangdangSpider爬蟲類似,DangdangCrawler在獲取不到初始爬取地址時也會阻塞在等待狀態(tài),當(dāng)start_urls列表中有地址即開始爬取,爬取到的數(shù)據(jù)結(jié)構(gòu)如下圖所示:

到此這篇關(guān)于Scrapy-Redis之RedisSpider與RedisCrawlSpider詳解的文章就介紹到這了,更多相關(guān)Scrapy-Redis之RedisSpider與RedisCrawlSpider內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • python matplotlib庫繪制散點(diǎn)圖例題解析

    python matplotlib庫繪制散點(diǎn)圖例題解析

    這篇文章主要介紹了python matplotlib庫繪制散點(diǎn)圖例題解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2019-08-08
  • 利用Python實(shí)現(xiàn)給圖像添加標(biāo)簽

    利用Python實(shí)現(xiàn)給圖像添加標(biāo)簽

    這篇文章主要為大家詳細(xì)介紹了如何利用Python實(shí)現(xiàn)給指定的圖片添加標(biāo)簽,文中的示例代碼講解詳細(xì),具有一定的學(xué)習(xí)價值,需要的可以參考一下
    2023-07-07
  • Python中文件讀取與保存代碼示例

    Python中文件讀取與保存代碼示例

    Python中保存文件是一項(xiàng)非?;镜娜蝿?wù),它允許我們將程序輸出保存到磁盤上,以便以后使用或與他人共享,這篇文章主要給大家介紹了關(guān)于Python中文件讀取與保存的相關(guān)資料,需要的朋友可以參考下
    2024-04-04
  • python列表,字典,元組簡單用法示例

    python列表,字典,元組簡單用法示例

    這篇文章主要介紹了python列表,字典,元組簡單用法,結(jié)合實(shí)例形式分析了Python列表,字典,元組的功能及相關(guān)函數(shù)使用技巧,需要的朋友可以參考下
    2019-07-07
  • Python文件處理、os模塊、glob模塊

    Python文件處理、os模塊、glob模塊

    這篇文章介紹了Python處理文件的方法,文中通過示例代碼介紹的非常詳細(xì)。對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2022-05-05
  • python自動zip壓縮目錄的方法

    python自動zip壓縮目錄的方法

    這篇文章主要介紹了python自動zip壓縮目錄的方法,可實(shí)現(xiàn)調(diào)用zip.exe文件進(jìn)行目錄壓縮的功能,需要的朋友可以參考下
    2015-06-06
  • Python入門學(xué)習(xí)之Python流處理過程

    Python入門學(xué)習(xí)之Python流處理過程

    本篇文章屬于Python入門篇,本文主要教大家學(xué)習(xí)Python流處理過程,通過Faust流處理庫來為大家詳細(xì)講解,有需要的朋友可以借鑒參考下
    2021-09-09
  • python連接mysql實(shí)例分享

    python連接mysql實(shí)例分享

    本文給大家匯總介紹了使用python連接mysql的幾個實(shí)例,非常的簡單實(shí)用,有需要的小伙伴可以參考下
    2016-10-10
  • Python figure參數(shù)及subplot子圖繪制代碼

    Python figure參數(shù)及subplot子圖繪制代碼

    這篇文章主要介紹了Python figure參數(shù)及subplot子圖繪制代碼,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-04-04
  • Elasticsearches的集群搭建及數(shù)據(jù)分片過程詳解

    Elasticsearches的集群搭建及數(shù)據(jù)分片過程詳解

    這篇文章主要為大家介紹了Elasticsearches的集群搭建及數(shù)據(jù)分片過程詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2022-04-04

最新評論