欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python的Scrapy框架中的CrawlSpider介紹和使用

 更新時間:2023年12月06日 10:22:37   作者:凌冰_  
這篇文章主要介紹了Python的Scrapy框架中的CrawlSpider介紹和使用,CrawlSpider其實是Spider的一個子類,除了繼承到Spider的特性和功能外,還派生除了其自己獨有的更加強大的特性和功能,其中最顯著的功能就是"LinkExtractors鏈接提取器",需要的朋友可以參考下

一、介紹CrawlSpider

CrawlSpider其實是Spider的一個子類,除了繼承到Spider的特性和功能外,還派生除了其自己獨有的更加強大的特性和功能。其中最顯著的功能就是”LinkExtractors鏈接提取器“。

Spider是所有爬蟲的基類,其設計原則只是為了爬取start_url列表中網頁,而從爬取到的網頁中提取出的url進行繼續(xù)的爬取工作使用CrawlSpider更合適。

源碼:

class CrawlSpider(Spider):
    rules = ()
    def __init__(self, *a, **kw):
        super(CrawlSpider, self).__init__(*a, **kw)
        self._compile_rules()
    #首先調用parse()來處理start_urls中返回的response對象
    #parse()則將這些response對象傳遞給了_parse_response()函數處理,并設置回調函數為parse_start_url()
    #設置了跟進標志位True
    #parse將返回item和跟進了的Request對象    
    def parse(self, response):
        return self._parse_response(response, self.parse_start_url, cb_kwargs={}, follow=True)
    #處理start_url中返回的response,需要重寫
    def parse_start_url(self, response):
        return []
    def process_results(self, response, results):
        return results
    #從response中抽取符合任一用戶定義'規(guī)則'的鏈接,并構造成Resquest對象返回
    def _requests_to_follow(self, response):
        if not isinstance(response, HtmlResponse):
            return
        seen = set()
        #抽取之內的所有鏈接,只要通過任意一個'規(guī)則',即表示合法
        for n, rule in enumerate(self._rules):
            links = [l for l in rule.link_extractor.extract_links(response) if l not in seen]
            #使用用戶指定的process_links處理每個連接
            if links and rule.process_links:
                links = rule.process_links(links)
            #將鏈接加入seen集合,為每個鏈接生成Request對象,并設置回調函數為_repsonse_downloaded()
            for link in links:
                seen.add(link)
                #構造Request對象,并將Rule規(guī)則中定義的回調函數作為這個Request對象的回調函數
                r = Request(url=link.url, callback=self._response_downloaded)
                r.meta.update(rule=n, link_text=link.text)
                #對每個Request調用process_request()函數。該函數默認為indentify,即不做任何處理,直接返回該Request.
                yield rule.process_request(r)
    #處理通過rule提取出的連接,并返回item以及request
    def _response_downloaded(self, response):
        rule = self._rules[response.meta['rule']]
        return self._parse_response(response, rule.callback, rule.cb_kwargs, rule.follow)
    #解析response對象,會用callback解析處理他,并返回request或Item對象
    def _parse_response(self, response, callback, cb_kwargs, follow=True):
        #首先判斷是否設置了回調函數。(該回調函數可能是rule中的解析函數,也可能是 parse_start_url函數)
        #如果設置了回調函數(parse_start_url()),那么首先用parse_start_url()處理response對象,
        #然后再交給process_results處理。返回cb_res的一個列表
        if callback:
            #如果是parse調用的,則會解析成Request對象
            #如果是rule callback,則會解析成Item
            cb_res = callback(response, **cb_kwargs) or ()
            cb_res = self.process_results(response, cb_res)
            for requests_or_item in iterate_spider_output(cb_res):
                yield requests_or_item
        #如果需要跟進,那么使用定義的Rule規(guī)則提取并返回這些Request對象
        if follow and self._follow_links:
            #返回每個Request對象
            for request_or_item in self._requests_to_follow(response):
                yield request_or_item
    def _compile_rules(self):
        def get_method(method):
            if callable(method):
                return method
            elif isinstance(method, basestring):
                return getattr(self, method, None)
        self._rules = [copy.copy(r) for r in self.rules]
        for rule in self._rules:
            rule.callback = get_method(rule.callback)
            rule.process_links = get_method(rule.process_links)
            rule.process_request = get_method(rule.process_request)
    def set_crawler(self, crawler):
        super(CrawlSpider, self).set_crawler(crawler)
        self._follow_links = crawler.settings.getbool('CRAWLSPIDER_FOLLOW_LINKS', True)

文檔:Spiders — Scrapy 2.9.0 documentation

二、框架搭建

1.創(chuàng)建scrapy框架工程

scrapy startproject Meitou

2.進入工程目錄

cd Meitou

3.創(chuàng)建爬蟲文件

scrapy genspider -t crawl 爬蟲任務名稱 爬取的范圍域

scrapy genspider -t crawl crawl_yjin xx.com

此指令對比以前指令多了"-t crawl",表示創(chuàng)建的爬蟲文件是基于CrawlSpider這個類的,而不再是Spider這個基類。

4.啟動爬蟲文件

scrapy crawl crawl_yjin --nolog

(一)、查看生成的爬蟲文件:

Rule(規(guī)則): 規(guī)范url構造請求對象的規(guī)則

LinkExtractor(鏈接提取器):規(guī)范url的提取范圍

CrawlSpider:是一個類模板,繼承自Spider,功能就更加的強大

(二)、查看LinkExtractor源碼:

LinkExtractor 鏈接提取器

作用:提取response中符合規(guī)則的鏈接。

主要參數含義:

  • LinkExtractor:規(guī)范url提取可用的部分
  • allow=(): 滿足括號中“正則表達式”的值會被提取,如果為空,則全部匹配。 
  • deny=(): 與這個正則表達式(或正則表達式列表)不匹配的URL一定不提取。
  • allow_domains=():允許的范圍域
  • deny_domains=(): 不允許的范圍域
  • restrict_xpaths=(): 使用xpath表達式,和allow共同作用過濾鏈接(只選到節(jié)點,不選到屬性)
  • tags=('a', 'area'): 指定標簽
  • attrs=('href',): 指定屬性

(三)、查看Rule源碼:

Rule : 規(guī)則解析器。根據鏈接提取器中提取到的鏈接,根據指定規(guī)則提取解析器鏈接網頁中的內容

Rule (LinkExtractor(allow=r"Items/"), callback="parse_item", follow=True)

主要參數含義:

  • link_extractor為LinkExtractor,用于定義需要提取的鏈接
  • callback參數:當link_extractor獲取到鏈接時參數所指定的值作為回調函數
  • callback參數使用注意:  當編寫爬蟲規(guī)則時,請避免使用parse作為回調函數。于CrawlSpider使用parse方法來實現(xiàn)其邏輯,如果您覆蓋了parse方法,crawlspider將會運行失敗
  • follow:指定了根據該規(guī)則從response提取的鏈接是否需要跟進。 當callback為None,默認值為True
  • process_links:主要用來過濾由link_extractor獲取到的鏈接
  • process_request:主要用來過濾在rule中提取到的request

rules=( ):指定不同規(guī)則解析器。一個Rule對象表示一種提取規(guī)則。

(四)、CrawlSpider整體爬取流程:

(a) 爬蟲文件首先根據起始url,獲取該url的網頁內容

(b) 鏈接提取器會根據指定提取規(guī)則將步驟a中網頁內容中的鏈接進行提取

(c) 規(guī)則解析器會根據指定解析規(guī)則將鏈接提取器中提取到的鏈接中的網頁內容根據指定的規(guī)則進行解析

(d) 將解析數據封裝到item中,然后提交給管道進行持久化存儲

三、基于CrawlSpider使用

(1)spider爬蟲文件代碼

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
 
 
class CrawlYjinSpider(CrawlSpider):
    name = "crawl_yjin"
    allowed_domains = ["xiachufang.com"]
    start_urls = ["https://www.xiachufang.com/category/40073/"]  # 起始url (分類列表的小吃)
 
    # 創(chuàng)建一個Rule對象(也創(chuàng)建一個LinkExtractor對象)
    rules = (
 
        # 菜單詳情地址
        # https://www.xiachufang.com/recipe/106909278/
        # https://www.xiachufang.com/recipe/1055105/
        Rule(LinkExtractor(allow=r".*?/recipe/\d+/$"), callback="parse_item", follow=False),
 
    )
 
    # 解析菜單詳情
    def parse_item(self, response):
        # 不需要手動構造item對象
        item = {}
        # print(response.url)
        # 圖片鏈接,名稱,評分,多少人做過,發(fā)布人
        item['imgs'] = response.xpath('//div/img/@src').get()
        #去除空格和\n
        item['title']=''.join(response.xpath('//div/h1/text()').get()).replace(' ','').replace('\n','')
        item['score']=response.xpath('//div[@class="score float-left"]/span[@class="number"]/text()').extract_first()
        item['number']=response.xpath('//div[@class="cooked float-left"]/span[@class="number"]/text()').get()
        item['author']=''.join(response.xpath('//div[@class="author"]/a/img/@alt').get()).replace('的廚房','')
 
        # print(item)
 
        return item

(2)數據保存>>pipelines管道文件

import json
 
from itemadapter import ItemAdapter
 
 
class MeitouPipeline:
    """處理items對象的數據"""
    def __init__(self):
        self.file_=open('xcf-1.json','w',encoding='utf-8')
        print('文件打開了。。。')
 
    def process_item(self, item, spider):
        """item接收爬蟲器丟過來的items對象"""
        py_dict=dict(item) # 先把攜帶鍵值對數據items對象轉成字典
        #dict轉換成json數據
        json_data=json.dumps(py_dict,ensure_ascii=False)+",\n"
        #寫入
        self.file_.write(json_data)
        print("寫入數據...")
        return item
 
 
    def __del__(self):
        self.file_.close()  #關閉
        print('文件關閉了....')

(3)settings相關設置 >>settings.py設置文件

# 全局用戶代理,默認是被注釋了,不生效
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36'
 
# Obey robots.txt rules
ROBOTSTXT_OBEY = False
 
# 設置下載延時
DOWNLOAD_DELAY = 1
 
#開啟管道
ITEM_PIPELINES = {
   "Meitou.pipelines.MeitouPipeline": 300,
}

(4)運行程序 >>scrapy crawl crawl_yjin --nolog

查看保存的json文件

到此這篇關于Python的Scrapy框架中的CrawlSpider介紹和使用的文章就介紹到這了,更多相關Scrapy框架中的CrawlSpider 內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • python調用jenkinsAPI構建jenkins,并傳遞參數的示例

    python調用jenkinsAPI構建jenkins,并傳遞參數的示例

    這篇文章主要介紹了python調用jenkinsAPI構建jenkins,并傳遞參數的示例,幫助大家更好的理解和學習python,感興趣的朋友可以了解下
    2020-12-12
  • Python中List.count()方法的使用教程

    Python中List.count()方法的使用教程

    這篇文章主要介紹了Python中List.count()方法的使用教程,是Python入門中的基礎知識,需要的朋友可以參考下
    2015-05-05
  • python實現(xiàn)超級瑪麗游戲

    python實現(xiàn)超級瑪麗游戲

    這篇文章主要為大家詳細介紹了python實現(xiàn)超級瑪麗游戲,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2020-03-03
  • Python?Pytorch學習之圖像檢索實踐

    Python?Pytorch學習之圖像檢索實踐

    隨著電子商務和在線網站的出現(xiàn),圖像檢索在我們的日常生活中的應用一直在增加。圖像檢索的基本本質是根據查詢圖像的特征從集合或數據庫中查找圖像。本文將利用Pytorch實現(xiàn)圖像檢索,需要的可以參考一下
    2022-04-04
  • python進階之多線程對同一個全局變量的處理方法

    python進階之多線程對同一個全局變量的處理方法

    今天小編就為大家分享一篇python進階之多線程對同一個全局變量的處理方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-11-11
  • python實現(xiàn)pdf轉word和excel的示例代碼

    python實現(xiàn)pdf轉word和excel的示例代碼

    本文主要介紹了python實現(xiàn)pdf轉word和excel的示例代碼,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2025-01-01
  • python實現(xiàn)代碼審查自動回復消息

    python實現(xiàn)代碼審查自動回復消息

    這篇文章主要介紹了python實現(xiàn)代碼審查回復消息生成的示例,幫助大家更好的理解和學習python,感興趣的朋友可以了解下
    2021-02-02
  • python實現(xiàn)圖片轉字符畫的完整代碼

    python實現(xiàn)圖片轉字符畫的完整代碼

    這篇文章主要給大家介紹了關于python實現(xiàn)圖片轉字符畫的相關資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2021-02-02
  • python?os.stat()如何獲取相關文件的系統(tǒng)狀態(tài)信息

    python?os.stat()如何獲取相關文件的系統(tǒng)狀態(tài)信息

    這篇文章主要介紹了python?os.stat()如何獲取相關文件的系統(tǒng)狀態(tài)信息,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2022-11-11
  • 使用 django orm 寫 exists 條件過濾實例

    使用 django orm 寫 exists 條件過濾實例

    這篇文章主要介紹了使用 django orm 寫 exists 條件過濾實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-05-05

最新評論