Scrapy框架使用的基本知識
scrapy是一個基于Twisted的異步處理框架,可擴(kuò)展性很強(qiáng)。優(yōu)點此處不再一一贅述。
下面介紹一些概念性知識,幫助大家理解scrapy。
一、數(shù)據(jù)流向
要想熟練掌握這個框架,一定要明白數(shù)據(jù)的流向是怎么一個過程??偨Y(jié)如下:
1.引擎先打開網(wǎng)站,請求url。
2.引擎通過調(diào)度器以Request形式調(diào)度url。
3.引擎請求下一個url。
4.調(diào)度器將url通過Downloader Middlewares發(fā)送給引擎
5.Downloader 生成response,通過Downloader Middlewares發(fā)送給引擎
6.引擎接收Response 通過spiderMiddleware發(fā)送給spider處理
7.spider處理response
8.引擎將spider處理的item給ItemPipeline 然后將新的Request給調(diào)度器。
二、各個結(jié)構(gòu)的作用
DownloderMiddleware
調(diào)度器會從隊列之中拿出Request發(fā)送給Downloader執(zhí)行下載,這個過程會經(jīng)過DownloaderMiddleware的處理。
作用的位置有兩個:
- 在調(diào)度器調(diào)出Request發(fā)送給Downloader之前。
- 下載之后生成Response發(fā)送給spider之前。
核心方法有三個:
process_request(request,spider)
Request 到達(dá)Downloader之前,就會被調(diào)用
參數(shù)介紹:
- request :Request對象,被處理的Request。
- spider:spider對象,上面被處理的Request對應(yīng)的spider。
返回值:
1.返回None
調(diào)用別的process_request()
方法,直至將Request執(zhí)行得到Response才會結(jié)束。
2.返回Response
對象,低優(yōu)先級的process_request()
和process_exception
不調(diào)用。
3.返回request
對象,低優(yōu)先級的process_request()
停止執(zhí)行,返回新的Request
。
process_response(request,response,spider)
作用位置:
- Downloader 執(zhí)行Request之后,會得到對應(yīng)的Reponse ,scrapy 引擎會將Response發(fā)送給spider進(jìn)行解析,發(fā)送之前調(diào)用這個方法對Response進(jìn)行處理。
返回值的情況:
1.返回Request
低優(yōu)先級的process_respons()
不調(diào)用。
2.返回response
低優(yōu)先級的process_respons()
繼續(xù)調(diào)用。
process_exception(request,exception,spider)
此函數(shù)主要是用來處理異常的。
spiderMiddleware
作用位置:
- Downloader生成Response之后會發(fā)送給spider,
- 在發(fā)送之前,會經(jīng)過spiderMiddleware處理。
核心方法:
process_soider_input(response,spider)
返回值:
1.返回None
繼續(xù)處理Response,調(diào)用所有的spiderMiddleware
,知道spider處理
2.跑出異常
直接調(diào)用Request的errback()
方法,使用process_spider_output()
處理。
process_spider_output(response,result,spider)
當(dāng)spider處理Response返回結(jié)果時,被調(diào)用。
process_spider_exception(response,exception,spider)
返回值:none
繼續(xù)處理response,返回一個可迭代對象,process_spider_output()
方法被調(diào)用。
process_start_request(start_requests,spider)
以spider
啟動的Request
為參數(shù)被調(diào)用,必須返回request
。
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,謝謝大家對腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請查看下面相關(guān)鏈接
- Python爬蟲框架scrapy實現(xiàn)downloader_middleware設(shè)置proxy代理功能示例
- Python爬蟲框架scrapy實現(xiàn)的文件下載功能示例
- python爬蟲框架scrapy實現(xiàn)模擬登錄操作示例
- Python爬蟲框架Scrapy常用命令總結(jié)
- Python使用Scrapy爬蟲框架全站爬取圖片并保存本地的實現(xiàn)代碼
- 淺談Scrapy框架普通反爬蟲機(jī)制的應(yīng)對策略
- Python:Scrapy框架中Item Pipeline組件使用詳解
- Python之Scrapy爬蟲框架安裝及簡單使用詳解
- Scrapy框架CrawlSpiders的介紹以及使用詳解
- python爬蟲框架scrapy實戰(zhàn)之爬取京東商城進(jìn)階篇
- Python的爬蟲框架scrapy用21行代碼寫一個爬蟲
- 使用Python的Scrapy框架十分鐘爬取美女圖
相關(guān)文章
python3使用PyMysql連接mysql數(shù)據(jù)庫實例
本篇文章主要介紹了python3使用PyMysql連接mysql數(shù)據(jù)庫實例,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-02-02Django import export實現(xiàn)數(shù)據(jù)庫導(dǎo)入導(dǎo)出方式
這篇文章主要介紹了Django import export實現(xiàn)數(shù)據(jù)庫導(dǎo)入導(dǎo)出方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04詳解Python 重學(xué)requests發(fā)起請求的基本方式
這篇文章主要介紹了詳解Python 重學(xué)requests發(fā)起請求的基本方式,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-02-02詳解如何使用python實現(xiàn)猜數(shù)字游戲
“猜數(shù)字”游戲是一款簡單而有趣的小游戲,玩家需要在給定的范圍內(nèi)猜出一個由計算機(jī)隨機(jī)生成的數(shù)字,本文將使用Python語言來實現(xiàn)這款游戲,并詳細(xì)介紹其實現(xiàn)過程,文中有詳細(xì)的代碼示例供大家參考,需要的朋友可以參考下2024-04-04Python操作MySQL數(shù)據(jù)庫9個實用實例
這篇文章主要介紹了Python操作MySQL數(shù)據(jù)庫9個實用實例,文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2015-12-12