簡(jiǎn)述python Scrapy框架
一、Scrapy框架簡(jiǎn)介
Scrapy是用純Python實(shí)現(xiàn)一個(gè)為了爬取網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架,用途非常廣泛。利用框架,用戶只需要定制開發(fā)幾個(gè)模塊就可以輕松的實(shí)現(xiàn)一個(gè)爬蟲,用來抓取網(wǎng)頁內(nèi)容以及各種圖片,非常的方便。它使用Twisted這個(gè)異步網(wǎng)絡(luò)庫(kù)來處理網(wǎng)絡(luò)通訊,架構(gòu)清晰,并且包含了各種中間件接口,可以靈活的完成各種需求。Scrapy是Python世界里面最強(qiáng)大的爬蟲框架,它比BeautifulSoup更加完善,BeautifulSoup可以說是輪子,而Scrapy則是車子,不需要關(guān)注太多的細(xì)節(jié)。
二、Scrapy原理
1.ScrapyEngine(引擎):負(fù)責(zé)Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號(hào)數(shù)據(jù)傳遞等。
2.Scheduler(調(diào)度器):它負(fù)責(zé)接受引擎發(fā)送過來的request請(qǐng)求,并按照定的方式進(jìn)行整理排列,入隊(duì),當(dāng)引擎需要時(shí),交還給引擎。
3.Downloader(下載器):負(fù)責(zé)下載ScrapyEngine發(fā)送的所有requests請(qǐng)求,并將其獲取到的responses交還給ScrapyEngine,由引擎交給Spider來處理。
4.Spider(爬蟲):它負(fù)責(zé)處理所有Responses,從中分析提取數(shù)據(jù),獲取ltem字段需要的數(shù)據(jù),并將需要跟進(jìn)的URL提交給引擎,再次進(jìn)入Scheduler。
5.ItemPipeline(管道):它負(fù)責(zé)處理Spider中獲取到的ltem,并進(jìn)行進(jìn)行后期處理,詳細(xì)分析,過濾,存儲(chǔ)等的地方。
6.DownloaderMiddlewares(下載中間件):它是一個(gè)可以自定義擴(kuò)展下載功能的組件。
7.SpiderMiddlewares(Spider中間件):它是一個(gè)可以自定擴(kuò)展和操作引擎和Spider中間通信的功能組件比如進(jìn)入Spider的Responses,和從Spider出去的Requests。
三、創(chuàng)建Scrapy項(xiàng)目
新建項(xiàng)目命令:
scrapy startproject xxx
在開始爬取之前,必須創(chuàng)建一個(gè)新的Scrapy項(xiàng)目。進(jìn)入自定義的項(xiàng)目目錄中,運(yùn)行下列命令:
scrapy startproject xxx
其中,xxx為項(xiàng)目名稱,可以看到將會(huì)創(chuàng)建一個(gè)xxx文件夾,目錄結(jié)構(gòu)大致如下:
四、創(chuàng)建爬蟲
創(chuàng)建爬蟲的命令:
scrapy genspider 爬蟲名字網(wǎng)站域名
應(yīng)當(dāng)注意的是爬蟲名字不要和項(xiàng)目名字一-樣,網(wǎng)站域名是允許爬蟲采集的域名如,baidu. com,zhihu. com。創(chuàng)建后python文件如下:
五、總結(jié)
Scrapy框架相當(dāng)于一輛造好的車子,只要我們會(huì)開,我們就可以利用這輛車子去到任意想去的地方。通常我們使用的request的方法就相當(dāng)于在出發(fā)前再去造一輛車子,這是相當(dāng)麻煩的。學(xué)好Scrapy,對(duì)于網(wǎng)上80%的網(wǎng)站我們都可以進(jìn)行爬取。
以上就是簡(jiǎn)述python Scrapy框架的詳細(xì)內(nèi)容,更多關(guān)于python Scrapy框架的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python數(shù)據(jù)處理numpy.median的實(shí)例講解
下面小編就為大家分享一篇Python數(shù)據(jù)處理numpy.median的實(shí)例講解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-04-04Python爬蟲利用cookie實(shí)現(xiàn)模擬登陸實(shí)例詳解
這篇文章主要介紹了Python爬蟲利用cookie實(shí)現(xiàn)模擬登陸實(shí)例詳解的相關(guān)資料,需要的朋友可以參考下2017-01-01Ubuntu 20.04安裝Pycharm2020.2及鎖定到任務(wù)欄的問題(小白級(jí)操作)
這篇文章主要介紹了Ubuntu 20.04安裝Pycharm2020.2及鎖定到任務(wù)欄的問題,本教程給大家講解的很詳細(xì),非常適合小白級(jí)操作,需要的朋友可以參考下2020-10-10python基礎(chǔ)教程之五種數(shù)據(jù)類型詳解
這篇文章主要介紹了python基礎(chǔ)教程之五種數(shù)據(jù)類型詳解的相關(guān)資料,這里對(duì)Python 的數(shù)據(jù)類型進(jìn)行了詳細(xì)介紹,需要的朋友可以參考下2017-01-01Python利用pandas和matplotlib實(shí)現(xiàn)繪制雙柱狀圖
在數(shù)據(jù)分析和可視化中,常用的一種圖形類型是柱狀圖,柱狀圖能夠清晰地展示不同分類變量的數(shù)值,并支持多組數(shù)據(jù)進(jìn)行對(duì)比,本篇文章將介紹python如何使用pandas和matplotlib繪制雙柱狀圖,需要的可以參考下2023-11-11詳解用python實(shí)現(xiàn)基本的學(xué)生管理系統(tǒng)(文件存儲(chǔ)版)(python3)
這篇文章主要介紹了python實(shí)現(xiàn)基本的學(xué)生管理系統(tǒng),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-04-04python kafka 多線程消費(fèi)者&手動(dòng)提交實(shí)例
今天小編就為大家分享一篇python kafka 多線程消費(fèi)者&手動(dòng)提交實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-12-12