Scrapy使用的基本流程與實(shí)例講解
前面已經(jīng)介紹過(guò)如何創(chuàng)建scrapy的項(xiàng)目,和對(duì)項(xiàng)目中的文件功能的基本介紹。
這次,就來(lái)談?wù)勈褂玫幕玖鞒蹋?/p>
(1)首先第一點(diǎn),打開(kāi)終端,找到自己想要把scrapy工程創(chuàng)建的路徑。這里,我是建立在桌面上的。打開(kāi)終端,輸入:
cd Desktop
就進(jìn)入了桌面文件存儲(chǔ)位置。
(2)創(chuàng)建scrapy工程。終端輸入:scrapy startproject image
終端輸入:cd image
繼續(xù)輸入:scrapy genspider imageSpider pic.netbian.com
(3)在pycharm中打開(kāi)剛才桌面的文件,進(jìn)入settings.py
設(shè)置爬蟲(chóng)規(guī)則??梢詫⒁?guī)則直接注釋掉,或者改為False
。
(4) 回到爬蟲(chóng)文件。
更改start_url
,將爬蟲(chóng)默認(rèn)的第一個(gè)網(wǎng)址更改為需要爬取的網(wǎng)站網(wǎng)址即可。
(5)下面就可以爬取數(shù)據(jù)了,這里選擇了下載圖片。
爬取完數(shù)據(jù)之后,要在存儲(chǔ)數(shù)據(jù)的items.py
文件中傳輸給管道
接下來(lái)在爬蟲(chóng)文件中引入管道模型。
from ..items import ImageItem
在爬蟲(chóng)文件中的parse函數(shù)中使用在items.py文件中創(chuàng)建的數(shù)據(jù)模型。
item = ImageItem()
注意點(diǎn):
有時(shí)候在終端輸出的時(shí)候,如果返回內(nèi)容是scrapy.selector
,如果對(duì)象類(lèi)型是scrapy.selector
,那么這個(gè)對(duì)象可以被繼續(xù)迭代,也可以用xpath繼續(xù)尋找里面的內(nèi)容。
如果終端遇到這個(gè)問(wèn)題:
# ValueError:Missing scheme in request url:h
那么就需要使用extract()
將xpath對(duì)象轉(zhuǎn)化成列表對(duì)象。而列表對(duì)象,可以繼續(xù)被迭代,但是不可以使用xpath
來(lái)尋找里面的對(duì)象。
在下載之前還需要在settings.py文件中,對(duì)圖片下載的路徑和存儲(chǔ)位置進(jìn)行設(shè)置。
下面附代碼如下。僅有爬蟲(chóng)文件的代碼:
# -*- coding: utf-8 -*- import scrapy from ..items import ImageItem class ImagespiderSpider(scrapy.Spider): name = 'imageSpider' allowed_domains = ['pic.netbian.com'] start_urls = ['http://pic.netbian.com/4kmeinv/'] def parse(self, response): img_list = response.xpath('//ul[@class="clearfix"]/li/a/img/@src') # 找到了很多src屬性值,現(xiàn)在進(jìn)行遍歷,分別使用每一個(gè) for img in img_list: # 使用在items.py中創(chuàng)建的數(shù)據(jù)模型item item = ImageItem() print('--------------------') img = img.extract() # 拼接圖片的url,得到完整的下載地址 src = 'http://pic.netbian.com' +img # 將得到的數(shù)據(jù)放入到模型中 # 因?yàn)槭窍螺d地址,所以要用列表包起來(lái),否則會(huì)報(bào)錯(cuò)。 item['src'] = [src] yield item next_url = response.xpath('//div[@class="page"]/a[text()="下一頁(yè)"]/@href').extract() print('*****************************************************************') if len(next_url)!=0: url = 'http://pic.netbian.com'+next_url[0] # 將url傳給scrapy.Request 得到的結(jié)果繼續(xù)用self.parse進(jìn)行處理 yield scrapy.Request(url=url,callback=self.parse)
總結(jié)
以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,謝謝大家對(duì)腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請(qǐng)查看下面相關(guān)鏈接
相關(guān)文章
python實(shí)現(xiàn)圖片變亮或者變暗的方法
這篇文章主要介紹了python實(shí)現(xiàn)圖片變亮或者變暗的方法,涉及Python中Image模塊操作圖片的相關(guān)技巧,需要的朋友可以參考下2015-06-06Python整數(shù)對(duì)象實(shí)現(xiàn)原理詳解
這篇文章主要介紹了Python整數(shù)對(duì)象實(shí)現(xiàn)原理詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-07-07詳解appium+python 啟動(dòng)一個(gè)app步驟
這篇文章主要介紹了詳解appium+python 啟動(dòng)一個(gè)app步驟,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-12-12由Python運(yùn)算π的值深入Python中科學(xué)計(jì)算的實(shí)現(xiàn)
這篇文章主要介紹了由Python運(yùn)算π的值深入Python中科學(xué)計(jì)算的實(shí)現(xiàn),由簡(jiǎn)單的計(jì)算發(fā)散出各種算法的講解,需要的朋友可以參考下2015-04-04python使用ctypes庫(kù)調(diào)用DLL動(dòng)態(tài)鏈接庫(kù)
這篇文章主要介紹了python如何使用ctypes庫(kù)調(diào)用DLL動(dòng)態(tài)鏈接庫(kù),幫助大家更好的理解和使用python,感興趣的朋友可以了解下2020-10-10Django框架文件上傳與自定義圖片上傳路徑、上傳文件名操作分析
這篇文章主要介紹了Django框架文件上傳與自定義圖片上傳路徑、上傳文件名操作,結(jié)合實(shí)例形式分析了Django框架文件上傳的原理、步驟、實(shí)現(xiàn)方法以及圖片上傳時(shí)自定義上傳路徑、上傳文件名的相關(guān)操作技巧,需要的朋友可以參考下2019-05-05Python使用selenium + headless chrome獲取網(wǎng)頁(yè)內(nèi)容的方法示例
這篇文章主要介紹了Python使用selenium + headless chrome獲取網(wǎng)頁(yè)內(nèi)容的方法示例,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-10-10