欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python爬蟲使用scrapy注意事項

 更新時間:2020年11月23日 14:52:21   作者:小妮淺淺  
在本篇文章里小編給大家整理的是一篇關(guān)于python爬蟲使用scrapy注意事項的相關(guān)文章,對此有興趣的朋友們可以學(xué)習(xí)下。

在學(xué)習(xí)中,如果遇到問題把它們都收集整理出來,長期保存之后也是一份經(jīng)驗之談。小編跟大家講了這么久的scrapy框架,在自己學(xué)習(xí)的整理和小伙伴們的交流反饋中也累積了不少心得。想著有些小伙伴在python學(xué)習(xí)的時候有點丟三落四的毛病,特意整理出來scrapy在python爬蟲使用中需要注意的事項,大家一起看看吧。

1.如果需要大批量分布式爬取,建議采用Redis數(shù)據(jù)庫存儲,可安裝scrapy-redis,使用redis數(shù)據(jù)庫來替換scrapy原本使用的隊列結(jié)構(gòu)(deque),并配合其它數(shù)據(jù)庫存儲,例如MySQL或者MongoDB,爬取效率將會極大提高。并且其自帶的dupefilter.py負(fù)責(zé)執(zhí)行requst的去重,使用redis的set數(shù)據(jù)結(jié)構(gòu),通過settings文件正確設(shè)置后,即便停止scrapy爬蟲,當(dāng)下次重新開始后也能自動去重。原因就是在redis已經(jīng)存儲了request的信息。

2.當(dāng)涉及到代理IP,Headers頭中間請求信息處理的時候,可以通過中間件Middleware來實現(xiàn)。Spider中間件是介入到Scrapy的spider處理機制的鉤子框架,可以添加代碼來處理發(fā)送給 Spiders的response及spider產(chǎn)生的item和request。

3.合理設(shè)置settings文件,需要熟練掌握settings的各種設(shè)置。

4.可以重新定義def start_requests(self)函數(shù)來加載cookie信息,form信息的提交用scrapy.FormRequest以及scrapy.FormRequest.from_response這兩個函數(shù),scrapy.FormRequest.from_response能實現(xiàn)自動提交form數(shù)據(jù)。

5.采用Scrapy+phantomJS。 downloadMiddleware 對從 scheduler 送來的 Request 對象在請求之前進行預(yù)處理,可以實現(xiàn)添加 headers, user_agent,還有 cookie 等功能 。但也可以通過中間件直接返回 HtmlResponse 對象,略過請求的模塊,直接扔給 response 的回調(diào)函數(shù)處理。

class CustomMetaMiddleware(object):
  def process_request(self,request,spider):
    dcap = dict(DesiredCapabilities.PHANTOMJS)   
    dcap["phantomjs.page.settings.loadImages"] = False 
    dcap["phantomjs.page.settings.resourceTimeout"] = 10
    driver = webdriver.PhantomJS("D:xx\xx",desired_capabilities=dcap)
    driver.get(request.url)
    body = driver.page_source.encode('utf8')
    url = driver.current_url
    driver.quit()
    return HtmlResponse(request.url,body=body)

到此這篇關(guān)于python爬蟲使用scrapy注意事項的文章就介紹到這了,更多相關(guān)scrapy在python爬蟲使用中需要注意什么內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評論