python爬蟲scrapy框架之增量式爬蟲的示例代碼
scrapy框架之增量式爬蟲
一 、增量式爬蟲
什么時(shí)候使用增量式爬蟲:
增量式爬蟲:需求 當(dāng)我們?yōu)g覽一些網(wǎng)站會(huì)發(fā)現(xiàn),某些網(wǎng)站定時(shí)的會(huì)在原有的基礎(chǔ)上更新一些新的數(shù)據(jù)。如一些電影網(wǎng)站會(huì)實(shí)時(shí)更新最近熱門的電影。那么,當(dāng)我們?cè)谂老x的過程中遇到這些情況時(shí),我們是不是應(yīng)該定期的更新程序以爬取到更新的新數(shù)據(jù)?那么,增量式爬蟲就可以幫助我們來實(shí)現(xiàn)
二 、增量式爬蟲
概念:
通過爬蟲程序檢測(cè)某網(wǎng)站數(shù)據(jù)更新的情況,這樣就能爬取到該網(wǎng)站更新出來的數(shù)據(jù)
如何進(jìn)行增量式爬取工作:
在發(fā)送請(qǐng)求之前判斷這個(gè)URL之前是不是爬取過
在解析內(nèi)容之后判斷該內(nèi)容之前是否爬取過
在寫入存儲(chǔ)介質(zhì)時(shí)判斷內(nèi)容是不是在該介質(zhì)中
增量式的核心是 去重
去重的方法:
將爬取過程中產(chǎn)生的URL進(jìn)行存儲(chǔ),存入到redis中的set中,當(dāng)下次再爬取的時(shí)候,對(duì)在存儲(chǔ)的URL中的set中進(jìn)行判斷,如果URL存在則不發(fā)起請(qǐng)求,否則 就發(fā)起請(qǐng)求
對(duì)爬取到的網(wǎng)站內(nèi)容進(jìn)行唯一的標(biāo)識(shí),然后將該唯一標(biāo)識(shí)存儲(chǔ)到redis的set中,當(dāng)下次再爬取數(shù)據(jù)的時(shí)候,在進(jìn)行持久化存儲(chǔ)之前,要判斷該數(shù)據(jù)的唯一標(biāo)識(shí)在不在redis中的set中,如果在,則不在進(jìn)行存儲(chǔ),否則就存儲(chǔ)該內(nèi)容
三、示例
爬蟲文件
# -*- coding: utf-8 -*- import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from redis import Redis from increment2_Pro.items import Increment2ProItem import hashlib class QiubaiSpider(CrawlSpider): name = 'qiubai' # allowed_domains = ['www.xxx.com'] start_urls = ['https://www.qiushibaike.com/text/'] rules = ( Rule(LinkExtractor(allow=r'/text/page/\d+/'), callback='parse_item', follow=True), ) def parse_item(self, response): div_list = response.xpath('//div[@class="article block untagged mb15 typs_hot"]') conn = Redis(host='127.0.0.1',port=6379) for div in div_list: item = Increment2ProItem() item['content'] = div.xpath('.//div[@class="content"]/span//text()').extract() item['content'] = ''.join(item['content']) item['author'] = div.xpath('./div/a[2]/h2/text() | ./div[1]/span[2]/h2/text()').extract_first() # 將當(dāng)前爬取的數(shù)據(jù)做哈希唯一標(biāo)識(shí)(數(shù)據(jù)指紋) sourse = item['content']+item['author'] hashvalue = hashlib.sha256(sourse.encode()).hexdigest() ex = conn.sadd('qiubai_hash',hashvalue) if ex == 1: yield item else: print('沒有可更新的數(shù)據(jù)可爬取') # item = {} #item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get() #item['name'] = response.xpath('//div[@id="name"]').get() #item['description'] = response.xpath('//div[@id="description"]').get() # return item
管道文件(管道文件也可以不用加)
from redis import Redis class Increment2ProPipeline(object): conn = None def open_spider(self,spider): self.conn = Redis(host='127.0.0.1',port=6379) def process_item(self, item, spider): dic = { 'author':item['author'], 'content':item['content'] } self.conn.lpush('qiubaiData',dic) print('爬取到一條數(shù)據(jù),正在入庫......') return item
到此這篇關(guān)于python爬蟲之scrapy框架之增量式爬蟲的示例代碼的文章就介紹到這了,更多相關(guān)scrapy增量式爬蟲內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- python爬蟲框架scrapy下載中間件的編寫方法
- python爬蟲之scrapy框架詳解
- python爬蟲框架scrapy代理中間件掌握學(xué)習(xí)教程
- python爬蟲框架Scrapy基本應(yīng)用學(xué)習(xí)教程
- Python爬蟲教程使用Scrapy框架爬取小說代碼示例
- Python爬蟲框架之Scrapy中Spider的用法
- Python爬蟲基礎(chǔ)之簡單說一下scrapy的框架結(jié)構(gòu)
- Python爬蟲基礎(chǔ)講解之scrapy框架
- Python爬蟲框架-scrapy的使用
- python爬蟲scrapy框架的梨視頻案例解析
- python Scrapy爬蟲框架的使用
- Python爬蟲框架Scrapy簡介
相關(guān)文章
利用OpenCV實(shí)現(xiàn)YOLO對(duì)象檢測(cè)方法詳解
這篇文章主要介紹了如何使用YOLOV3對(duì)象檢測(cè)器、OpenCV和Python實(shí)現(xiàn)對(duì)圖像和視頻流的檢測(cè)。文中的示例代碼講解詳細(xì),感興趣的可以了解一下2022-01-01如何用Python獲取計(jì)算機(jī)名,ip地址,mac地址
這篇文章主要介紹了如何用Python獲取計(jì)算機(jī)名,ip地址,mac地址,幫助大家更好的理解和學(xué)習(xí)使用python,感興趣的朋友可以了解下2021-03-03Python機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之k-近鄰算法的實(shí)現(xiàn)
k-近鄰算法采用測(cè)量不同特征值之間的距離方法進(jìn)行分類。這篇文章主要為大家介紹了如何通過python實(shí)現(xiàn)K近鄰算法,有需要的朋友可以借鑒參考下,希望能夠有所幫助2021-11-11Python光學(xué)仿真數(shù)值分析求解波動(dòng)方程繪制波包變化圖
這篇文章主要為大家介紹了Python光學(xué)仿真通過數(shù)值分析求解波動(dòng)方程并繪制波包變化圖的示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助2021-10-10pandas讀取excel統(tǒng)計(jì)空值數(shù)量錯(cuò)誤的解決方法
pd.read_excel()讀取excel數(shù)據(jù)后,用pd.isnull().sum()統(tǒng)計(jì)空值數(shù)量不對(duì),本文主要介紹了pandas讀取excel統(tǒng)計(jì)空值數(shù)量錯(cuò)誤的解決方法,感興趣的可以了解一下2024-04-04Python smtplib實(shí)現(xiàn)發(fā)送郵件功能
這篇文章主要為大家詳細(xì)介紹了Python smtplib實(shí)現(xiàn)發(fā)送郵件功能,包含文本、附件、圖片等,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-05-05