python爬蟲調度器用法及實例代碼
我們一般使用爬蟲看到的都是最后的數(shù)據(jù)結果,對于整個的獲取過程沒有過多了解過。對于初學python的小伙伴們來說,不光是代碼的練習,還是原理的分析都是必不可少的。
小編把整個爬取的過程分為了幾個部分,從一開始的下載,到數(shù)據(jù)的去重解析,再到整個爬蟲循環(huán)的結束,以圖片和代碼的雙重形式展現(xiàn)給大家,希望能夠對爬蟲調度器有一個深刻的理解。
我們可以編寫幾個元件,每個元件完成一項功能,下圖中的藍底白字就是對這一流程的抽象:
- UrlManager:將存儲和獲取url以及url去重的幾個步驟在url管理器中完成(當然也可以針對每一步分別編寫相應的函數(shù),但是這樣更直觀)。url管理器要有兩個url倉庫,一個存儲未爬取的url,一個存儲已爬取的url,除了倉庫之外,還應該具有一些完成特定功能的函數(shù),如存儲url、url去重、從倉庫中挑選并返回一個url等
- HtmlDownloader:將下載網(wǎng)頁內容的功能在HTML下載器中完成,下載器的功能較為單一,不多解釋。但從整個爬蟲的角度上來說,下載器是爬蟲的核心,在實際操作的過程中,下載器要和目標網(wǎng)站的各種反爬蟲手段斗智斗勇(各種表單、隱藏字段和假鏈接、驗證碼、IP限制等等),這也是最耗費大腦的步驟
- HtmlParser:解析提取數(shù)據(jù)的功能在HTML解析器中完成,解析器內的函數(shù)應該分別具有返回數(shù)據(jù)和新url的功能
- DAtaOutput:存儲數(shù)據(jù)的功能由數(shù)據(jù)存儲器完成
- SpiderMan:主循環(huán)由爬蟲調度器來完成,調度器為整個程序的入口,將其余四個元件有序執(zhí)行
爬蟲調度器將要完成整個循環(huán),下面寫出python下爬蟲調度器的程序:
# coding: utf-8 new_urls = set() data = {} class SpiderMan(object): def __init__(self): #調度器內包含其它四個元件,在初始化調度器的時候也要建立四個元件對象的實例 self.manager = UrlManager() self.downloader = HtmlDownloader() self.parser = HtmlParser() self.output = DataOutput() def spider(self, origin_url): #添加初始url self.manager.add_new_url(origin_url) #下面進入主循環(huán),暫定爬取頁面總數(shù)小于100 num = 0 while(self.manager.has_new_url() and self.manager.old_url_size()<100): try: num = num + 1 print "正在處理第{}個鏈接".format(num) #從新url倉庫中獲取url new_url = self.manager.get_new_url() #調用html下載器下載頁面 html = self.downloader.download(new_url) #調用解析器解析頁面,返回新的url和data try: new_urls, data = self.parser.parser(new_url, html) except Exception, e: print e for url in new_urls: self.manager.add_new_url(url) #將已經(jīng)爬取過的這個url添加至老url倉庫中 self.manager.add_old_url(new_url) #將返回的數(shù)據(jù)存儲至文件 self.output.store_data(data) print "store data succefully" print "第{}個鏈接已經(jīng)抓取完成".format(self.manager.old_url_size()) except Exception, e: print e #爬取循環(huán)結束的時候將存儲的數(shù)據(jù)輸出至文件 self.output.output_html()
從整個循環(huán)的流程我們可以看出,由爬蟲調度器指揮四個元件完成數(shù)據(jù)的抓取、篩選、保存流程,并以此為基礎還可以進行新的循環(huán)??炊碇?,我們就可以使用以上的代碼進行實戰(zhàn)啦。
到此這篇關于python爬蟲調度器用法及實例代碼的文章就介紹到這了,更多相關python爬蟲調度器是什么內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
- 自動在Windows中運行Python腳本并定時觸發(fā)功能實現(xiàn)
- 實現(xiàn)Windows下設置定時任務來運行python腳本
- 如何給windows設置定時任務并運行python腳本
- python 實現(xiàn)定時任務的四種方式
- python獲取指定時間段內特定規(guī)律的日期列表
- python中用Scrapy實現(xiàn)定時爬蟲的實例講解
- Python爬蟲定時計劃任務的幾種常見方法(推薦)
- python實現(xiàn)定時發(fā)送郵件到指定郵箱
- python實現(xiàn)定時發(fā)送郵件
- python腳本定時發(fā)送郵件
- Python實現(xiàn)FTP文件定時自動下載的步驟
- scrapy處理python爬蟲調度詳解
- 簡單的Python調度器Schedule詳解
- python編寫網(wǎng)頁爬蟲腳本并實現(xiàn)APScheduler調度
- Python使用定時調度任務的方式
相關文章
使用Python的Tornado框架實現(xiàn)一個簡單的WebQQ機器人
這篇文章主要介紹了使用Python的Tornado框架實現(xiàn)一個簡單的WebQQ機器人,Tornado的異步特性可以提高I/O性能,需要的朋友可以參考下2015-04-04Python中l(wèi)ist列表的賦值方法及遇到問題處理
這篇文章主要介紹了Python中l(wèi)ist列表的賦值方法及遇到問題處理,記錄在列表list的賦值過程中遇到的問題,并對列表的拷貝相關知識進行匯總,需要的朋友可以參考一下2022-03-03python處理 yaml 時保持輸入輸出格式一致的問題記錄
這篇文章主要介紹了python處理 yaml 時保持輸入輸出格式一致的問題記錄,要想保持順序不變在dump時添加sort_keys=False,使yaml格式保持原來的排序,本文給大家介紹的非常詳細,需要的朋友可以參考下2024-06-06Python中的 sort 和 sorted的用法與區(qū)別
這篇文章主要介紹了Python中的 sort 和 sorted的用法與區(qū)別,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2019-08-08python列表倒序的幾種方法(切片、reverse()、reversed())
本文主要介紹了python列表倒序的幾種方法(切片、reverse()、reversed()),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2022-08-08