python并發(fā)爬蟲實用工具tomorrow實用解析
tomorrow是我最近在用的一個爬蟲利器,該模塊屬于第三方的一個模塊,使用起來非常的方便,只需要用其中的threads方法作為裝飾器去修飾一個普通的函數(shù),既可以達到并發(fā)的效果,本篇將用實例來展示tomorrow的強大之處。后面將對tomorrow的實現(xiàn)原理做進一步的分析。
1.安裝第三方包
pip install requests_html #網(wǎng)絡(luò)請求包 pip install fake-useragent #獲取useragent包 pip install tomorrow
2.普通下載方式
在這里我們用20個電影網(wǎng)址進行測試,并獲取其標題,計算所用的時間
start=time.time() for i in url_list: print(get_xpath(get_req(i),"http://title//text()")) end=time.time() print("普通方式花費時間",end-start)
get_req是我定義的訪問網(wǎng)絡(luò)的一個方法,get_xpath是為例使用xpath表達式獲取其結(jié)果,這里是獲取網(wǎng)址的標題。20個電影網(wǎng)址普通方式訪問的結(jié)果在8-9秒之間。
3.使用tomorrow以后
start2 = time.time() req_list = [] for url in url_list: req = async_get_req(url) req_list.append(req) for req in req_list: print(get_xpath(req, "http://title//text()")) end2 = time.time() print("并發(fā)后花費時間", end2 - start2)
如果我們想要使用tomorrow,就要盡量減少耗時操作,訪問網(wǎng)絡(luò)并等待其回應(yīng)就是一個非常耗時的工作,在這里我們需要做的是,并發(fā)的時候除了訪問網(wǎng)絡(luò)不要做其他操作,然后我們把獲取的請求存一個列表,然后再去循環(huán)做其他操作,看不懂我說的沒關(guān)系,直接看下面代碼并嘗試幾次就明白了。
4.測試結(jié)果對比
來看程序的完整代碼:
import time from requests_html import HTMLSession from fake_useragent import UserAgent as ua from tomorrow import threads headers = {"User-Agent": ua().Chrome} session = HTMLSession() url_list = ["https://movie.douban.com", "http://www.1905.com/", "http://www.mtime.com/", "https://www.dy2018.com/", "http://dytt8.net", "https://www.piaohua.com/", "http://maoyan.com", "https://www.xigua110.com/", "https://www.vmovier.com/", "http://movie.kankan.com/", "https://107cine.com/", "http://movie.youku.com", "http://film.qq.com", "http://film.spider.com.cn", "https://dianying.taobao.com/", "http://www.wandafilm.com/", "http://www.dygang.net/", "http://www.bale.cn/", "http://dianying.2345.com/", "http://v.x2y4.com/"] def get_req(url, timeout=10): req = session.get(url, headers=headers, timeout=timeout) if req.status_code == 200: return req @threads(5) def async_get_req(url, timeout=10): req = session.get(url, headers=headers, timeout=timeout) if req.status_code == 200: return req def get_xpath(req, xpath_str): return req.html.xpath(xpath_str)[0].strip().replace("\n", "") start=time.time() for i in url_list: print(get_xpath(get_req(i),"http://title//text()")) end=time.time() print("普通方式花費時間",end-start) start2 = time.time() req_list = [] for url in url_list: req = async_get_req(url) req_list.append(req) for req in req_list: print(get_xpath(req, "http://title//text()")) end2 = time.time() print("并發(fā)后花費時間", end2 - start2)
運行三次上面的程序記錄下每次的結(jié)果
第一次: 普通方式花費時間 7.883908271789551 并發(fā)后花費時間 2.2888755798339844 第二次: 普通方式花費時間 8.522203207015991 并發(fā)后花費時間 2.4674007892608643 第三次: 普通方式花費時間 9.062756061553955 并發(fā)后花費時間 2.8703203201293945
tomorrow使用起來很簡單,在普通的函數(shù)上面加個threads裝飾器即可以實現(xiàn)并發(fā)效果,括號中的數(shù)字是表示并發(fā)的次數(shù),經(jīng)過我的測試并不是并發(fā)次數(shù)越多越好,你需要選擇一個中間點,因為還會受到網(wǎng)速的影響,我覺得一般并發(fā)數(shù)5-10就好.
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
python中fastapi設(shè)置查詢參數(shù)可選或必選
這篇文章主要介紹了python中fastapi設(shè)置查詢參數(shù)可選或必選,文圍繞主題展開詳細的內(nèi)容介紹,具有一定的參考價值需要的小伙伴可以參考一下2022-06-06Python雙向循環(huán)鏈表實現(xiàn)方法分析
這篇文章主要介紹了Python雙向循環(huán)鏈表,結(jié)合實例形式分析了Python雙向鏈表的定義、遍歷、添加、刪除、搜索等相關(guān)操作技巧,需要的朋友可以參考下2018-07-07selenium使用chrome瀏覽器測試(附chromedriver與chrome的對應(yīng)關(guān)系表)
這篇文章主要介紹了selenium使用chrome瀏覽器測試(附chromedriver與chrome的對應(yīng)關(guān)系表),小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-11-11用Python展示動態(tài)規(guī)則法用以解決重疊子問題的示例
這篇文章主要介紹了用Python展示動態(tài)規(guī)則法用以解決重疊子問題的一個棋盤游戲的示例,動態(tài)規(guī)劃常常適用于有重疊子問題和最優(yōu)子結(jié)構(gòu)性質(zhì)的問題,且耗時間往往遠少于樸素解法,需要的朋友可以參考下2015-04-04python用selenium打開chrome瀏覽器保持登錄方式
大家好,本篇文章主要講的是python用selenium打開chrome瀏覽器保持登錄方式,感興趣的同學(xué)趕快來看一看吧,對你有幫助的話記得收藏一下2022-02-02