python打造爬蟲代理池過(guò)程解析
最近在使用爬蟲爬取數(shù)據(jù)時(shí),經(jīng)常會(huì)返回403代碼,大致意思是該IP訪問(wèn)過(guò)于頻繁,被限制訪問(wèn)。限制IP訪問(wèn)網(wǎng)站最常用的反爬手段了,其實(shí)破解也很容易,就是在爬取網(wǎng)站是使用代理即可,這個(gè)IP被限制了,就使用其他的IP。對(duì)于高大上的公司來(lái)說(shuō),他們基本都使用收費(fèi)的代理,基本不會(huì)有什么問(wèn)題,比較穩(wěn)定。像我這樣的矮矬窮,肯定是用不起收費(fèi)的代理。一般都是使用國(guó)內(nèi)免費(fèi)的代理,網(wǎng)上也有很多提供免費(fèi)的代理。
很多人都是從網(wǎng)上爬取一批免費(fèi)的代理IP,存放在存儲(chǔ)媒介中,例如excel文件或者數(shù)據(jù)庫(kù)。定時(shí)維護(hù)代理,保證代理可用。這個(gè)做法有個(gè)缺點(diǎn),有些機(jī)器上并沒(méi)有裝有excel或者mysql、redis等數(shù)據(jù)庫(kù),這就導(dǎo)致了的代理池?zé)o法正常使用。
我之前是做java開發(fā)的,經(jīng)常會(huì)把一些常用的數(shù)據(jù)放在ArrayList中,使用起來(lái)非常方便,效率高,因此借鑒之前在java方面的經(jīng)驗(yàn),將代理IP爬取下來(lái)存放在list列表中中,將list列表當(dāng)做一個(gè)代理池,經(jīng)常維護(hù)這個(gè)池里的代理。
我經(jīng)常爬取免費(fèi)代理的網(wǎng)站xicidaili swei360等,這些免費(fèi)的代理足夠我使用了,能夠應(yīng)付大多數(shù)的爬蟲工作。爬取過(guò)程需要用到requests和pyquery庫(kù),沒(méi)有安裝的同學(xué)自行安裝。
首先介紹下爬取xicidaili網(wǎng)站的過(guò)程, 要先定義一個(gè)方法用于抓取xicidaili網(wǎng)站的,參數(shù)有兩個(gè),一個(gè)是url,另外一個(gè)是要爬取代理網(wǎng)頁(yè)的頁(yè)數(shù),也就是要爬幾頁(yè),方法如下:
def get_xicidaili_proxy(url,page): for i in range(1,page): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"} response = requests.get(url + str(i), headers=headers) html = response.text doc = pq(html) ip_list = doc('#ip_list')('tr:gt(0)').items() for item in ip_list: ip = item.find('td:nth-child(2)').text() port = item.find('td:nth-child(3)').text() http_type = item.find('td:nth-child(6)').text() proxy_ip = http_type + "://" + ip + ":" + port if http_type == 'HTTP': http_proxy_pool.append(proxy_ip) elif http_type == 'HTTPS': https_proxy_pool.append(proxy_ip) # print(proxy_ip)
定義了http_proxy_pool和https_proxy_pool兩個(gè)list變量,用于存儲(chǔ)http類型和https類型的代理。 使用PyQuery根據(jù)css偽選擇器提取出ip,端口和http類型信息,并按照http:// + ip+port的方式組合成一個(gè)字符串,存儲(chǔ)在已經(jīng)定義好的http_proxy_tool和https_proxy_pool變量中。
爬取swei360網(wǎng)站代理的方法就不貼出來(lái)了,原理和爬取xicidaili網(wǎng)站是一樣的。
一個(gè)代理在使用之前要判斷是否可用,我們使用request的get請(qǐng)求的返回代碼判斷代理是否可用,返回200,就說(shuō)明代理可用,返回其他的代碼就表示代理不可用,代碼如下:
def detect_proxy(test_url,http_type,proxy): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"} proxy={ http_type : proxy } try: response = requests.get(test_url,proxies=proxy,headers=headers) if response.status_code in [200]: print('代理可用',proxy) return True else: print('代理不可用', proxy); delete_proxy(http_type,proxy) return False except(requests.exceptions.ProxyError,RequestException): print('代理不可用', proxy) delete_proxy(http_type, proxy) return False
定義了detect_proxy方法用于檢測(cè)代理是否可用,有三個(gè)參數(shù),分別是測(cè)試網(wǎng)址,代理類型(http和https)和代理IP。當(dāng)requests的請(qǐng)求返回200代碼時(shí),就表示該代理可用,返回True,否則就是不可用,返回False。當(dāng)遇到request異?;蛘咂渌腻e(cuò)誤也認(rèn)為代理不可用,返回False。對(duì)于不可用的代理,要從代理池中刪除。
從代理池中獲取代理時(shí),我們使用的是從代理池中隨機(jī)返回一個(gè)代理,這樣就避免經(jīng)常使用一個(gè)代理,從而遭到拒絕訪問(wèn)。代碼如下:
def get_https_proxy(): proxy_ip = random.choice(https_proxy_pool) return proxy_ip def get_http_proxy(): proxy_ip = random.choice(http_proxy_pool) return proxy_ip
為了保證代理的可用,當(dāng)檢測(cè)到一個(gè)代理不可用時(shí),要及時(shí)的清理掉。就是從http_proxy_pool和https_proxy_pool列表中刪除。
一個(gè)簡(jiǎn)單的爬蟲代理池已經(jīng)搭建好,總結(jié)下爬蟲代理池搭建的過(guò)程:
- 從免費(fèi)的代理網(wǎng)站上爬取代理信息,存放在列表中。
- 提供從代理池中隨機(jī)獲取代理的方法。http類型的網(wǎng)站要使用http類型的代理,https類型的網(wǎng)站要使用https類型的代理,因此分別提供獲取http和https類型代理的方法。
- 提供檢測(cè)代理是否可用的方法,代理可用返回True,不可用返回False。
- 提供刪除代理的方法。
這個(gè)代理池其實(shí)相當(dāng)?shù)暮?jiǎn)單,有一個(gè)弊端就是在檢測(cè)代理是否可用時(shí),如果返回的不是200代碼就認(rèn)為代理不可用,返回其他代碼的情況有很多,例如網(wǎng)絡(luò)不可用、測(cè)試網(wǎng)站不可訪問(wèn)等。比較好的做法是給每個(gè)代理設(shè)置一個(gè)分值,例如10分,如果檢測(cè)到不可用就減1,當(dāng)分?jǐn)?shù)為0時(shí),就確定該代理不可用,直接從代理池中移除。檢測(cè)到代理可用,就將分?jǐn)?shù)設(shè)為10分。
這種做法給每個(gè)檢測(cè)到不可用代理一個(gè)改邪歸正的機(jī)會(huì),不至于一刀切的拋棄掉。
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- Python爬蟲使用代理IP的實(shí)現(xiàn)
- Python代理IP爬蟲的新手使用教程
- 檢測(cè)python爬蟲時(shí)是否代理ip偽裝成功的方法
- Python爬蟲動(dòng)態(tài)ip代理防止被封的方法
- python爬蟲簡(jiǎn)單的添加代理進(jìn)行訪問(wèn)的實(shí)現(xiàn)代碼
- Python爬蟲設(shè)置代理IP(圖文)
- selenium+python設(shè)置爬蟲代理IP的方法
- Python爬蟲常用小技巧之設(shè)置代理IP
- Python爬蟲爬取新浪微博內(nèi)容示例【基于代理IP】
- 爬蟲代理池Python3WebSpider源代碼測(cè)試過(guò)程解析
相關(guān)文章
解決在pycharm中顯示額外的 figure 窗口問(wèn)題
今天小編就為大家分享一篇解決在pycharm中顯示額外的 figure 窗口問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-01-01Python中splitlines()方法的使用簡(jiǎn)介
這篇文章主要介紹了Python中splitlines()方法的使用簡(jiǎn)介,是Python入門中的基礎(chǔ)知識(shí),需要的朋友可以參考下2015-05-05python numpy實(shí)現(xiàn)文件存取的示例代碼
這篇文章主要介紹了python numpy實(shí)現(xiàn)文件存取的示例代碼,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-05-05使用Python的networkx繪制精美網(wǎng)絡(luò)圖教程
今天小編就為大家分享一篇使用Python的networkx繪制精美網(wǎng)絡(luò)圖教程,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-11-11一個(gè)非常簡(jiǎn)單好用的Python圖形界面庫(kù)(PysimpleGUI)
這篇文章主要介紹了一個(gè)非常簡(jiǎn)單好用的Python圖形界面庫(kù),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-12-12Django框架的使用教程路由請(qǐng)求響應(yīng)的方法
這篇文章主要介紹了Django框架的使用教程路由請(qǐng)求響應(yīng)的方法,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-07-07利用Python yagmail三行代碼實(shí)現(xiàn)發(fā)送郵件
這篇文章主要給大家介紹了關(guān)于利用Python yagmail三行代碼實(shí)現(xiàn)發(fā)送郵件的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2018-05-05