selenium+python設置爬蟲代理IP的方法
1. 背景
在使用selenium瀏覽器渲染技術(shù),爬取網(wǎng)站信息時,一般來說,速度是很慢的。而且一般需要用到這種技術(shù)爬取的網(wǎng)站,反爬技術(shù)都比較厲害,對IP的訪問頻率應該有相當?shù)南拗啤K?,如果想提升selenium抓取數(shù)據(jù)的速度,可以從兩個方面出發(fā):
第一,提高抓取頻率,出現(xiàn)驗證信息時進行破解,一般是驗證碼或者用戶登錄。
第二,使用多線程 + 代理IP, 這種方式,需要電腦有足夠的內(nèi)存和充足穩(wěn)定的代理IP 。
2. 為chrome設置代理IP
from selenium import webdriver
chromeOptions = webdriver.ChromeOptions()
# 設置代理
chromeOptions.add_argument("--proxy-server=http://202.20.16.82:10152")
# 一定要注意,=兩邊不能有空格,不能是這樣--proxy-server = http://202.20.16.82:10152
browser = webdriver.Chrome(chrome_options = chromeOptions)
# 查看本機ip,查看代理是否起作用
browser.get("http://httpbin.org/ip")
print(browser.page_source)
# 退出,清除瀏覽器緩存
browser.quit()
注意事項:
第一,代理IP最好是穩(wěn)定的固定IP,不要選動態(tài)IP。我們常用的爬蟲IP是高匿名動態(tài)IP,是通過撥號動態(tài)產(chǎn)生的,時效性很短,一般在1~3分鐘。對于scrapy這種并發(fā)度很高,又不需要登錄的爬蟲來說,非常合適,但是在瀏覽器渲染類爬蟲中并不適用。
第二,代理IP的速度。因為selenium爬蟲采用的是瀏覽器渲染技術(shù),本身速度就很慢。如果選擇的代理IP速度較慢,就會大大增加爬取的時間。
第三,電腦內(nèi)存要夠大。因為chrome占內(nèi)存較大,在并發(fā)度很高的情況下,容易造成瀏覽器崩潰,也就是程序崩潰。
第四,在程序結(jié)束時,調(diào)用 browser.quit( ) 清除瀏覽器緩存。
3. 需要用戶名密碼驗證的代理
參考文章:
Selenium chrome配置代理Python版:http://www.dbjr.com.cn/article/151634.htm
GitHub:https://github.com/RobinDev/Selenium-Chrome-HTTP-Private-Proxy
以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python 使用指定的網(wǎng)卡發(fā)送HTTP請求的實例
今天小編就為大家分享一篇Python 使用指定的網(wǎng)卡發(fā)送HTTP請求的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-08-08
python datetime時間格式的相互轉(zhuǎn)換問題
這篇文章主要介紹了python datetime時間格式的相互轉(zhuǎn)換問題,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-06-06

