selenium+python設置爬蟲代理IP的方法
1. 背景
在使用selenium瀏覽器渲染技術,爬取網(wǎng)站信息時,一般來說,速度是很慢的。而且一般需要用到這種技術爬取的網(wǎng)站,反爬技術都比較厲害,對IP的訪問頻率應該有相當?shù)南拗?。所以,如果想提升selenium抓取數(shù)據(jù)的速度,可以從兩個方面出發(fā):
第一,提高抓取頻率,出現(xiàn)驗證信息時進行破解,一般是驗證碼或者用戶登錄。
第二,使用多線程 + 代理IP, 這種方式,需要電腦有足夠的內存和充足穩(wěn)定的代理IP 。
2. 為chrome設置代理IP
from selenium import webdriver chromeOptions = webdriver.ChromeOptions() # 設置代理 chromeOptions.add_argument("--proxy-server=http://202.20.16.82:10152") # 一定要注意,=兩邊不能有空格,不能是這樣--proxy-server = http://202.20.16.82:10152 browser = webdriver.Chrome(chrome_options = chromeOptions) # 查看本機ip,查看代理是否起作用 browser.get("http://httpbin.org/ip") print(browser.page_source) # 退出,清除瀏覽器緩存 browser.quit()
注意事項:
第一,代理IP最好是穩(wěn)定的固定IP,不要選動態(tài)IP。我們常用的爬蟲IP是高匿名動態(tài)IP,是通過撥號動態(tài)產生的,時效性很短,一般在1~3分鐘。對于scrapy這種并發(fā)度很高,又不需要登錄的爬蟲來說,非常合適,但是在瀏覽器渲染類爬蟲中并不適用。
第二,代理IP的速度。因為selenium爬蟲采用的是瀏覽器渲染技術,本身速度就很慢。如果選擇的代理IP速度較慢,就會大大增加爬取的時間。
第三,電腦內存要夠大。因為chrome占內存較大,在并發(fā)度很高的情況下,容易造成瀏覽器崩潰,也就是程序崩潰。
第四,在程序結束時,調用 browser.quit( ) 清除瀏覽器緩存。
3. 需要用戶名密碼驗證的代理
參考文章:
Selenium chrome配置代理Python版:http://www.dbjr.com.cn/article/151634.htm
GitHub:https://github.com/RobinDev/Selenium-Chrome-HTTP-Private-Proxy
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
Python 使用指定的網(wǎng)卡發(fā)送HTTP請求的實例
今天小編就為大家分享一篇Python 使用指定的網(wǎng)卡發(fā)送HTTP請求的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-08-08