欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python開發(fā)中爬蟲使用代理proxy抓取網(wǎng)頁的方法示例

 更新時(shí)間:2017年09月26日 09:34:00   作者:靜妍  
這篇文章主要介紹了Python開發(fā)中爬蟲使用代理proxy抓取網(wǎng)頁的方法,結(jié)合具體實(shí)例形式分析了urllib模塊代理與requests模塊代理兩種實(shí)現(xiàn)技巧,需要的朋友可以參考下

本文實(shí)例講述了Python開發(fā)中爬蟲使用代理proxy抓取網(wǎng)頁的方法。分享給大家供大家參考,具體如下:

代理類型(proxy):透明代理 匿名代理 混淆代理和高匿代理. 這里寫一些python爬蟲使用代理的知識, 還有一個(gè)代理池的類. 方便大家應(yīng)對工作中各種復(fù)雜的抓取問題。

urllib 模塊使用代理

urllib/urllib2使用代理比較麻煩, 需要先構(gòu)建一個(gè)ProxyHandler的類, 隨后將該類用于構(gòu)建網(wǎng)頁打開的opener的類,再在request中安裝該opener.

代理格式是"http://127.0.0.1:80",如果要賬號密碼是"http://user:password@127.0.0.1:80".

proxy="http://127.0.0.1:80"
# 創(chuàng)建一個(gè)ProxyHandler對象
proxy_support=urllib.request.ProxyHandler({'http':proxy})
# 創(chuàng)建一個(gè)opener對象
opener = urllib.request.build_opener(proxy_support)
# 給request裝載opener
urllib.request.install_opener(opener)
# 打開一個(gè)url
r = urllib.request.urlopen('http://youtube.com',timeout = 120)

requests 模塊 使用代理

requests使用代理要比urllib簡單多了…這里以單次代理為例. 多次的話可以用session一類構(gòu)建.

如果需要使用代理,你可以通過為任意請求方法提供 proxies 參數(shù)來配置單個(gè)請求:

import requests
proxies = {
 "http": "http://127.0.0.1:3128",
 "https": "http://127.0.0.1:2080",
}
r=requests.get("http://youtube.com", proxies=proxies)
print r.text

你也可以通過環(huán)境變量 HTTP_PROXY 和 HTTPS_PROXY 來配置代理。

export HTTP_PROXY="http://127.0.0.1:3128"
export HTTPS_PROXY="http://127.0.0.1:2080"
python
>>> import requests
>>> r=requests.get("http://youtube.com")
>>> print r.text

若你的代理需要使用HTTP Basic Auth,可以使用 http://user:password@host/ 語法:

proxies = {
  "http": "http://user:pass@127.0.0.1:3309/",
}

python的代理使用非常簡單, 最重要的是要找一個(gè)網(wǎng)絡(luò)穩(wěn)定可靠的代理。

更多關(guān)于Python相關(guān)內(nèi)容可查看本站專題:《Python Socket編程技巧總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進(jìn)階經(jīng)典教程》及《Python文件與目錄操作技巧匯總

希望本文所述對大家Python程序設(shè)計(jì)有所幫助。

相關(guān)文章

最新評論