python33 urllib2使用方法細(xì)節(jié)講解
Proxy 的設(shè)置
urllib2 默認(rèn)會(huì)使用環(huán)境變量 http_proxy 來設(shè)置 HTTP Proxy。如果想在程序中明確控制 Proxy 而不受環(huán)境變量的影響,可以使用下面的方式
import urllib2
enable_proxy = True
proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
null_proxy_handler = urllib2.ProxyHandler({})
if enable_proxy:
opener = urllib2.build_opener(proxy_handler)
else:
opener = urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)
這里要注意的一個(gè)細(xì)節(jié),使用 urllib2.install_opener() 會(huì)設(shè)置 urllib2 的全局 opener 。這樣后面的使用會(huì)很方便,但不能做更細(xì)粒度的控制,比如想在程序中使用兩個(gè)不同的 Proxy 設(shè)置等。比較好的做法是不使用 install_opener 去更改全局的設(shè)置,而只是直接調(diào)用 opener 的 open 方法代替全局的 urlopen 方法。
Timeout 設(shè)置
在老版 Python 中,urllib2 的 API 并沒有暴露 Timeout 的設(shè)置,要設(shè)置 Timeout 值,只能更改 Socket 的全局 Timeout 值。
import urllib2
import socket
socket.setdefaulttimeout(10) # 10 秒鐘后超時(shí)
urllib2.socket.setdefaulttimeout(10) # 另一種方式
在 Python 2.6 以后,超時(shí)可以通過 urllib2.urlopen() 的 timeout 參數(shù)直接設(shè)置。
import urllib2
response = urllib2.urlopen('http://www.google.com', timeout=10)
在 HTTP Request 中加入特定的 Header
要加入 header,需要使用 Request 對(duì)象:
import urllib2
request = urllib2.Request(uri)
request.add_header('User-Agent', 'fake-client')
response = urllib2.urlopen(request)
對(duì)有些 header 要特別留意,服務(wù)器會(huì)針對(duì)這些 header 做檢查
User-Agent : 有些服務(wù)器或 Proxy 會(huì)通過該值來判斷是否是瀏覽器發(fā)出的請(qǐng)求
Content-Type : 在使用 REST 接口時(shí),服務(wù)器會(huì)檢查該值,用來確定 HTTP Body 中的內(nèi)容該怎樣解析。常見的取值有:
application/xml : 在 XML RPC,如 RESTful/SOAP 調(diào)用時(shí)使用
application/json : 在 JSON RPC 調(diào)用時(shí)使用
application/x-www-form-urlencoded : 瀏覽器提交 Web 表單時(shí)使用
在使用服務(wù)器提供的 RESTful 或 SOAP 服務(wù)時(shí), Content-Type 設(shè)置錯(cuò)誤會(huì)導(dǎo)致服務(wù)器拒絕服務(wù)
Redirect
urllib2 默認(rèn)情況下會(huì)針對(duì) HTTP 3XX 返回碼自動(dòng)進(jìn)行 redirect 動(dòng)作,無需人工配置。要檢測(cè)是否發(fā)生了 redirect 動(dòng)作,只要檢查一下 Response 的 URL 和 Request 的 URL 是否一致就可以了。
import urllib2
response = urllib2.urlopen('http://www.google.cn')
redirected = response.geturl() == 'http://www.google.cn'
如果不想自動(dòng) redirect,除了使用更低層次的 httplib 庫之外,還可以自定義 HTTPRedirectHandler 類。
import urllib2
class RedirectHandler(urllib2.HTTPRedirectHandler):
def http_error_301(self, req, fp, code, msg, headers):
pass
def http_error_302(self, req, fp, code, msg, headers):
pass
opener = urllib2.build_opener(RedirectHandler)
opener.open('http://www.google.cn')
Cookie
urllib2 對(duì) Cookie 的處理也是自動(dòng)的。如果需要得到某個(gè) Cookie 項(xiàng)的值,可以這么做:
import urllib2
import cookielib
cookie = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open('http://www.google.com')
for item in cookie:
if item.name == 'some_cookie_item_name':
print item.value
使用 HTTP 的 PUT 和 DELETE 方法
urllib2 只支持 HTTP 的 GET 和 POST 方法,如果要使用 HTTP PUT 和 DELETE ,只能使用比較低層的 httplib 庫。雖然如此,我們還是能通過下面的方式,使 urllib2 能夠發(fā)出 PUT 或 DELETE 的請(qǐng)求:
import urllib2
request = urllib2.Request(uri, data=data)
request.get_method = lambda: 'PUT' # or 'DELETE'
response = urllib2.urlopen(request)
這種做法雖然屬于 Hack 的方式,但實(shí)際使用起來也沒什么問題。
得到 HTTP 的返回碼
對(duì)于 200 OK 來說,只要使用 urlopen 返回的 response 對(duì)象的 getcode() 方法就可以得到 HTTP 的返回碼。但對(duì)其它返回碼來說,urlopen 會(huì)拋出異常。這時(shí)候,就要檢查異常對(duì)象的 code 屬性了:
import urllib2
try:
response = urllib2.urlopen('http://www.jb51.ent')
except urllib2.HTTPError, e:
print e.code
Debug Log
使用 urllib2 時(shí),可以通過下面的方法把 debug Log 打開,這樣收發(fā)包的內(nèi)容就會(huì)在屏幕上打印出來,方便調(diào)試,有時(shí)可以省去抓包的工作
import urllib2
httpHandler = urllib2.HTTPHandler(debuglevel=1)
httpsHandler = urllib2.HTTPSHandler(debuglevel=1)
opener = urllib2.build_opener(httpHandler, httpsHandler)
urllib2.install_opener(opener)
response = urllib2.urlopen('http://www.google.com')
- 解決python3 urllib中urlopen報(bào)錯(cuò)的問題
- Python3.6通過自帶的urllib通過get或post方法請(qǐng)求url的實(shí)例
- 對(duì)python3 urllib包與http包的使用詳解
- Python3學(xué)習(xí)urllib的使用方法示例
- Python3中使用urllib的方法詳解(header,代理,超時(shí),認(rèn)證,異常處理)
- Python3的urllib.parse常用函數(shù)小結(jié)(urlencode,quote,quote_plus,unquote,unquote_plus等)
- python3使用urllib模塊制作網(wǎng)絡(luò)爬蟲
- python3使用urllib示例取googletranslate(谷歌翻譯)
- Python3爬蟲之urllib攜帶cookie爬取網(wǎng)頁的方法
- 詳解Python3網(wǎng)絡(luò)爬蟲(二):利用urllib.urlopen向有道翻譯發(fā)送數(shù)據(jù)獲得翻譯結(jié)果
相關(guān)文章
Python機(jī)器學(xué)習(xí)之底層實(shí)現(xiàn)KNN
今天給大家?guī)淼氖顷P(guān)于Python機(jī)器學(xué)習(xí)的相關(guān)知識(shí),文章圍繞著Python底層實(shí)現(xiàn)KNN展開,文中有非常詳細(xì)的解釋及代碼示例,需要的朋友可以參考下2021-06-06Python函數(shù)式編程實(shí)現(xiàn)登錄注冊(cè)功能
這篇文章主要為大家詳細(xì)介紹了Python函數(shù)式編程實(shí)現(xiàn)登錄注冊(cè)功能,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-02-02Python pywifi ERROR Open handle fai
這篇文章主要介紹了Python pywifi ERROR Open handle failed問題及解決方案,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-06-06python生成器/yield協(xié)程/gevent寫簡單的圖片下載器功能示例
這篇文章主要介紹了python生成器/yield協(xié)程/gevent寫簡單的圖片下載器功能,結(jié)合實(shí)例形式分析了python生成器、yield協(xié)程與gevent圖片下載器相關(guān)功能定義與使用技巧,需要的朋友可以參考下2019-10-10Python?hug庫構(gòu)建快速可擴(kuò)展的Web API框架使用詳解
這篇文章主要介紹了Python?hug庫構(gòu)建快速可擴(kuò)展的Web API框架使用詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2024-02-02Python學(xué)習(xí)筆記之字典,元組,布爾類型和讀寫文件
這篇文章主要為大家詳細(xì)介紹了Python的字典,元組,布爾類型和讀寫文件,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助2022-02-02Python讀取CSV文件并進(jìn)行數(shù)據(jù)可視化繪圖
這篇文章主要介紹了Python讀取CSV文件并進(jìn)行數(shù)據(jù)可視化繪圖,文章圍繞主題基于Python展開CSV文件讀取的詳細(xì)內(nèi)容介紹,感興趣的小伙伴可以參考一下2022-06-06