python網(wǎng)絡(luò)編程學(xué)習(xí)筆記(六):Web客戶端訪問
6.1 最簡單的爬蟲
網(wǎng)絡(luò)爬蟲是一個自動提取網(wǎng)頁的程序,它為搜索引擎從萬維網(wǎng)上下載網(wǎng)頁,是搜索引擎的重要組成。python的urllib\urllib2等模塊很容易實現(xiàn)這一功能,下面的例子實現(xiàn)的是對baidu首頁的下載。具體代碼如下:
import urllib2
page=urllib2.urlopen("http://www.baidu.com")
print page.read()
6.2 提交表單數(shù)據(jù)
(1)用GET方法提交數(shù)據(jù)
提交表單的GET方法是把表單數(shù)據(jù)編碼至URL。在給出請示的頁面后,加上問號,接著是表單的元素。如在百度中搜索“馬伊琍”得到url為http://www.baidu.com/s?wd=%E9%A9%AC%E4%BC%8A%E7%90%8D&pn=100&rn=20&ie=utf-8&usm=4&rsv_page=1。其中?后面為表單元素。wd=%E9%A9%AC%E4%BC%8A%E7%90%8D表示搜索的詞是“馬伊琍”,pn表示從第100條信息所在頁開始顯示(感覺是這樣,我試了幾次,當(dāng)寫100時,從其所在頁顯示,但如果寫10,就是從第1頁顯示),rn=20表示每頁顯示20條,ie=utf-8表示編碼格式,usm=4沒明白是什么意思,換了1、2、3試了下,沒發(fā)現(xiàn)什么變化,rsv_page=1表示第幾頁。如果要下載以上頁面比較簡單的方法是直接用上面的網(wǎng)址進(jìn)行提取。如代碼:
import urllib2
keyword=urllib.quote('馬伊琍')
page=urllib2.urlopen("http://www.baidu.com/s?wd="+keyword+"&pn=100&rn=20&ie=utf-8&usm=4&rsv_page=1")
print page.read()
(2)用post方法提交
GET方法中,數(shù)據(jù)是被加到URL上,這種方法數(shù)據(jù)量要求不大,如果需要交換大量數(shù)據(jù)的時間,POST方法是一個很好的方法。這里以前段時間寫的博客《python模擬163登陸獲取郵件列表》為例,具體代碼不在列出,詳見地址:http://www.cnblogs.com/xiaowuyi/archive/2012/05/21/2511428.html。
6.3 urllib,urllib2,httplib,mechanize的介紹
6.3.1urllib模塊(引自:http://my.oschina.net/duhaizhang/blog/68893)
urllib模塊提供接口可以使我們像訪問本地文件一樣來讀取www和ftp上的數(shù)據(jù)。模塊中最重要的兩個函數(shù)分別是:urlopen()和urlretrieve()。
urllib.urlopen(url[, data[, proxies]]) :
本函數(shù)創(chuàng)建一個表示遠(yuǎn)程url的類文件對象,然后像本地文件一樣操作這個類文件對象來獲取遠(yuǎn)程數(shù)據(jù)。參數(shù)url表示遠(yuǎn)程數(shù)據(jù)的路徑,一般是網(wǎng)址;參數(shù)data表示以post方式提交到url的數(shù)據(jù);參數(shù)proxies用于設(shè)置代理。urlopen返回 一個類文件對象,返回的類文件對象提供了如下方法:
read(), readline(), readlines(), fileno(), close():這些方法的使用方式與文件對象完全一樣;
info():返回一個httplib.HTTPMessage對象,表示遠(yuǎn)程服務(wù)器返回的頭信息;
getcode():返回Http狀態(tài)碼。如果是http請求,200表示請求成功完成;404表示網(wǎng)址未找到;
geturl():返回請求的url;
#! /usr/bin/env python
#coding=utf-8
import urllib
content=urllib.urlopen("http://www.baidu.com")
print "http header:",content.info()
print "http status:",content.getcode()
print "url:",content.geturl()
print "content:"
for line in content.readlines():
print line
urllib.urlretrieve(url[, filename[, reporthook[, data]]]):
urlretrieve方法直接將遠(yuǎn)程數(shù)據(jù)下載到本地。參數(shù)filename指定了保存到本地的路徑(如果未指定該參數(shù),urllib會生成一個臨時文件來保存數(shù)據(jù));參數(shù)reporthook是一個 回調(diào)函數(shù),當(dāng)連接上服務(wù)器、以及相應(yīng)的數(shù)據(jù) 塊傳輸完畢的時候會觸發(fā)該回調(diào)(即每下載一塊就調(diào)用一次回調(diào)函數(shù))。我們可以利用這個回調(diào)函 數(shù)來顯示當(dāng)前的下載進(jìn)度,也可以用于限速,下面的例子會展示。參數(shù)data指post到服務(wù)器的數(shù)據(jù)。該方法返回一個包含兩個元素的元組(filename, headers),filename表示保存到本地的路徑, header表示服務(wù)器的響應(yīng)頭。
#! /usr/bin/env python
# coding: utf-8
"""下載文件,并顯示下載進(jìn)度"""
import urllib
def DownCall(count,size,total_filesize):
"""count為已下載數(shù)據(jù)塊個數(shù),size為數(shù)據(jù)塊的大小,total_filesize為文件總大小"""
per=100.0*count*size/total_filesize
if per>100:
per=100
print "Already download %d KB(%.2f" %(count*size/1024,per)+"%)"
url="http://www.research.rutgers.edu/~rohanf/LP.pdf"
localfilepath=r"C:\Users\Administrator\Desktop\download.pdf"
urllib.urlretrieve(url,localfilepath,DownCall)
urllib中還提供了一些輔助方法,用于對url進(jìn)行編碼、解碼。url中是不能出現(xiàn)一些特殊的符號的,有些符號有特殊的用途。我們知道以get方式提交數(shù)據(jù)的時候,會在url中添加key=value這樣的字符串,所以在value中是不允許有'=',因此要對其進(jìn)行編碼;與此同時服務(wù)器接收到這些參數(shù)的時候,要進(jìn)行解碼,還原成原始的數(shù)據(jù)。這個時候,這些輔助方法會很有用:
urllib.quote(string[, safe]):對字符串進(jìn)行編碼。參數(shù)safe指定了不需要編碼的字符;
urllib.unquote(string) :對字符串進(jìn)行解碼;
urllib.quote_plus(string[, safe]) :與urllib.quote類似,但這個方法用'+'來替換' ',而quote用'%20'來代替' '
urllib.unquote_plus(string) :對字符串進(jìn)行解碼;
urllib.urlencode(query[, doseq]):將dict或者包含兩個元素的元組列表轉(zhuǎn)換成url參數(shù)。例如 字典{'name': 'dark-bull', 'age': 200}將被轉(zhuǎn)換為"name=dark-bull&age=200"
urllib.pathname2url(path):將本地路徑轉(zhuǎn)換成url路徑;
urllib.url2pathname(path):將url路徑轉(zhuǎn)換成本地路徑;
6.3.2 urllib2模塊(引自:http://hankjin.blog.163.com/blog/static/3373193720105140583594/)
使用Python訪問網(wǎng)頁主要有三種方式: urllib, urllib2, httplib
urllib比較簡單,功能相對也比較弱,httplib簡單強大,但好像不支持session
(1)最簡單的頁面訪問
res=urllib2.urlopen(url)
print res.read()
(2)加上要get或post的數(shù)據(jù)
data={"name":"hank", "passwd":"hjz"}
urllib2.urlopen(url, urllib.urlencode(data))
(3)加上http頭
header={"User-Agent": "Mozilla-Firefox5.0"}
urllib2.urlopen(url, urllib.urlencode(data), header)
使用opener和handler
opener = urllib2.build_opener(handler)
urllib2.install_opener(opener)
(4)加上session
cj = cookielib.CookieJar()
cjhandler=urllib2.HTTPCookieProcessor(cj)
opener = urllib2.build_opener(cjhandler)
urllib2.install_opener(opener)
(5)加上Basic認(rèn)證
password_mgr = urllib2.HTTPPasswordMgrWithDefaultRealm()
top_level_url = "http://www.163.com/"
password_mgr.add_password(None, top_level_url, username, password)
handler = urllib2.HTTPBasicAuthHandler(password_mgr)
opener = urllib2.build_opener(handler)
urllib2.install_opener(opener)
(6) 使用代理
proxy_support = urllib2.ProxyHandler({"http":"http://1.2.3.4:3128/"})
opener = urllib2.build_opener(proxy_support)
urllib2.install_opener(opener)
(7) 設(shè)置超時
socket.setdefaulttimeout(5)
6.3.3 httplib模塊(引自:http://hi.baidu.com/avengert/item/be5daec8517b12ddee183b81)
httplib 是 python中http 協(xié)議的客戶端實現(xiàn),可以使用該模塊來與 HTTP 服務(wù)器進(jìn)行交互。httplib的內(nèi)容不是很多,也比較簡單。以下是一個非常簡單的例子,使用httplib獲取google首頁的html:
#coding=gbk
import httplib
conn = httplib.HTTPConnection("www.google.cn")
conn.request('get', '/')
print conn.getresponse().read()
conn.close()
下面詳細(xì)介紹httplib提供的常用類型和方法。
httplib.HTTPConnection ( host [ , port [ , strict [ , timeout ]]] )
HTTPConnection類的構(gòu)造函數(shù),表示一次與服務(wù)器之間的交互,即請求/響應(yīng)。參數(shù)host表示服務(wù)器主機,如:www.csdn.net;port為端口號,默認(rèn)值為80; 參數(shù)strict的 默認(rèn)值為false, 表示在無法解析服務(wù)器返回的狀態(tài)行時( status line) (比較典型的狀態(tài)行如: HTTP/1.0 200 OK ),是否拋BadStatusLine 異常;可選參數(shù)timeout 表示超時時間。
HTTPConnection提供的方法:
HTTPConnection.request ( method , url [ , body [ , headers ]] )
調(diào)用request 方法會向服務(wù)器發(fā)送一次請求,method 表示請求的方法,常用有方法有g(shù)et 和post ;url 表示請求的資源的url ;body 表示提交到服務(wù)器的數(shù)據(jù),必須是字符串(如果method 是"post" ,則可以把body 理解為html 表單中的數(shù)據(jù));headers 表示請求的http 頭。
HTTPConnection.getresponse ()
獲取Http 響應(yīng)。返回的對象是HTTPResponse 的實例,關(guān)于HTTPResponse 在下面 會講解。
HTTPConnection.connect ()
連接到Http 服務(wù)器。
HTTPConnection.close ()
關(guān)閉與服務(wù)器的連接。
HTTPConnection.set_debuglevel ( level )
設(shè)置高度的級別。參數(shù)level 的默認(rèn)值為0 ,表示不輸出任何調(diào)試信息。
httplib.HTTPResponse
HTTPResponse表示服務(wù)器對客戶端請求的響應(yīng)。往往通過調(diào)用HTTPConnection.getresponse()來創(chuàng)建,它有如下方法和屬性:
HTTPResponse.read([amt])
獲取響應(yīng)的消息體。如果請求的是一個普通的網(wǎng)頁,那么該方法返回的是頁面的html??蛇x參數(shù)amt表示從響應(yīng)流中讀取指定字節(jié)的數(shù)據(jù)。
HTTPResponse.getheader(name[, default])
獲取響應(yīng)頭。Name表示頭域(header field)名,可選參數(shù)default在頭域名不存在的情況下作為默認(rèn)值返回。
HTTPResponse.getheaders()
以列表的形式返回所有的頭信息。
HTTPResponse.msg
獲取所有的響應(yīng)頭信息。
HTTPResponse.version
獲取服務(wù)器所使用的http協(xié)議版本。11表示http/1.1;10表示http/1.0。
HTTPResponse.status
獲取響應(yīng)的狀態(tài)碼。如:200表示請求成功。
HTTPResponse.reason
返回服務(wù)器處理請求的結(jié)果說明。一般為”O(jiān)K”
下面通過一個例子來熟悉HTTPResponse中的方法:
#coding=gbk
import httplib
conn = httplib.HTTPConnection("www.g.cn", 80, False)
conn.request('get', '/', headers = {"Host": "www.google.cn",
"User-Agent": "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.1) Gecko/20090624 Firefox/3.5",
"Accept": "text/plain"})
res = conn.getresponse()
print 'version:', res.version
print 'reason:', res.reason
print 'status:', res.status
print 'msg:', res.msg
print 'headers:', res.getheaders()
#html
#print '\n' + '-' * 50 + '\n'
#print res.read()
conn.close()
Httplib模塊中還定義了許多常量,如:
Httplib. HTTP_PORT 的值為80,表示默認(rèn)的端口號為80;
Httplib.OK 的值為200,表示請求成功返回;
Httplib. NOT_FOUND 的值為40表示請求的資源不存在;
可以通過httplib.responses 查詢相關(guān)變量的含義,如:
Print httplib.responses[httplib.NOT_FOUND]
6.3.4 mechanize
mechanize沒有找到比較完整的介紹,自己寫了一個簡單的例子如下。
# -*- coding: cp936 -*-
import time,string
import mechanize,urllib
from mechanize import Browser
urlname=urllib.quote('馬伊琍')
br=Browser()
br.set_handle_robots(False) ##ignore the robots.txt
urlhttp=r'http://www.baidu.com/s?'+urlname+"&pn=10&rn=20&ie=utf-8&usm=4&rsv_page=1"
response=br.open(urlhttp)
filename='temp.html'
f=open(filename,'w')
f.write(response.read())
f.close()
- python網(wǎng)絡(luò)編程之TCP通信實例和socketserver框架使用例子
- Python 網(wǎng)絡(luò)編程起步(Socket發(fā)送消息)
- python網(wǎng)絡(luò)編程之UDP通信實例(含服務(wù)器端、客戶端、UDP廣播例子)
- python socket網(wǎng)絡(luò)編程步驟詳解(socket套接字使用)
- python網(wǎng)絡(luò)編程學(xué)習(xí)筆記(三):socket網(wǎng)絡(luò)服務(wù)器
- python網(wǎng)絡(luò)編程實例簡析
- python網(wǎng)絡(luò)編程學(xué)習(xí)筆記(八):XML生成與解析(DOM、ElementTree)
- 用Python進(jìn)行TCP網(wǎng)絡(luò)編程的教程
- python網(wǎng)絡(luò)編程學(xué)習(xí)筆記(九):數(shù)據(jù)庫客戶端 DB-API
- python網(wǎng)絡(luò)編程學(xué)習(xí)筆記(二):socket建立網(wǎng)絡(luò)客戶端
- python網(wǎng)絡(luò)編程學(xué)習(xí)筆記(七):HTML和XHTML解析(HTMLParser、BeautifulSoup)
- Python簡單網(wǎng)絡(luò)編程示例【客戶端與服務(wù)端】
相關(guān)文章
Python 從subprocess運行的子進(jìn)程中實時獲取輸出的例子
今天小編就為大家分享一篇Python 從subprocess運行的子進(jìn)程中實時獲取輸出的例子,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-08-08python實現(xiàn)飛機大戰(zhàn)游戲(pygame版)
這篇文章主要為大家詳細(xì)介紹了python實現(xiàn)pygame版的飛機大戰(zhàn)游戲,文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2020-02-02python入門for循環(huán)嵌套理解學(xué)習(xí)
這篇文章主要介紹了python入門關(guān)于for循環(huán)嵌套的理解學(xué)習(xí),希望大家可以學(xué)會并運用到日常工作中,有需要的朋友可以借鑒參考下,希望能夠有幫助2021-09-09Python獲取網(wǎng)絡(luò)圖片和視頻的示例代碼
Python 是一種多用途語言,廣泛用于腳本編寫。我們可以編寫Python 腳本來自動化日常事務(wù)。本文將用Python實現(xiàn)獲取Google圖片和YouTube視頻,需要的可以參考一下2022-03-03python 計算數(shù)組中每個數(shù)字出現(xiàn)多少次--“Bucket”桶的思想
這篇文章主要介紹了python 計算數(shù)組中每個數(shù)字出現(xiàn)多少次--“Bucket”桶的思想,需要的朋友可以參考下2017-12-12