欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python urllib.request對象案例解析

 更新時間:2020年05月11日 09:50:22   作者:孤燈引路人  
這篇文章主要介紹了Python urllib.request對象案例解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下

剛剛接觸爬蟲,基礎(chǔ)的東西得時時回顧才行,這么全面的帖子無論如何也得厚著臉皮轉(zhuǎn)過來??!

什么是 Urllib 庫?

urllib 庫 是 Python 內(nèi)置的 HTTP 請求庫。urllib 模塊提供的上層接口,使訪問 www 和 ftp 上的數(shù)據(jù)就像訪問本地文件一樣。

有以下幾種模塊:

1.urllib.request 請求模塊

2. urllib.error 異常處理模塊

3. urllib.parse url 解析模塊

4. urllib.robotparser robots.txt 解析模塊

Urllib 庫下的幾種模塊基本使用如下:

urllib.request

關(guān)于 urllib.request: urllib.request 模塊提供了最基本的構(gòu)造 HTTP (或其他協(xié)議如 FTP)請求的方法,利用它可以模擬瀏覽器的一個請求發(fā)起過程。利用不同的協(xié)議去獲取 URL 信息。它的某些接口能夠處理基礎(chǔ)認證 ( Basic Authenticaton) 、redirections (HTTP 重定向)、 Cookies (瀏覽器 Cookies)等情況。而這些接口是由 handlers 和 openers 對象提供的。

1.常用的方法有

  •   read()==讀取文件內(nèi)容
  •   geturl()==獲取請求url
  •   getheaders()==獲取http請求頭信息
  •   getcode()==獲取狀態(tài)碼
  •   readlines()==獲取一行

2.案例

#coding=utf-8
#import urllib.request
#=========response方法使用
#read()==讀取文件內(nèi)容
#geturl()==獲取請求url
#getheaders()==獲取http請求頭信息
#getcode()==獲取狀態(tài)碼
#readlines()==獲取一行
#url="http://www.baidu.com";
#response = urllib.request.urlopen(url);
#=====案例1
# str = response.read().decode();#這樣通過decode轉(zhuǎn)換為utf8
# with open("baidu.html","w",encoding="utf8") as fp:
#   fp.write(str);
#=====案例2通過字節(jié)流寫=默認通過read讀取的是字節(jié)流
# with open("bai.html","wb") as fp:
#   fp.write(response.read()); 
#==使用字節(jié)流讀取存圖片
# image_url='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=3772530225,1800402028&fm=26&gp=0.jpg';
# response = urllib.request.urlopen(image_url);
# with open("mv.jpg",'wb') as fp:
#   fp.write(response.read());
#案例3==使用內(nèi)置函數(shù)讀取圖片
#image_url='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=3772530225,1800402028&fm=26&gp=0.jpg';
#urllib.request.urlretrieve(image_url,"chun.jpg");

以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

最新評論