欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

關(guān)于python爬蟲應(yīng)用urllib庫作用分析

 更新時(shí)間:2021年09月04日 10:24:05   作者:Y-peak  
這篇文章主要介紹了關(guān)于python爬蟲應(yīng)用urllib庫作用分析,想要進(jìn)行python爬蟲首先我們需要先將網(wǎng)頁上面的信息給獲取下來,這就是utllib庫的作用,有需要的朋友可以借鑒參考下

一、urllib庫是什么?

urllib庫用于操作網(wǎng)頁 URL,并對(duì)網(wǎng)頁的內(nèi)容進(jìn)行抓取處理

urllib包 包含以下幾個(gè)模塊:

urllib.request - 打開和讀取 URL。

urllib.error - 包含 urllib.request 拋出的異常。

urllib.parse - 解析 URL。

urllib.robotparser - 解析 robots.txt 文件

python爬蟲主要用到的urllib庫中的request和parse模塊

二、urllib庫的使用

下面我們來詳細(xì)說明一下這兩個(gè)常用模塊的基本運(yùn)用

urllib.request模塊

urllib.request 定義了一些打開 URL 的函數(shù)和類,包含授權(quán)驗(yàn)證、重定向、瀏覽器 cookies等。

語法如下:

urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None,

capath=None, cadefault=False, context=None)

 url:url 地址。

data:發(fā)送到服務(wù)器的其他數(shù)據(jù)對(duì)象,默認(rèn)為 None。

timeout:設(shè)置訪問超時(shí)時(shí)間。

cafile capath:cafile 為 CA 證書, capath 為 CA 證書的路徑,使用 HTTPS 需要用到。

cadefault:已經(jīng)被棄用。

context:ssl.SSLContext類型,用來指定 SSL 設(shè)置。

# -*- codeing = utf-8 -*-
# @Author: Y-peak
# @Time : 2021/9/2 19:24
# @FileName : testUrllib.py
# Software : PyCharm
import urllib.request
#get請(qǐng)求
response = urllib.request.urlopen("http://www.baidu.com")  #返回的是存儲(chǔ)網(wǎng)頁數(shù)據(jù)的對(duì)象
#print(response)  可以嘗試打印一下看一下
print(response.read().decode('utf-8')) #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼

在這里插入圖片描述

將其打印的內(nèi)容寫到一個(gè)html文件中,打開和百度一毛一樣

# -*- codeing = utf-8 -*-
# @Author: Y-peak
# @Time : 2021/9/2 19:24
# @FileName : testUrllib.py
# Software : PyCharm
import urllib.request
response = urllib.request.urlopen("http://www.baidu.com")  #返回的是存儲(chǔ)網(wǎng)頁數(shù)據(jù)的對(duì)象
data = response.read().decode('utf-8')  #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
#print(data)
with open("index.html",'w',encoding='utf-8') as wfile: #或者你們也可以常規(guī)打開,不過需要最后關(guān)閉記得close()
    wfile.write(data)
    print("讀取結(jié)束")

在這里插入圖片描述

urllib.parse模塊

有時(shí)我們爬蟲需要模擬瀏覽器進(jìn)行用戶登錄等操作,這個(gè)時(shí)候我們就需要進(jìn)行post請(qǐng)求

但是post必須有一個(gè)獲取請(qǐng)求之后的響應(yīng),也就是我們需要有一個(gè)服務(wù)器。給大家介紹一個(gè)免費(fèi)的服務(wù)器網(wǎng)址,就是用來測(cè)試用的http://httpbin.org/。主要用來測(cè)試http和https的

在這里插入圖片描述

在這里插入圖片描述

我們可以嘗試執(zhí)行一下,去獲取對(duì)應(yīng)的響應(yīng)。

在這里插入圖片描述

在這里插入圖片描述

可以用Linux命令去發(fā)起請(qǐng)求,URL地址為http://httpbin.org/post。得到下方的響應(yīng)。

在這里插入圖片描述

我們也可以通過爬蟲來實(shí)現(xiàn)

# -*- codeing = utf-8 -*-
# @Author: Y-peak
# @Time : 2021/9/2 19:24
# @FileName : testUrllib.py
# Software : PyCharm
import urllib.request
import urllib.parse #解析器
data = bytes(urllib.parse.urlencode({"hello":"world"}),encoding='utf-8')  #轉(zhuǎn)換為二進(jìn)制數(shù)據(jù)包,里面是鍵值對(duì)(有時(shí)輸入的用戶名:密碼就是這樣的),還有一些編碼解碼的數(shù)值等.這里就是按照utf-8的格式進(jìn)行解析封裝生成二進(jìn)制數(shù)據(jù)包
response = urllib.request.urlopen("http://httpbin.org/post",data=data)  #返回的請(qǐng)求
print(response.read().decode('utf-8'))      #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼

兩個(gè)響應(yīng)結(jié)果對(duì)比是不是一樣幾乎

在這里插入圖片描述

在這里插入圖片描述

相當(dāng)于進(jìn)行了一次模擬的post請(qǐng)求。這樣有些需要登錄的網(wǎng)站也是可以爬取的。

利用try-except,進(jìn)行超時(shí)處理

一般進(jìn)行爬蟲時(shí),不可能一直等待響應(yīng)。有時(shí)網(wǎng)絡(luò)不好或者網(wǎng)頁有反爬或者一些其他東西時(shí)。無法快速爬出。我們就可以進(jìn)入下一個(gè)網(wǎng)頁繼續(xù)去爬。利用timeout屬性就好

# -*- codeing = utf-8 -*-
# @Author: Y-peak
# @Time : 2021/9/2 19:24
# @FileName : testUrllib.py
# Software : PyCharm
import urllib.request
try:
    response = urllib.request.urlopen("http://httpbin.org/get",timeout=0.01)  #返回的是存儲(chǔ)網(wǎng)頁數(shù)據(jù)的對(duì)象, 直接用這個(gè)網(wǎng)址的get請(qǐng)求了.timeout表示超時(shí),超過0.01秒不響應(yīng)就報(bào)錯(cuò),避免持續(xù)等待
    print(response.read().decode('utf-8'))      #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
except urllib.error.URLError as e:
    print("超時(shí)了\t\t錯(cuò)誤為:",e)

status狀態(tài)碼 && getheaders()

status:

  • 返回200,正確響應(yīng)可以爬取
  • 報(bào)錯(cuò)404,沒有找到網(wǎng)頁
  • 報(bào)錯(cuò)418,老子知道你就是爬蟲
  • getheaders():獲取Response Headers

在這里插入圖片描述 

  • 也可以通過gethead(“xx”) 獲取xx對(duì)應(yīng)的值,比如:上圖 gethead(content-encoding) 為 gzip

突破反爬

首先打開任何一個(gè)網(wǎng)頁按F12找到Response Headers,拉到最下面找到 User-Agent。將其復(fù)制保存下來,為反爬做準(zhǔn)備。

在這里插入圖片描述

在這里插入圖片描述

下面我們進(jìn)行嘗試,直接爬取豆瓣,直接來個(gè)418,知道你是爬蟲,我們來偽裝一下

在這里插入圖片描述

為什么418呢,因?yàn)槿绻侵苯舆M(jìn)行請(qǐng)求訪問的話,發(fā)過去的User-Agent 是下面的,直接告訴瀏覽器我們是爬蟲。我們需要偽裝

在這里插入圖片描述

# -*- codeing = utf-8 -*-
# @Author: Y-peak
# @Time : 2021/9/2 19:24
# @FileName : testUrllib.py
# Software : PyCharm
import urllib.request
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"
}
request = urllib.request.Request("http://douban.com", headers=headers) #返回的是請(qǐng)求,將我們偽裝成瀏覽器發(fā)送的請(qǐng)求
response = urllib.request.urlopen(request)  #返回的是存儲(chǔ)網(wǎng)頁數(shù)據(jù)的對(duì)象
data = response.read().decode('utf-8')     #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
with open("index.html",'w',encoding='utf-8') as wfile: #或者你們也可以常規(guī)打開,不過需要最后關(guān)閉記得close()
    wfile.write(data)

當(dāng)然反爬不可能如此簡(jiǎn)單,上面將講的那個(gè) post請(qǐng)求,也是十分常見的突破反爬的方式,不行就將整個(gè)Response Headers全部模仿。下面還有個(gè)例子作為參考。和上面的post訪問的網(wǎng)址一樣

瀏覽器訪問結(jié)果

在這里插入圖片描述

爬蟲訪問結(jié)果

# -*- codeing = utf-8 -*-
# @Author: Y-peak
# @Time : 2021/9/3 0:47
# @FileName : testUrllib.py
# Software : PyCharm

import urllib.request
import urllib.parse
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"
}
url = "http://httpbin.org/post"
data = (bytes)(urllib.parse.urlencode({"賬戶":"密碼"}),encoding = 'utf-8')
request = urllib.request.Request(url, data = data,headers=headers, method='POST') #返回的是請(qǐng)求
response = urllib.request.urlopen(request)  #返回的是存儲(chǔ)網(wǎng)頁數(shù)據(jù)的對(duì)象
data = response.read().decode('utf-8')     #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
print(data)

在這里插入圖片描述

以上就是關(guān)于python爬蟲應(yīng)用urllib庫作用分析的詳細(xì)內(nèi)容,更多關(guān)于python爬蟲urllib庫分析的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • 一文教會(huì)你調(diào)整Matplotlib子圖的大小

    一文教會(huì)你調(diào)整Matplotlib子圖的大小

    Matplotlib的可以把很多張圖畫到一個(gè)顯示界面,這就設(shè)計(jì)到面板切分成一個(gè)一個(gè)子圖,下面這篇文章主要給大家介紹了關(guān)于調(diào)整Matplotlib子圖大小的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2022-06-06
  • Python3中l(wèi)ambda表達(dá)式與函數(shù)式編程講解

    Python3中l(wèi)ambda表達(dá)式與函數(shù)式編程講解

    今天小編就為大家分享一篇關(guān)于Python3中l(wèi)ambda表達(dá)式與函數(shù)式編程講解,小編覺得內(nèi)容挺不錯(cuò)的,現(xiàn)在分享給大家,具有很好的參考價(jià)值,需要的朋友一起跟隨小編來看看吧
    2019-01-01
  • Python獲取接口請(qǐng)求耗時(shí)的方法詳解

    Python獲取接口請(qǐng)求耗時(shí)的方法詳解

    你想知道我們請(qǐng)求一個(gè)url的時(shí)候,握手和請(qǐng)求資源分別占用多長(zhǎng)時(shí)間么?今天我們就來使用python寫個(gè)小案例來看看,感興趣的可以跟隨小編一起了解一下
    2023-04-04
  • 深入理解Python中的*args和**kwargs參數(shù)(示例代碼)

    深入理解Python中的*args和**kwargs參數(shù)(示例代碼)

    *args和**kwargs是Python函數(shù)編程中極其有用的特性,它們?yōu)楹瘮?shù)參數(shù)的處理提供了極大的靈活性和強(qiáng)大的功能,這篇文章主要介紹了Python中的*args和**kwargs參數(shù),需要的朋友可以參考下
    2024-06-06
  • Python HTMLParser模塊解析html獲取url實(shí)例

    Python HTMLParser模塊解析html獲取url實(shí)例

    這篇文章主要介紹了Python HTMLParser模塊解析html獲取url實(shí)例,HTMLParser是python用來解析html的模塊,HTMLParser采用的是一種事件驅(qū)動(dòng)的模式,需要的朋友可以參考下
    2015-04-04
  • Python開發(fā)必知必會(huì)標(biāo)識(shí)符UUID全面使用指南

    Python開發(fā)必知必會(huì)標(biāo)識(shí)符UUID全面使用指南

    在Python編程中,UUID(通用唯一標(biāo)識(shí)符)是一個(gè)非常有用的工具,用于生成唯一的標(biāo)識(shí)符,本文將深入探討Python中UUID的用法、不同版本的UUID、以及如何在實(shí)際應(yīng)用中充分利用UUID的優(yōu)勢(shì)
    2023-12-12
  • Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解

    Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解

    今天小編就為大家分享一篇Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2018-06-06
  • Django批量向admin注冊(cè)模型方法詳解

    Django批量向admin注冊(cè)模型方法詳解

    這篇文章主要為大家介紹了Django批量向admin注冊(cè)模型方法詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-06-06
  • Python文件的操作處理詳解

    Python文件的操作處理詳解

    今天這篇文章給大家介紹Python文件的操作處理,文章內(nèi)容介紹的很詳細(xì),有需要的可以參考借鑒,希望能夠給你帶來幫助
    2021-10-10
  • Python dict和defaultdict使用實(shí)例解析

    Python dict和defaultdict使用實(shí)例解析

    這篇文章主要介紹了Python dict和defaultdict使用實(shí)例解析,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-03-03

最新評(píng)論