Python Http發(fā)送請(qǐng)求淺析
前言
相信很多人使用Python做接口請(qǐng)求(Http客戶(hù)端請(qǐng)求)的時(shí)候,很多人肯定用過(guò)這幾個(gè):urllib,urllib3,requests.沒(méi)錯(cuò),反正我常用,而且在我這里出現(xiàn)最多最靚眼的那個(gè)崽是requests, 畢竟普通接口請(qǐng)求,爬蟲(chóng)常用, 而且封裝起來(lái)后使用更為簡(jiǎn)單。所以在這篇文章里面,它是我淺析研究三國(guó)鼎立的其中之一。
這篇文章主要淺析這三個(gè):
- requests
- aiohttp
- httpx
淺析requests
在不借助其他第三方庫(kù)的情況下,requests 只能發(fā)送同步請(qǐng)求。requests 是一個(gè)Python第三方庫(kù),處理URL資源特別方便,而且相對(duì)于urllib3來(lái)說(shuō)封裝了更多功能,并且使用步驟簡(jiǎn)單。
我們深入一下到requests api源碼來(lái)看一下:

從圖片來(lái)看,其實(shí)可以大概看出requests支持哪些功能 然后圈紅的其實(shí)是最常用的一些功能,也就是可以設(shè)置請(qǐng)求方式,請(qǐng)求頭,cookie,過(guò)期時(shí)間,請(qǐng)求接口驗(yàn)證,文件上傳等等功能。
整理了日常大概常用的方,應(yīng)該是下面這幾種格式:
# get 請(qǐng)求
requests.get(url, params)
# post 請(qǐng)求
requests.post(url, data)
# 文件上傳
upload_files = {'file': open('report.xls', 'rb')}
requests.post(url, file=upload_files)
# 設(shè)置header
headers = {'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit'}
requests.post(url, headers=headers)
# 設(shè)置cookie
cookies = {'token': '12345', 'status': '摸魚(yú)'}
requests.post(url, cookies=cookies)如果單純請(qǐng)求一個(gè)接口,獲取接口數(shù)據(jù)的話(huà),上面的完全夠用了,不需要額外的操作。
但是requests有時(shí)候挺多用在爬蟲(chóng)場(chǎng)景下,爬蟲(chóng)有的需要保持登錄信息去爬取其他接口,那么單純的去使用requests.get 或者 requests.post,這都是一次性的請(qǐng)求,是不太滿(mǎn)足需求的。 對(duì)于登錄成功,再去請(qǐng)求其他的接口,可能需要之前生成的cookie或者token,這時(shí)候,這些信息就需要進(jìn)行保存。對(duì)于這種情況,可以使用requests.session,它可以自動(dòng)處理cookies,做狀態(tài)保持.
大概的使用步驟應(yīng)該是這樣子:
# 先實(shí)例化一個(gè)對(duì)象
session = requests.session()
# 給 requests.session() 對(duì)象設(shè)置cookie信息,這個(gè)看情況使用,具體情況具體分析啊
cookies_dict = {}
session.cookies = requests.utils.cookiejar_from_dict(cookies_dict)
# 后面用法和直接使用requests一樣了
# get請(qǐng)求
response = session.get(url)
# post請(qǐng)求
response = session.post(url, json=json_data)
result = response.json()
#獲取登陸的所有cookies信息
print(result.cookies.values()) 通過(guò)上面這些大概步驟,對(duì)于信息狀態(tài)保持是已經(jīng)足夠了,這時(shí)候再用這些保持的信息去爬取接口是沒(méi)有多大問(wèn)題的(按道理啊,經(jīng)典案例的話(huà)可以去模擬爬取一下淘寶PC端,本文具體的就不介紹了。)
淺析aiohttp
在不借助其他第三方庫(kù)的情況下,aiohttp只能發(fā)送異步請(qǐng)求。
其實(shí),人都是貪心的,在同步請(qǐng)求足夠完成需求后,那么人就會(huì)去從其他方面去提升, 比如同樣的接口,希望能更快的處理返回,減少消耗時(shí)間,不希望阻塞。
那么隨著這種需要,那么異步請(qǐng)求也就出現(xiàn)了。目前支持異步請(qǐng)求的方式有 async/await+asyncio+requests 組合構(gòu)成,也可以使用aiohttp.aiohttp是一個(gè)為Python提供異步HTTP客戶(hù)端、服務(wù)端編程,基于asyncio的異步庫(kù)。aiohttp 同樣是可以設(shè)置請(qǐng)求方式,請(qǐng)求頭,cookie,代理,上傳文件等功能的
大概用代碼來(lái)表示,應(yīng)該是常見(jiàn)這些:
# post 請(qǐng)求
payload = {
"data": "hello world"
}
async with aiohttp.ClientSession() as session:
async with session.post(url, json=payload) as resp:
print(resp.status)
# get請(qǐng)求
# 創(chuàng)建使用session
async with aiohttp.ClientSession() as session:
async with session.get(url) as resp:
print(resp.status)
res = await resp.text()
return res
# 上傳文件
files = {'file': open('report.xls', 'rb')}
async with aiohttp.ClientSession() as sess:
async with sess.post(url, data=files) as resp:
print(resp.status)
print(await resp.text())
# 設(shè)置header, cookie
headers = {'User-Agent': 'your agent'}
cookies= {'cookies_are': '摸魚(yú)'}
async with aiohttp.ClientSession(headers=headers, cookies=cookies) as session:
async with session.get(url) as resp:
print(resp.status)
res = await resp.text()
return res當(dāng)然異步的請(qǐng)求,多可以是對(duì)接口返回?cái)?shù)據(jù)在其他地方?jīng)]有太強(qiáng)的依賴(lài),異步的作用更多是用于提高效率,節(jié)省同步等待時(shí)間。
淺析httpx
在不借助其他第三方庫(kù)的情況下,httpx既能發(fā)送同步請(qǐng)求,又能發(fā)送異步請(qǐng)求
httpx是Python新一代的網(wǎng)絡(luò)請(qǐng)求庫(kù),它包含以下特點(diǎn):
- 1.基于Python3的功能齊全的http請(qǐng)求模塊
- 2.既能發(fā)送同步請(qǐng)求,也能發(fā)送異步請(qǐng)求
- 3.支持HTTP/1.1和HTTP/2
- 4.能夠直接向WSGI應(yīng)用程序或者ASGI應(yīng)用程序發(fā)送請(qǐng)求
安裝 httpx需要Python3.6+(使用異步請(qǐng)求需要Python3.8+)
httpx是Python新一代的網(wǎng)絡(luò)請(qǐng)求庫(kù), 功能和requests基本都一致,但是requests在沒(méi)有第三方庫(kù)的支持下只能發(fā)同步請(qǐng)求, 但是httpx不僅可以發(fā)同步請(qǐng)求,還可以異步,這個(gè)是比requests要好的。因?yàn)楹蛂equests差不多,那么requests能支持設(shè)置的,那么httpx也同樣可以支持
基本的使用方法:
data = {
'name': 'autofelix',
'age': 25
}
# get請(qǐng)求
httpx.get(url,params=data)
# post請(qǐng)求
httpx.post(url, data=data)
# 設(shè)置header,cookie,timeout
headers = {'User-Agent': 'your agent'}
cookies= {'cookies_are': '摸魚(yú)'}
httpx.get(url, headers=headers, cookies=cookies, timeout=10.0)
# 使用client發(fā)送(同步)請(qǐng)求
with httpx.Client() as client:
response = client.get(url)異步操作, 使用async/await語(yǔ)句來(lái)進(jìn)行異步操作,使用異步client比使用多線(xiàn)程發(fā)送請(qǐng)求更加高效,更能體現(xiàn)明顯的性能優(yōu)勢(shì)
import asyncio
import httpx
async def main():
# 異步請(qǐng)求AsyncClient
? ? async with httpx.AsyncClient() as client:
? ? ? ? response = await client.get(url)
? ? ? ? print(response)
if __name__ == '__main__':
# python3.7+ 支持寫(xiě)法
# asyncio.run(main())
# python3.6及以下版本寫(xiě)法
loop = asyncio.get_event_loop()
result = loop.run_until_complete(asyncio.gather(main()))
loop.close()大體看下,同步請(qǐng)求使用httpx.client(), 異步請(qǐng)求使用httpx.AsyncClient(), 然后其他的一些基本用法都大體相似??梢哉f(shuō),如果你對(duì)requests熟練,那么對(duì)于aiohttp以及httpx也是很快就能上手理解的。
結(jié)語(yǔ)
到此這篇關(guān)于Python Http發(fā)送請(qǐng)求淺析的文章就介紹到這了,更多相關(guān)Python Http請(qǐng)求內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- Httprunner簡(jiǎn)介、安裝及基本使用教程
- 通過(guò)Django Admin+HttpRunner1.5.6實(shí)現(xiàn)簡(jiǎn)易接口測(cè)試平臺(tái)
- Python?async+request與async+aiohttp實(shí)現(xiàn)異步網(wǎng)絡(luò)請(qǐng)求探索
- python獲取http請(qǐng)求響應(yīng)頭headers中的數(shù)據(jù)的示例
- Python并發(fā)編程隊(duì)列與多線(xiàn)程最快發(fā)送http請(qǐng)求方式
- 基于Python模擬瀏覽器發(fā)送http請(qǐng)求
- 詳解HttpRunner3的HTTP請(qǐng)是如何發(fā)出
相關(guān)文章
python實(shí)現(xiàn)本地批量ping多個(gè)IP的方法示例
這篇文章主要介紹了python實(shí)現(xiàn)本地批量ping多個(gè)IP的方法示例,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-08-08
python Tcp協(xié)議發(fā)送和接收信息的例子
今天小編就為大家分享一篇python Tcp協(xié)議發(fā)送和接收信息的例子,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-07-07
python制作爬蟲(chóng)爬取京東商品評(píng)論教程
本文是繼前2篇Python爬蟲(chóng)系列文章的后續(xù)篇,給大家介紹的是如何使用Python爬取京東商品評(píng)論信息的方法,并根據(jù)數(shù)據(jù)繪制成各種統(tǒng)計(jì)圖表,非常的細(xì)致,有需要的小伙伴可以參考下2016-12-12
Python Charles抓包配置實(shí)現(xiàn)流程圖解
這篇文章主要介紹了Python Charles抓包實(shí)現(xiàn)流程圖解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-09-09
利用Python過(guò)濾相似文本的簡(jiǎn)單方法示例
這篇文章主要給大家介紹了關(guān)于利用Python過(guò)濾相似文本的簡(jiǎn)單方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2021-02-02
Python實(shí)現(xiàn)的Google IP 可用性檢測(cè)腳本
這篇文章主要介紹了Python實(shí)現(xiàn)的Google IP 可用性檢測(cè)腳本,本文腳本需要Python 3.4+環(huán)境,需要的朋友可以參考下2015-04-04
python使用正則表達(dá)式去除中文文本多余空格,保留英文之間空格方法詳解
這篇文章主要介紹了python使用正則表達(dá)式去除中文文本多余空格,保留英文之間空格方法詳解,需要的朋友可以參考下2020-02-02

