欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python 爬蟲請求模塊requests詳解

 更新時間:2020年12月04日 10:37:42   作者:碼農(nóng)一號已就位  
這篇文章主要介紹了python 爬蟲請求模塊requests詳解,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下

requests

相比urllib,第三方庫requests更加簡單人性化,是爬蟲工作中常用的庫

requests安裝

初級爬蟲的開始主要是使用requests模塊
安裝requests模塊:
Windows系統(tǒng):
cmd中:

pip install requests

mac系統(tǒng)中:
終端中:

pip3 install requests

requests庫的基本使用

import requests

url = 'https://www.csdn.net/'
reponse = requests.get(url)
#返回unicode格式的數(shù)據(jù)(str) 
print(reponse.text)

在這里插入圖片描述

響應(yīng)對象response的⽅法

response.text 返回unicode格式的數(shù)據(jù)(str)
response.content 返回字節(jié)流數(shù)據(jù)(⼆進(jìn)制)
response.content.decode(‘utf-8') ⼿動進(jìn)⾏解碼
response.url 返回url
response.encode() = ‘編碼'

狀態(tài)碼

response.status_code: 檢查響應(yīng)的狀態(tài)碼

在這里插入圖片描述

例如:
200 : 請求成功
301 : 永久重定向
302 : 臨時重定向
403 : 服務(wù)器拒絕請求
404 : 請求失敗(服務(wù)器⽆法根據(jù)客戶端的請求找到資源(⽹⻚))
500 : 服務(wù)器內(nèi)部請求

# 導(dǎo)入requests
import requests
# 調(diào)用requests中的get()方法來向服務(wù)器發(fā)送請求,括號內(nèi)的url參數(shù)就是我們
# 需要訪問的網(wǎng)址,然后將獲取到的響應(yīng)通過變量response保存起來
url = 'https://www.csdn.net/' # csdn官網(wǎng)鏈接鏈接
response = requests.get(url)
print(response.status_code) # response.status_code: 檢查響應(yīng)的狀態(tài)碼

200

請求⽅式

requests的幾種請求方式:

p = requests.get(url)
p = requests.post(url)
p = requests.put(url,data={'key':'value'})
p = requests.delete(url)
p = requests.head(url)
p = requests.options(url)

GET請求

HTTP默認(rèn)的請求方法就是GET
* 沒有請求體
* 數(shù)據(jù)必須在1K之內(nèi)!
* GET請求數(shù)據(jù)會暴露在瀏覽器的地址欄中

GET請求常用的操作:
1. 在瀏覽器的地址欄中直接給出URL,那么就一定是GET請求
2. 點擊頁面上的超鏈接也一定是GET請求
3. 提交表單時,表單默認(rèn)使用GET請求,但可以設(shè)置為POST

POST請求

(1). 數(shù)據(jù)不會出現(xiàn)在地址欄中
(2). 數(shù)據(jù)的大小沒有上限
(3). 有請求體
(4). 請求體中如果存在中文,會使用URL編碼!

requests.post()用法與requests.get()完全一致,特殊的是requests.post()有一個data參數(shù),用來存放請求體數(shù)據(jù)

請求頭

當(dāng)我們打開一個網(wǎng)頁時,瀏覽器要向網(wǎng)站服務(wù)器發(fā)送一個HTTP請求頭,然后網(wǎng)站服務(wù)器根據(jù)HTTP請求頭的內(nèi)容生成當(dāng)此請求的內(nèi)容發(fā)送給服務(wù)器。
我們可以手動設(shè)定請求頭的內(nèi)容:

import requests

header = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36'}

url = 'https://www.csdn.net/'
reponse = requests.get(url,headers=header)
#打印文本形式
print(reponse.text)

requests設(shè)置代理

使⽤requests添加代理只需要在請求⽅法中(get/post)傳遞proxies參數(shù)就可以了

cookie

cookie :通過在客戶端記錄的信息確定⽤戶身份

HTTP是⼀種⽆連接協(xié)議,客戶端和服務(wù)器交互僅僅限于 請求/響應(yīng)過程,結(jié)束后 斷開,下⼀次請求時,服務(wù)器會認(rèn)為是⼀個新的客戶端,為了維護(hù)他們之間的連接, 讓服務(wù)器知道這是前⼀個⽤戶發(fā)起的請求,必須在⼀個地⽅保存客戶端信息。

requests操作Cookies很簡單,只需要指定cookies參數(shù)即可

import requests
#這段cookies是從CSDN官網(wǎng)控制臺中復(fù)制的
header = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36',
      'cookie': 'uuid_tt_dd=10_30835064740-1583844255125-466273; dc_session_id=10_1583844255125.696601; __gads=ID=23811027bd34da29:T=1583844256:S=ALNI_MY6f7VlmNJKxrkHd2WKUIBQ34Bbnw; UserName=xdc1812547560; UserInfo=708aa833b2064ba9bb8ab0be63866b58; UserToken=708aa833b2064ba9bb8ab0be63866b58; UserNick=xdc1812547560; AU=F85; UN=xdc1812547560; BT=1590317415705; p_uid=U000000; Hm_ct_6bcd52f51e9b3dce32bec4a3997715ac=6525*1*10_30835064740-1583844255125-466273!5744*1*xdc1812547560; Hm_up_6bcd52f51e9b3dce32bec4a3997715ac=%7B%22islogin%22%3A%7B%22value%22%3A%221%22%2C%22scope%22%3A1%7D%2C%22isonline%22%3A%7B%22value%22%3A%221%22%2C%22scope%22%3A1%7D%2C%22isvip%22%3A%7B%22value%22%3A%220%22%2C%22scope%22%3A1%7D%2C%22uid_%22%3A%7B%22value%22%3A%22xdc1812547560%22%2C%22scope%22%3A1%7D%7D; log_Id_click=1; Hm_lvt_feacd7cde2017fd3b499802fc6a6dbb4=1595575203; Hm_up_feacd7cde2017fd3b499802fc6a6dbb4=%7B%22islogin%22%3A%7B%22value%22%3A%221%22%2C%22scope%22%3A1%7D%2C%22isonline%22%3A%7B%22value%22%3A%221%22%2C%22scope%22%3A1%7D%2C%22isvip%22%3A%7B%22value%22%3A%220%22%2C%22scope%22%3A1%7D%2C%22uid_%22%3A%7B%22value%22%3A%22xdc1812547560%22%2C%22scope%22%3A1%7D%7D; Hm_ct_feacd7cde2017fd3b499802fc6a6dbb4=5744*1*xdc1812547560!6525*1*10_30835064740-1583844255125-466273; Hm_up_facf15707d34a73694bf5c0d571a4a72=%7B%22islogin%22%3A%7B%22value%22%3A%221%22%2C%22scope%22%3A1%7D%2C%22isonline%22%3A%7B%22value%22%3A%221%22%2C%22scope%22%3A1%7D%2C%22isvip%22%3A%7B%22value%22%3A%220%22%2C%22scope%22%3A1%7D%2C%22uid_%22%3A%7B%22value%22%3A%22xdc1812547560%22%2C%22scope%22%3A1%7D%7D; Hm_ct_facf15707d34a73694bf5c0d571a4a72=5744*1*xdc1812547560!6525*1*10_30835064740-1583844255125-466273; announcement=%257B%2522isLogin%2522%253Atrue%252C%2522announcementUrl%2522%253A%2522https%253A%252F%252Flive.csdn.net%252Froom%252Fyzkskaka%252Fats4dBdZ%253Futm_source%253D908346557%2522%252C%2522announcementCount%2522%253A0%257D; Hm_lvt_facf15707d34a73694bf5c0d571a4a72=1596946584,1597134917,1597155835,1597206739; searchHistoryArray=%255B%2522%25E8%258F%259C%25E9%25B8%259FIT%25E5%25A5%25B3%2522%252C%2522%25E5%25AE%25A2%25E6%259C%258D%2522%255D; log_Id_pv=7; log_Id_view=8; dc_sid=c0efd34d6da090a1fccd033091e0dc53; TY_SESSION_ID=7d77f76f-a4b1-43ef-9bb5-0aebee8ee475; c_ref=https%3A//www.baidu.com/link; c_first_ref=www.baidu.com; c_first_page=https%3A//www.csdn.net/; Hm_lvt_6bcd52f51e9b3dce32bec4a3997715ac=1597245305,1597254589,1597290418,1597378513; c_segment=1; dc_tos=qf1jz2; Hm_lpvt_6bcd52f51e9b3dce32bec4a3997715ac=1597387359'}

url = 'https://www.csdn.net/'
reponse = requests.get(url,headers=header)
#打印文本形式
print(reponse.text)

session

session :通過在服務(wù)端記錄的信息確定⽤戶身份
這⾥這個session就是⼀個指 的是會話
會話對象是一種高級的用法,可以跨請求保持某些參數(shù),比如在同一個Session實例之間保存Cookie,像瀏覽器一樣,我們并不需要每次請求Cookie,Session會自動在后續(xù)的請求中添加獲取的Cookie,這種處理方式在同一站點連續(xù)請求中特別方便

處理不信任的SSL證書

什么是SSL證書?
SSL證書是數(shù)字證書的⼀種,類似于駕駛證、護(hù)照和營業(yè)執(zhí)照的電⼦副本。

因為配置在服務(wù)器上,也稱為SSL服務(wù)器證書。SSL 證書就是遵守 SSL協(xié) 議,由受信任的數(shù)字證書頒發(fā)機(jī)構(gòu)CA,在驗證服務(wù)器身份后頒發(fā),具有服務(wù) 器身份驗證和數(shù)據(jù)傳輸加密功能
我們來爬一個證書不太合格的網(wǎng)站

在這里插入圖片描述

 import requests
url = 'https://inv-veri.chinatax.gov.cn/'

resp = requests.get(url)

print(resp.text)

它報了一個錯

在這里插入圖片描述

我們來修改一下代碼

import requests
url = 'https://inv-veri.chinatax.gov.cn/'

resp = requests.get(url,verify = False)

print(resp.text)

我們的代碼又能成功爬取了

在這里插入圖片描述

到此這篇關(guān)于python 爬蟲請求模塊requests的文章就介紹到這了,更多相關(guān)python 爬蟲requests模塊內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • 詳解Python中使用base64模塊來處理base64編碼的方法

    詳解Python中使用base64模塊來處理base64編碼的方法

    8bit的bytecode經(jīng)常會被用base64編碼格式保存,Python中自帶base64模塊對base64提供支持,這里我們就來詳解Python中使用base64模塊來處理base64編碼的方法,需要的朋友可以參考下
    2016-07-07
  • pandas 對日期類型數(shù)據(jù)的處理方法詳解

    pandas 對日期類型數(shù)據(jù)的處理方法詳解

    這篇文章主要介紹了pandas 對日期類型數(shù)據(jù)的處理方法詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2019-08-08
  • Python輕松獲取網(wǎng)絡(luò)時間和本地時間技巧揭秘

    Python輕松獲取網(wǎng)絡(luò)時間和本地時間技巧揭秘

    這篇文章主要為大家介紹了Python輕松獲取網(wǎng)絡(luò)時間和本地時間技巧揭秘,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2024-01-01
  • Python3爬蟲學(xué)習(xí)入門教程

    Python3爬蟲學(xué)習(xí)入門教程

    這篇文章主要介紹了Python3爬蟲學(xué)習(xí)入門,簡單介紹了Python3爬蟲的功能、原理及使用爬蟲爬取知乎首頁相關(guān)操作技巧,需要的朋友可以參考下
    2018-12-12
  • Python實現(xiàn)簡單http服務(wù)器

    Python實現(xiàn)簡單http服務(wù)器

    這篇文章主要為大家詳細(xì)介紹了Python實現(xiàn)一個簡單http服務(wù)器,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-04-04
  • 詳解Python編程中對Monkey Patch猴子補(bǔ)丁開發(fā)方式的運(yùn)用

    詳解Python編程中對Monkey Patch猴子補(bǔ)丁開發(fā)方式的運(yùn)用

    Monkey Patch猴子補(bǔ)丁方式是指在不修改程序原本代碼的前提下,通過添加類或模塊等方式在程序運(yùn)行過程中加入代碼,下面就來進(jìn)一步詳解Python編程中對Monkey Patch猴子補(bǔ)丁開發(fā)方式的運(yùn)用
    2016-05-05
  • python3.4爬蟲demo

    python3.4爬蟲demo

    今天小編就為大家分享一篇關(guān)于python3.4爬蟲demo,小編覺得內(nèi)容挺不錯的,現(xiàn)在分享給大家,具有很好的參考價值,需要的朋友一起跟隨小編來看看吧
    2019-01-01
  • Python預(yù)測分詞的實現(xiàn)

    Python預(yù)測分詞的實現(xiàn)

    本文將結(jié)合實例代碼,介紹Python預(yù)測分詞的實現(xiàn),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-06-06
  • python多進(jìn)程(加入進(jìn)程池)操作常見案例

    python多進(jìn)程(加入進(jìn)程池)操作常見案例

    這篇文章主要介紹了python多進(jìn)程(加入進(jìn)程池)操作,結(jié)合常見案例形式分析了Python多進(jìn)程復(fù)制文件、加入進(jìn)程池及多進(jìn)程聊天等相關(guān)操作技巧,需要的朋友可以參考下
    2019-10-10
  • Django對models里的objects的使用詳解

    Django對models里的objects的使用詳解

    今天小編就為大家分享一篇Django對models里的objects的使用詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-08-08

最新評論